YouTubes alternativ “ogillar” och “inte intresserad” gör inte mycket för dina rekommendationer, säger studien • TechCrunch

Det är ingen hemlighet att båda tittare och skapare är förvirrade av pusslet som är YouTubes rekommendationsalgoritm. Nu, en ny studie av Mozilla föreslår att användarnas rekommendationer inte förändras mycket när de använder alternativ som “ogilla” och “inte intresserad” för att hindra YouTube från att föreslå liknande videor.

Organisationens studie observerade att YouTube gav dem videor som liknade vad de hade avvisat – trots att människor använde feedbackverktyg eller ändrade sina inställningar. När det kom till verktyg som förhindrar dåliga rekommendationer, var det mest ineffektivt att klicka på “inte intresserad” och “ogilla” eftersom det bara förhindrade 11 % respektive 12 % av dåliga rekommendationer. Metoder som “rekommendera inte kanal” och “ta bort från historiken” rankades högre i effektivitet och minskade 43 % respektive 29 % av dåliga rekommendationer. Sammantaget var användare som deltog i studien missnöjda med YouTubes förmåga att hålla dåliga rekommendationer borta från sina flöden.

Mozillas studie tog data från 22 722 egna användare ÅngerReporter webbläsartillägg — som låter användare rapportera “beklagliga” videor och kontrollera sina rekommendationer bättre — och analyserade mer än 567 miljoner videor. Det tog vidare en detaljerad undersökning med 2 757 ÅngerReporter användare för att bättre förstå deras feedback.

Rapporten noterade att 78,3 % av deltagarna använde YouTubes egna feedbackknappar, ändrade inställningarna eller undvek vissa videor för att “lära” algoritmen att föreslå bättre saker. Av personer som vidtog någon form av åtgärder för att bättre kontrollera YouTubes rekommendation, sa 39,3 % att dessa steg inte fungerade.

“Inget förändrat. Ibland rapporterade jag saker som vilseledande och spam och nästa dag var det tillbaka. Det känns nästan som att ju mer negativ feedback jag ger till deras förslag desto högre skitsnackberget blir. Även när du blockerar vissa källor kommer de så småningom tillbaka”, sa en undersökningstagare.

23 % av personerna som ansträngde sig för att ändra YouTubes förslag gav ett blandat svar. De citerade effekter som oönskade videor som kryper tillbaka in i flödet eller spenderar mycket tid och ansträngning för att positivt ändra rekommendationer.

“Ja, de förändrades, men på ett dåligt sätt. På ett sätt känner jag mig straffad för att jag proaktivt försöker ändra algoritmens beteende. På vissa sätt ger mindre interaktion mindre data att basera rekommendationerna på”, sa en annan studiedeltagare.

Mozilla drog slutsatsen att inte ens YouTubes mest effektiva verktyg för att avvärja dåliga rekommendationer var tillräckliga för att ändra användarnas flöden. Det sa att företaget “inte är så intresserade av att höra vad dess användare verkligen vill ha, utan föredrar att förlita sig på ogenomskinliga metoder som driver engagemang oavsett användarnas bästa.”

Organisationen rekommenderade YouTube att designa lättförståeliga användarkontroller och ge forskare detaljerad dataåtkomst för att bättre förstå videodelningssidans rekommendationsmotor. Vi har bett YouTube att lämna en kommentar om studien och kommer att uppdatera historien om vi hör tillbaka.

Mozilla genomförde en annan YouTube-baserad studie förra året som noterade att tjänstens algoritm föreslog 71% av videorna som användarna “ångrade” att de tittade på, vilket inkluderade klipp om felaktig information och spam. Några månader efter att denna studie offentliggjordes, skrev YouTube ett blogginlägg försvarar sitt beslut att bygga det nuvarande rekommendationssystemet och filtrera bort innehåll av “låg kvalitet”.

Efter år av att förlita sig på algoritmer för att föreslå mer innehåll till användare, försöker sociala nätverk inklusive TikTok, Twitter och Instagram att ge användarna fler alternativ att förfina sina flöden.

Lagstiftare över hela världen tittar också närmare på hur ogenomskinliga rekommendationsmotorer i olika sociala nätverk kan påverka användare. Europeiska unionen antog en Digital Services Act i april för att öka algoritmisk ansvarighet från plattformar, medan USA överväger en tvådelad Filter Bubble Transparency Act för att ta itu med en liknande fråga.

Leave a Comment

Your email address will not be published.