YouTubove zatiranje QAnona ne deluje

Skrajno desna skupina QAnon je v zadnjih tednih pritegnila pozornost javnosti zaradi svoje sposobnosti manevriranja platform socialnih medijev za širjenje napačnih informacij in ustvarjanje virusne pozornosti za svoje teorije zarote.

Platforme družbenih medijev, kot sta Twitter in TikTok, so proti skupini začele ukrepati, potem ko so si dolgo ovržene teorije zarote, kot je #PizzaGate, pridobile novo pozornost, prepovedale račune in onemogočile prikazovanje svojih priljubljenih hashtagov v iskanju. Čeprav sta se obe platformi izkazali kot plodna tla za skupino, je QAnon že vrsto let cvetel na YouTubu - kljub naložbam podjetja v njegovo moderiranje.

Zdaj video platforma poskuša preprečiti, da bi se videoposnetki QAnon pojavljali v priporočilih uporabnikov, vendar je test Digital Trends ugotovil, da se videoposnetki teorije zarote še vedno pojavljajo na vidnih mestih na domači strani YouTube.

Podpornik QAnona z zastavico Q Scott Olson / Getty Images

Podporniki QAnona verjamejo v številne ovržene teorije zarote, ki so nastale na slikovnih ploščah 4chan in 8chan konec leta 2016. Skupina verjame, da oseba z imenom Q, ki trdi, da je del Trumpove administracije, objavlja depeše o vojni predsednika Donalda Trumpa proti zaroti "globokega stanja". Skupina je na YouTubu zabeležila veliko rast od leta 2016, saj algoritem, ki temelji na angažiranju, promovira videoposnetke QAnon.

"QAnon je sprva zagrabil oprijem na YouTubu," je povedal Will Partin, raziskovalni analitik z raziskovalnega inštituta za podatke in družbo, ki skupino preučuje od leta 2017. "Pobrali so jo YouTuberji, ki so res dali noge zarote, in posledično , ga resnično razširil in ga povezal z drugimi stvarmi, ki so že bile v zraku «med konservativci.

"Ne morete ustaviti nekoga, da bi ga aktivno iskal"

Zahvaljujoč naravi samega YouTuba se je izkazalo, da je platforma glavno mesto, kjer so uspevali dolgometražni, psevdo dokumentarni filmi in pogovorne oddaje, ki dešifrirajo namige ali "drobtine", ki jih je spustil "Q". Tisti, ki jih zanimajo teorije QAnon, bi lahko zlahka našli druge uporabnike, ki priporočajo dodatne videoposnetke v oddelku za komentarje ali prek YouTubovih algoritmov priporočil - funkcije, ki je bila kritika izpostavljena ostrici kot enostaven način za "radikalizacijo" gledalcev.

Zdaj pa, če v iskalno vrstico YouTuba vnesete »QAnon«, bo vaš zaslon »vidno izpostavil avtoritativne vire«, kot so novice in strokovnjaki - del YouTubovega načrta za zbiranje dejanskih vsebin za boj proti napačnim informacijam. YouTube je začel uporabljati tudi besedilna polja in informativne plošče, ki se povezujejo s tujimi viri. Digital Trends je ugotovil, da YouTube v povezanih videoposnetkih ponuja povezavo do članka na Wikipediji o QAnonu.

youtube

YouTube je dejal, da je januarja od uvedbe novih pravilnikov o moderiranju vsebine zabeležil 70-odstotno zmanjšanje števila ogledov vsebine QAnon iz priporočil za video. Ker je YouTube spletno mesto za video platforme in ne spletno mesto za družabna omrežja, moderiranje poteka na podlagi video-videa in ne po računu. Po navedbah tiskovnega predstavnika YouTube so bili sistemi platforme prilagojeni tako, da se v stranski vrstici priporočil zniža uvrstitev vsebine QAnon, tudi če gledate podobne videoposnetke.

Vendar pa je Digital Trends ugotovil, da je YouTube po ogledu pol ducata videoposnetkov, povezanih s QAnonom na platformi, na zavihku »Vsa priporočila« na domači strani predstavil vsaj tri videoposnetke z zarotami, povezanimi s QAnon. V enem od priporočenih videoposnetkov je bila omenjena zarota okoli kemične spojine Adrenochrome - ki je v širokem krogu znotraj skupin QAnon, ki so jo elitne hollywoodske osebnosti pridobile z ubijanjem otrok - in je imela več kot milijon ogledov.

Predstavnik YouTuba te zgodbe ni hotel komentirati.

Po mnenju Partina način gledanja vsebine QAnon v YouTubu ne temelji na videoposnetkih, ki jih priporočajo uporabnikom, temveč na sami vsebini videoposnetkov, povezanih s QAnon. Vplivneži QAnona pogosto v videoposnetku zavpijejo drugemu ali usmerjajo gledalce na druge strani, ne glede na to, kako YouTube moderira oznake ali videoposnetke QAnon. Vendar je Partin dejal, da obstaja nekaj oznak QAnon, ki so tako nejasne, da YouTube ne more izpolnjevati rezultatov iskanja z dejansko vsebino iz uglednih virov.

"Takrat tega ne morete algoritemsko skriti, ne morete ustaviti nekoga, da bi ga aktivno iskal," je dejal.

Partin je dejal, da je bil YouTube nekoč "ključno mesto", s katerim je bil uporabnik seznanjen z vsebinami, povezanimi s QAnon, zdaj pa se večina zaposlovanja dogaja na Facebooku - kjer se lahko zasebne skupine QAnon napihnejo na stotisoče in jih je še posebej težko moderirati.

Po poročanju The New York Times naj bi tudi Facebook po podobnih potezah moderiral skupino po sledeh Twitterja in TikToka.

"Ko se platforme premaknejo, da prepovedo QAnon, pogosto počnejo vse hkrati, da imajo moč v številkah," je dejal Partin. "Toda res je težko oblikovati politiko glede QAnona, ker je večina le običajnih konservativnih volilnih teles."

Partin je dejal, da ena stvar, za katero upa, da ljudje razumejo nevarnosti vsebin, povezanih s QAnon, na družbenih omrežjih, ni to, kako široko ali kako globoko verjamejo v njene zarote, ampak tveganje, da sam pritisne gumb "deli".

"Nemogoče je vedeti namere nekoga, vendar namen ni tako pomemben," je dejal. "V bistvu me ne zanima, ali to verjamejo ali ne verjamejo, obnašajo se tako kot to in širijo to vsebino in to verodostojnost, ne glede na namen, ki stoji za tem."

Zadnje objave

$config[zx-auto] not found$config[zx-overlay] not found