W obliczu rosnącej w Internecie dezinformacji i nienawiści YouTube po cichu zmienił sposób moderowania treści

YouTube, największa platforma wideo na świecie, najwyraźniej zmieniła swoją politykę moderowania, aby zezwolić na pozostawienie online większej ilości treści naruszających jej własne zasady.
Zmiana została wprowadzona po cichu w grudniu, jak podaje „The New York Times” , który zapoznał się z dokumentami szkoleniowymi dla moderatorów, z których wynikało, że film może pozostać w sieci, jeśli obraźliwy materiał nie zajmuje więcej niż 50 procent czasu trwania filmu — to dwa razy więcej niż przed wprowadzeniem nowych wytycznych.
YouTube, na którym codziennie przesyłanych jest 20 milionów filmów, twierdzi, że regularnie aktualizuje swoje wytyczne i że ma „ugruntowaną praktykę stosowania wyjątków”, gdy leży to w interesie publicznym lub gdy coś jest prezentowane w kontekście edukacyjnym, dokumentalnym, naukowym lub artystycznym.
„Te wyjątki dotyczą niewielkiej części filmów na YouTube, ale są niezbędne, aby zapewnić dostępność ważnych treści” — powiedziała rzeczniczka YouTube'a Nicole Bell w oświadczeniu dla CBC News w tym tygodniu.
Jednak w czasach, gdy platformy mediów społecznościowych zalewane są dezinformacją i teoriami spiskowymi, pojawiają się obawy, że YouTube jedynie otwiera drzwi większej liczbie osób, które mogą rozpowszechniać problematyczne lub szkodliwe treści — i czerpać z tego zyski.
YouTube nie jest jedyny. Meta, właściciel Facebooka i Instagrama, ograniczył moderowanie treści na początku tego roku, a Elon Musk zwolnił moderatorów Twittera, gdy kupił platformę w 2022 roku i zmienił jej nazwę na X.
„Teraz obserwujemy wyścig na dno” – powiedział CBC News Imran Ahmed, dyrektor generalny amerykańskiego Center for Countering Digital Hate. „To, co zobaczymy, to wzrost gospodarki wokół nienawiści i dezinformacji”.

Celem YouTube jest „ochrona wolności słowa” – powiedziała Brooks w swoim oświadczeniu, wyjaśniając, że złagodzenie wytycznych dla społeczności „odzwierciedla nowe rodzaje treści” na platformie.
Na przykład, dodała, może się okazać, że długi podcast zawierający jeden krótki fragment przemocy nie będzie już wymagał usuwania.
W poniedziałek „The Times ” poinformował, że pracownikom YouTube przedstawiono m.in. film, w którym ktoś użył obraźliwego określenia w odniesieniu do osób transpłciowych podczas dyskusji na temat przesłuchań kandydatów na członków gabinetu prezydenta USA Donalda Trumpa, a także inny film, w którym udostępniono fałszywe informacje na temat szczepionek przeciwko COVID-19, ale nie zawarto w nim bezpośredniego ostrzeżenia, aby się nie szczepić.
Platforma taka jak YouTube musi podejmować „naprawdę bardzo trudne decyzje” podczas moderowania treści, mówi Matt Hatfield, dyrektor wykonawczy kanadyjskiej grupy zajmującej się prawami cyfrowymi OpenMedia.
Jego zdaniem platformy traktują ten problem poważnie, ale dodaje, że trzeba znaleźć równowagę między usuwaniem szkodliwych lub niezgodnych z prawem treści, takich jak materiały przedstawiające znęcanie się nad dziećmi lub wyraźnie nawołujące do przemocy, a pozostawieniem treści online, nawet jeśli dla wielu są obraźliwe lub zawierają fałszywe informacje.
Jego zdaniem problem polega na tym, że platformy mediów społecznościowych „tworzą środowiska, które zachęcają do pewnych złych zachowań” wśród twórców, którzy lubią balansować na granicy tego, co akceptowalne.
„Podstawowym modelem tych platform jest zachęcenie Cię do klikania, oglądania, sprawienie, że spróbujesz obejrzeć film kogoś, kogo nigdy wcześniej nie widziałeś, a następnie pozostaniesz z tą osobą”.
I to właśnie niepokoi Ahmeda.
Twierdzi, że dla tych firm zyski są ważniejsze niż bezpieczeństwo w sieci i że nie ponoszą żadnych konsekwencji, ponieważ nie obowiązują ich żadne przepisy zmuszające je do ograniczania treści publikowanych na ich platformach.
Uważa, że łagodniejsza polityka YouTube'a jedynie zachęci więcej osób do wykorzystywania jego treści.
Jak dobrze YouTube moderujeW niedawnym raporcie przejrzystości YouTube poinformował, że w pierwszym kwartale usunął prawie 2,9 miliona kanałów zawierających ponad 47 milionów filmów z powodu naruszenia zasad społeczności — nastąpiło to już po zgłoszonej zmianie zasad.
Zdecydowana większość z nich (81,8 proc.) została uznana za spam, ale wśród innych przyczyn znalazły się przemoc, treści nienawistne lub obraźliwe, a także kwestie bezpieczeństwa dzieci.
Hatfield twierdzi, że w interesie publicznym leży usuwanie tego typu szkodliwych treści, ale nie oznacza to, że wszystkie kontrowersyjne lub obraźliwe treści muszą zostać usunięte.
Twierdzi jednak, że YouTube popełnia błędy w moderowaniu treści, wyjaśniając, że ocenia poszczególne filmy w pewnego rodzaju „próżni”, nie biorąc pod uwagę, jak każda treść wpisuje się w szerszy kontekst.
„Niektóre treści nie mogą być w ten sposób sprawiedliwie interpretowane”.
Przepisy nie są idealnym rozwiązaniemAhmed uważa, że firmy powinny ponosić odpowiedzialność za treści publikowane na swoich platformach poprzez regulacje rządowe.
Jako przykład podał kontrowersyjny, ale obecnie storpedowany kanadyjski Online Harms Act , znany również jako Bill C-63. Proponował surowsze wyroki, nowe organy regulacyjne i zmiany w szeregu ustaw w celu zwalczania nadużyć online. Ustawa upadła, gdy były premier Justin Trudeau ogłosił swoją rezygnację i zawiesił parlament w styczniu. Ahmed mówi, że ma nadzieję, że nowy rząd pod przewodnictwem premiera Marka Carneya uchwali podobne przepisy.
Hatfield twierdzi, że niektóre elementy tej ustawy mu się podobały, ale jego grupa ostatecznie się jej sprzeciwiła, ponieważ zawierała ona pewne zmiany w Kodeksie karnym i ustawie o prawach człowieka, które jego zdaniem nie miały związku z platformami.
Mówi, że grupy takie jak OpenMedia chciałyby zobaczyć strategię uwzględniającą modele biznesowe, które zachęcają użytkowników do publikowania i czerpania zysków z „zgodnych z prawem, ale okropnych” treści.
„Nie będziemy mieć internetu wolnego od nienawiści” – powiedział. „Możemy mieć internet, który sprawi, że szerzenie pewnych rodzajów nienawiści i dezinformacji będzie mniej opłacalne”.

cbc.ca