Dezinformacja na YouTube? Google uderza w teorie spiskowe
Teorie spiskowe dotyczące 11 września, lądowania na Księżycu czy płaskiej Ziemi? Google mówi koniec z tym i będzie walczył z dezinformacją na YouTube.
- Michał Górecki
- /
- 8 marca 2022
Miliardy ludzi z całego świata odwiedzają YouTube z przeróżnych powodów. Bez względu na to, czy chcą obejrzeć trudno dostępny koncert, czy opanować nową umiejętność, na YouTube znajdą pokaźny zbiór różnorodnych treści i opinii. — Nie byłoby to jednak możliwe, gdyby nie nasze zaangażowanie w ochronę społeczności – ta główna wartość leży u podstaw wszystkich naszych systemów i umacnia każdy aspekt naszych usług – tłumaczy YT.
W ciągu ostatnich 5 lat zainwestowano wiele w model, który nazywamy 4 filarami odpowiedzialności. Używając kombinacji systemów uczących się oraz ludzi, szybko usuwamy szkodliwe treści, promujemy wiarygodne źródła i ograniczamy rozprzestrzenianie się problematycznych. Połączenie tych narzędzi jest kluczowe w ograniczaniu liczby wyświetleń nieodpowiednich treści przy zachowaniu otwartości na naszej platformie. Jednak w czasach, gdy wprowadzające w błąd informacje rozprzestrzeniają się coraz szybciej i dalej, Google musi dostosowywać podejście do aktualnych okoliczności. Oto trzy wyzwania, z którymi zespoły Googlw chcą się zmierzyć.
Wyłapywanie nowych obszarów dezinformacji
Jeśli chodzi o nieprawdziwe informacje szerzone w internecie, przez wiele lat królowało kilka dyżurnych tematów – teorie spiskowe dotyczące 11 września, lądowania na Księżycu czy płaskiej Ziemi. Te krążące już od dłuższego czasu teorie spiskowe wygenerowały całe archiwum treści. Dzięki temu można było wytrenować systemy uczące się w rozpoznawaniu wzorców charakterystycznych dla tego typu materiałów i ograniczaniu rekomendacji filmów, które te wzorce zawierają.
Huawei wspiera Rosję? Firma zaprzecza doniesieniom mediówMikołaj Frączak
Jednak coraz częściej pojawiają się zupełnie nowe teorie i szybko zyskują na popularności. Narracje mogą też prześlizgiwać się z jednego tematu na drugi – np. ogólne treści dotyczące zdrowia mogą nawiązać do wątpliwości w kwestii szczepień. Każda narracja może wyglądać i oddziaływać na odbiorców inaczej, a niektóre z nich mogą mieć typowo lokalny charakter.
Google mierzy się z wyzwaniami
- Z tymi wyzwaniami musieliśmy zmierzyć się na samym początku pandemii COVID-19, kiedy teoria o rozprzestrzenianiu koronawirusa przez wieże 5G skłoniła ludzi do palenia stacji bazowych w Wielkiej Brytanii. W związku z niezaprzeczalnym ryzykiem realnych szkód wywołanych przez te informacje postanowiliśmy wpisać tego typu treści na listę niedozwolonych w nowej wersji naszych wytycznych – tłumaczy Google.
W tym przypadku firma mogła działać szybko, ponieważ już wcześniej wprowadzono zasady dotyczące szerzenia nieprawdziwych informacji o COVID-19 zgodne z wytycznymi lokalnych i międzynarodowych instytucji zdrowia publicznego.
- Jednak nie będziemy w stanie aktualizować naszych zasad zgodnie z zaleceniami ekspertów w przypadku każdej kolejnej szybko rozprzestrzeniającej się narracji. Im nowsza jest wprowadzająca w błąd teoria, tym mniej przykładów mamy do trenowania naszych systemów – tłumaczy Google.
Aby temu zaradzić, firma nieustannie szkoli system na nowych danych. Szuka sposobów na wykorzystanie bardziej ukierunkowanych klasyfikatorów, słów kluczowych w wielu językach i informacji od regionalnych analityków do identyfikowania narracji, których główny klasyfikator nie wyłapuje. Z czasem sprawi to, że będziemy szybciej i dokładniej wyłapywać te dezinformacje.
Źródło: Google
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Jeśli chcesz być na bieżąco
z informacjami za zakresu bezpieczeństwa, zapraszamy do naszego serwisu
ponownie!
Jeżeli
podobał Ci się artykuł podziel się z innymi udostępniając go w mediach
społecznościowych.
Potrzebujesz wsparcia lub szukasz rozwiązań w zakresie zagadnienia, o którym mowa w artykule?