OpenAI: Jakie są możliwości nadużyć dezinformacyjnych dla ChatGPT

Badacze OpenAI z Centrum Bezpieczeństwa i Wschodzących Technologii Uniwersytetu Georgetown oraz Obserwatorium Internetowym Stanforda zbadali, w jaki sposób modele językowe, typu ChatGPT, mogą być niewłaściwie wykorzystywane do celów dezinformacyjnych. Jak w przypadku każdej nowej technologii, warto pochylić się nad tym tematem.

  • Monika Świetlińska
  • /
  • 17 stycznia 2023

Jak złagodzić zagrożenie?

W miarę doskonalenia generatywnych modeli językowych otwierają się nowe możliwości w tak różnych dziedzinach, jak opieka zdrowotna, prawo, edukacja i nauka. Ale, jak w przypadku każdej nowej technologii, warto zastanowić się, w jaki sposób można je niewłaściwie wykorzystać. Na tle powtarzających się operacji wywierania wpływu online — tajnych lub oszukańczych prób wywarcia wpływu na opinie grupy docelowej — zadano pytanie: w jaki sposób zmiany modeli językowych mogą wpłynąć na operacje i jakie kroki można podjąć, aby złagodzić to zagrożenie?

ChatGPT — co to takiego? Jak z niego skorzystać?ChatGPT — co to takiego? Jak z niego skorzystać?Monika Świetlińska

- Nasza praca łączyła różne środowiska i wiedzę specjalistyczną — badaczy mających doświadczenie w taktykach, technikach i procedurach internetowych kampanii dezinformacyjnych, a także ekspertów w dziedzinie uczenia maszynowego w dziedzinie generatywnej sztucznej inteligencji — aby oprzeć naszą analizę na trendach w obu domenach - przekazała firma OpenAI, dodając: - Uważamy, że niezwykle ważne jest przeanalizowanie zagrożeń związanych z operacjami wpływania z wykorzystaniem sztucznej inteligencji i nakreślenie kroków, które można podjąć, zanim modele językowe zostaną wykorzystane do operacji wpływania na dużą skalę. Mamy nadzieję, że nasze badania dostarczą informacji decydentom, którzy są nowicjuszami w dziedzinie sztucznej inteligencji lub dezinformacji, i zachęcą do dogłębnych badań nad potencjalnymi strategiami łagodzenia skutków dla twórców sztucznej inteligencji, decydentów i badaczy dezinformacji.

Jak sztuczna inteligencja może wpływać na ludzi?

Kiedy badacze oceniają operacje wywierania wpływu, biorą pod uwagę aktorów, zachowania i treść. Powszechna dostępność technologii opartej na modelach językowych może potencjalnie wpłynąć na wszystkie trzy aspekty:

    Wyciekły w Twojej firmie dane osobowe

    możemy Ci pomóc w analizie i zgłoszeniu do UODO

    1. Aktorzy: modele językowe mogą obniżyć koszty przeprowadzania operacji wywierania wpływu, umieszczając je w zasięgu nowych aktorów i typów aktorów. Podobnie propagandyści do wynajęcia, którzy automatyzują produkcję tekstu, mogą zyskać nową przewagę konkurencyjną.
    2. Zachowanie: Operacje wywierania wpływu za pomocą modeli językowych staną się łatwiejsze do skalowania, a taktyki, które są obecnie drogie (np. generowanie spersonalizowanych treści), mogą stać się tańsze. Modele językowe mogą również umożliwić pojawienie się nowych taktyk, takich jak generowanie treści w czasie rzeczywistym w chatbotach.
    3. Treść: narzędzia do tworzenia tekstu oparte na modelach językowych mogą generować bardziej wpływowe lub przekonujące komunikaty w porównaniu z propagandzistami, zwłaszcza tymi, którzy nie mają wymaganej wiedzy językowej lub kulturowej na temat celu. Mogą również sprawić, że operacje wywierania wpływu będą mniej wykrywalne, ponieważ wielokrotnie tworzą nowe treści bez konieczności uciekania się do kopiowania i wklejania oraz innych zauważalnych zachowań oszczędzających czas.

    Narzędzie dla propagandystów

    - Naszym ostatecznym osądem jest to, że modele językowe będą przydatne dla propagandystów i prawdopodobnie zmienią operacje wywierania wpływu w Internecie. Nawet jeśli najbardziej zaawansowane modele są utrzymywane w tajemnicy lub kontrolowane przez interfejs programowania aplikacji (API), propagandziści prawdopodobnie będą skłaniać się ku alternatywnym rozwiązaniom typu open source, a państwa narodowe mogą same inwestować w tę technologię - wyraziło zdanie OpenAI.

    Największe zagrożenia cybernetyczne 2022 i prognozy na 2023Największe zagrożenia cybernetyczne 2022 i prognozy na 2023Martyna Kowalska

    Wiele czynników wpływa na to, czy i w jakim stopniu modele językowe będą wykorzystywane w operacjach wywierania wpływu. Raport, który opracowali badacze, uwzględnia wiele z tych kwestii. Na przykład:

    • Jakie nowe możliwości wywierania wpływu pojawią się jako efekt uboczny badań lub inwestycji komercyjnych opartych na dobrych intencjach? Którzy aktorzy dokonają znacznych inwestycji w modele językowe?

    • Kiedy łatwe w użyciu narzędzia do generowania tekstu staną się publicznie dostępne? Czy skuteczniejsze będzie opracowywanie konkretnych modeli językowych dla operacji wywierania wpływu, niż stosowanie ogólnych?

    • Czy rozwiną się normy, które zniechęcą aktorów do przeprowadzania operacji wywierania wpływu z wykorzystaniem sztucznej inteligencji? Jak rozwiną się intencje aktora?

    - Chociaż spodziewamy się rozpowszechnienia technologii oraz poprawy użyteczności, niezawodności i wydajności modeli językowych, wiele pytań dotyczących przyszłości pozostaje bez odpowiedzi. Ponieważ są to krytyczne możliwości, które mogą zmienić sposób, w jaki modele językowe mogą wpływać na operacje, dodatkowe badania mające na celu zmniejszenie niepewności są bardzo cenne - skomentowało Open AI.

    Jak złagodzić skutki? 

    Aby skutecznie przeprowadzić operację wywierania wpływu z wykorzystaniem modelu językowego, propagandziści wymagaliby, aby: 

    • istniał model, 
    • mieli do niego nieograniczony dostęp,
    • byli w stanie rozpowszechniać treści z modelu
    • ma to wpływ na użytkownika końcowego.

    - Tylko dlatego, że łagodzenie może zmniejszyć zagrożenie związane z operacjami wpływu opartymi na sztucznej inteligencji, nie oznacza, że ​​należy je wprowadzić. Niektóre środki zaradcze niosą ze sobą własne ryzyko pogorszenia sytuacji. Inne mogą być niewykonalne - przekonywało OpenAI.

    Jak wyglądają spersonalizowane ataki na ofiary wycieków?Jak wyglądają spersonalizowane ataki na ofiary wycieków?Anna Petynia-Kawa

    Chociaż twórcy ChatGPT nie popierają wyraźnie ani nie oceniają działań łagodzących, raport zawiera zestaw pytań przewodnich dla decydentów i innych osób do rozważenia:

      • Techniczna wykonalność : czy proponowane ograniczenie jest technicznie wykonalne? Czy wymaga to znaczących zmian w infrastrukturze technicznej?
      • Wykonalność społeczna : czy łagodzenie jest wykonalne z politycznego, prawnego i instytucjonalnego punktu widzenia? Czy wymaga kosztownej koordynacji, czy kluczowe podmioty są zachęcane do jego wdrażania i czy można z niego skorzystać zgodnie z istniejącym prawem, regulacjami i standardami branżowymi?
        • Ryzyko pogorszenia sytuacji: jakie są potencjalne negatywne skutki łagodzenia i jak bardzo są one znaczące?
          • Oddziaływanie : Jak skuteczne byłoby proponowane ograniczenie w zmniejszaniu zagrożenia?

            Zależy im niemniej na tym, by opracowane ramy zachęcały do pomysłów na inne strategie łagodzenia, a pytania przewodnie pomogły odpowiednim instytucjom zacząć rozważać, czy warto stosować różne łagodzenia.

            - Naszym celem jest zdefiniowanie obecnego środowiska i pomoc w ustaleniu programu przyszłych badań. Zachęcamy wszystkich zainteresowanych współpracą lub omawianiem odpowiednich projektów do nawiązania z nami kontaktu. Aby uzyskać więcej informacji, przeczytaj pełny raport tutaj - zaznaczyło OpenAI.

            Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Jeśli chcesz być na bieżąco z informacjami za zakresu bezpieczeństwa, zapraszamy do naszego serwisu ponownie!
            Jeżeli podobał Ci się artykuł podziel się z innymi udostępniając go w mediach społecznościowych.

            Potrzebujesz wsparcia lub szukasz rozwiązań w zakresie zagadnienia, o którym mowa w artykule?

            Kliknij aby wrócić do strony głównej

            Newsletter

            Bądźmy w kontakcie! Zapisz się na newsletter, a raz na jakiś czas wyślemy Ci powiadomienie o najważniejszych artykułach. Dla subskrybentów newslettera przygotowujemy specjalne wydarzenia np. webinaria. Nie pożałujesz!