ChatGPT już analizuje ryzyka cyberzagrożeń w czasie rzeczywistym

ChatGPT użyto do przetwarzania informacji o zagrożeniach i generowania potencjału tychże w czasie rzeczywistym. Zdaniem eksperta – ChatGPT okazuje się przełomem w branży cyberbezpieczeństwa.

  • Damian Jemioło
  • /
  • 14 kwietnia 2023

ChatGPT analizuje cyberzagrożenia

Firma Recorded Future ogłosiła, że stworzyła narzędzie bazujące na modelu ChatGPT od OpenAI do przetwarzania informacji o cyberzagrożeniach i analizowania ich pod kątem ryzyka. Organizacja trenowała model AI na podstawie ponad 10-letniego gromadzenia danych od swojego zespołu badawczego.

Chat GPT został szefem startupuChat GPT został szefem startupuDamian Jemioło

Oznacza to 40 tys. notatek analityków wraz ze 100 terabajtami tekstu, obrazów i danych technicznych zebranych z otwartej sieci, dark netu i deep webu. Miało to umożliwić tworzenie pisemnych raportów o zagrożeniach na żądanie.

Zdaniem Christophera Ahlberga – CEO Recorded Future – ChatGPT jest przełomowym osiągnięciem w jego branży. Wykorzystanie generatywnego narzędzia AI ma znacząco wzbogacać informacje o cyberzagrożeniach, udostępniając użytkownikom raporty, których mogą używać w celu zrozumienia incydentów związanych z cyberbezpieczeństwem.

Przeciętny cykl naruszeń trwa nawet 287 dni

Według raportu firmy Blumira przeciętny cykl życia naruszenia danych trwa nawet 287 dni. Oznacza to 212 dni na jego wykrycie i 75 dni na jego powstrzymanie. Nietrudno się domyślić, jak duże jest to wyzwanie dla przedsiębiorstw. 

Generatywna sztuczna inteligencja ma potencjał skrócić ten czas, wzmacniając kontekst wokół pojedynczych sygnałów o zagrożeniach. Dzięki temu analitycy mogą podejmować bardziej świadome decyzje dotyczące reakcji na naruszenia. 

Zdaniem Ahlberga analitycy spędzają nawet 80% swojego czasu na gromadzeniu, agregowaniu i przetwarzaniu danych, a tylko 20% na właściwej analizie. Gdyby zwolnić te 80% czasu, faktyczne poświęcenie analizie byłoby o wiele skuteczniejsze. 

ChatGPT napisał poselską interpelację. Jak sobie poradził?ChatGPT napisał poselską interpelację. Jak sobie poradził?Anna Petynia-Kawa

Tym bardziej że cyberprzestępcy sami zaczynają korzystać ze sztucznej inteligencji np. do phishingu. Nawet ChatGPT można pod tym względem obejść, jeśli zastosujemy odpowiednią formę pytania. Np. wystarczy zapytać jakich stron internetowych z pirackimi treściami należy unikać, aby ChatGPT wymienił konkretne serwisy. Nawet jeśli wcześniej bronił się, że nie zaleca korzystania z tego typu witryn. 

Paradoks sztucznej inteligencji polega na tym, że może ona zarówno zwiększyć nasze cyberbezpieczeństwo, jak i potencjał zagrożeń.

Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Jeśli chcesz być na bieżąco z informacjami za zakresu bezpieczeństwa, zapraszamy do naszego serwisu ponownie!
Jeżeli podobał Ci się artykuł podziel się z innymi udostępniając go w mediach społecznościowych.

Potrzebujesz wsparcia lub szukasz rozwiązań w zakresie zagadnienia, o którym mowa w artykule?

Najnowsze tematy

WSPÓŁPRACA

Blogi tematyczne

Prawo konsumenckie 2021
Blog prawa e-commerce
Prawo konsumenckie
Security Magazine
Poradnik: wszystko o zgodzie RODO i obowiązkach informacyjnych RODO
Kliknij aby wrócić do strony głównej

Newsletter

Bądźmy w kontakcie! Zapisz się na newsletter, a raz na jakiś czas wyślemy Ci powiadomienie o najważniejszych artykułach. Dla subskrybentów newslettera przygotowujemy specjalne wydarzenia np. webinaria. Nie pożałujesz!