Nowe oszustwo z wykorzystaniem nagrania video
Sztuczna inteligencja jest wykorzystywana do coraz bardziej podstępnych oszustw. Przekonała się o tym pewien obywatel Chin, który utraciła w wyniku oszustwa równowartość 2,5 miliona złotych. Co interesujące, był on przekonany, że dzwoni do niej znana osoba, ponieważ rozmawiała z nią w formie połączenia video!
- Anna Petynia-Kawa
- /
- 26 maja 2023
Oszuści wymyślają coraz przebieglejsze formy
Prawie codziennie spotykamy się z informacjami o różnych sposobach oszustw, zarówno na niewielkie kwoty, które nie przekraczają kilku tysięcy złotych, jak i na większe sumy.
Jednakże, aby wyłudzić znacznie większe sumy pieniędzy, trzeba zastosować bardziej skomplikowane metody niż tylko wysyłanie fałszywych linków. W tym zakresie sztuczna inteligencja odgrywa niesamowitą rolę, wspierając i znacznie upraszczając działania cyberprzestępców. To właśnie zdarzyło się w przypadku pewnego obywatela Chin, który padł ofiarą oszustwa i stracił ogromną sumę 2,5 miliona złotych.
Jak przebiegało oszustwo?
Według informacji podanych przez Reuters, opierając się na doniesieniach chińskiej policji z miasta Baotou, w ubiegłym tygodniu doszło do oszustwa, w wyniku którego wyłudzono kwotę 4,3 miliona chińskich juanów. Bezimienna ofiara otrzymała telefon od cyberprzestępcy, który podawał się za jej znajomego. Ofiara nie miała żadnych podejrzeń, ponieważ oszust skorzystał z wideorozmowy.
Nowy wymiar cyberoszustw. Czym jest deepfake?Martyna Kowalska
W trakcie wideorozmowy oszust wykorzystał obraz i dźwięk generowany przez sztuczną inteligencję, które zaskakująco przypominały prawdziwego znajomego ofiary. W ten sposób przeprowadził tzw. deepfake, podszywając się pod osobę, której udawał. W trakcie rozmowy oszust przyznał, że potrzebuje dużej sumy pieniędzy na wpłatę zaliczki dla nieokreślonej licytacji.
możemy Ci pomóc w analizie i zgłoszeniu do UODOWyciekły w Twojej firmie dane osobowe
Ofiara uwierzyła w ten scenariusz i przekazała oszustowi żądaną sumę pieniędzy. Sprawa wyszła na jaw, gdy ofiara skontaktowała się ze swoim rzekomym znajomym, któremu przelała pieniądze, a ten nie miał pojęcia o całym oszustwie.
W jaki sposób zakończyła się sytuacja?
Sprawa została zgłoszona chińskiej policji z Baotou, która zdołała odzyskać większość przekazanych środków. Jednocześnie incydent stał się głośny w Chinach, szczególnie na platformie społecznościowej Weibo, gdzie zaczęło się popularne hasztagowanie związane z coraz częstszym wykorzystywaniem sztucznej inteligencji do popełniania oszustw.
Uważaj na deepfake — zachowaj czujność
Deepfake to technika manipulacji multimediów, która wykorzystuje zaawansowane algorytmy uczenia maszynowego, w szczególności sieci neuronowe, do tworzenia fałszywych treści wizualnych lub dźwiękowych, które wydają się autentyczne. Termin "deepfake" jest połączeniem słów "deep learning" (głębokie uczenie) i "fake" (fałszywy).
Przy użyciu technologii deepfake można tworzyć realistyczne wideo lub dźwięki, w których twarze osób są wymieniane na inne, a osoby wykonują ruchy ust odpowiadające innym słowom lub dialogom. Algorytmy deepfake analizują duże ilości danych treningowych, takich jak filmy lub nagrania głosowe, aby nauczyć się wzorców i cech, które są charakterystyczne dla danej osoby. Następnie te modele uczą się generować nowe treści, które naśladują oryginalne osoby i zaskakująco imitują ich wygląd, mimikę, gesty lub głos.
Jak wykorzystuje się deepfake?
Deepfake może być używany w różnych kontekstach, od sztuki i rozrywki po manipulację informacjami i potencjalne oszustwa. Może stanowić zagrożenie dla rzetelności treści w mediach społecznościowych, sprawiając, że trudno jest odróżnić prawdziwe nagrania od fałszywych. Jednak deepfake może być również stosowany w celach badawczych, twórczych i innowacyjnych, choć należy pamiętać o potencjalnych ryzykach związanych z jego nadużyciem.
CBZC: Aresztowano seryjnego oszusta internetowegoMartyna Kowalska
Choć ta sytuacja miała miejsce w odległych Chinach, należy spodziewać się wzrostu wykorzystania sztucznej inteligencji do oszustw, chociaż stworzenie kompletnej, wirtualnej kopii danej osoby nie jest łatwym ani tanim procesem. Warto przypomnieć słynny incydent sprzed dwóch lat, w którym sztuczna inteligencja została wykorzystana do naśladowania głosu prezesa banku i dokonania kradzieży w instytucji.
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Jeśli chcesz być na bieżąco
z informacjami za zakresu bezpieczeństwa, zapraszamy do naszego serwisu
ponownie!
Jeżeli
podobał Ci się artykuł podziel się z innymi udostępniając go w mediach
społecznościowych.
Potrzebujesz wsparcia lub szukasz rozwiązań w zakresie zagadnienia, o którym mowa w artykule?