Sztuczna inteligencja w oszustwach przewyższa oprogramowanie ransomware jako główne zagrożenie cybernetyczne

8

Generatywna sztuczna inteligencja (AI) szybko zwiększa liczbę oszustw cybernetycznych, a ataki polegające na fałszowaniu tożsamości są obecnie uważane za główne zagrożenie dla firm i konsumentów. Niedawny raport Światowego Forum Ekonomicznego (WEF) pokazuje znaczącą zmianę w postrzeganiu ryzyka cybernetycznego, ponieważ oszustwa oparte na sztucznej inteligencji stają się łatwiejsze do wykonania i trudniejsze do wykrycia niż tradycyjne ataki ransomware.

Wzrost liczby oszustw wspomaganych sztuczną inteligencją

Kierownictwo przedsiębiorstw jest coraz bardziej zaniepokojone oszustwami opartymi na sztucznej inteligencji. Ankieta WEF pokazuje, że 73% dyrektorów generalnych osobiście doświadczyło oszustw internetowych lub zna kogoś, kto doświadczył tego w ciągu ostatniego roku. Stanowi to wyraźny kontrast w stosunku do roku 2024, kiedy oprogramowanie ransomware zdominowało listy zagrożeń korporacyjnych.

Ta zmiana jest ważna, ponieważ Sztuczna inteligencja obniża barierę wejścia dla cyberprzestępców. Wcześniej wyrafinowane schematy oszustw wymagały znacznych umiejętności technicznych i zasobów. Narzędzia generatywnej sztucznej inteligencji umożliwiają teraz atakującym szybkie tworzenie zlokalizowanych wiadomości phishingowych, klonowanie głosów i przeprowadzanie wysoce przekonujących ataków polegających na fałszowaniu tożsamości.

Wpływ na konsumentów i straty finansowe

Konsumenci również odczuwają presję. Kradzież tożsamości jest obecnie głównym problemem dla 68% ludzi, przewyższając obawy związane z kradzieżą danych kart kredytowych. Obawy te znajdują odzwierciedlenie w rosnących stratach wynikających z oszustw. W 2024 r. Federalna Komisja Handlu Stanów Zjednoczonych (FTC) zgłosiła straty w wysokości 12,5 miliarda dolarów wynikające z oszustw konsumenckich, co stanowi wzrost o 25% w porównaniu z rokiem poprzednim.

Amerykańska Federacja Konsumentów (CFA) ostrzega, że ​​generowane przez sztuczną inteligencję e-maile phishingowe, fałszywe głosy i realistyczne ostrzeżenia podważają tradycyjne wskaźniki oszustwa. Narzędzia te omijają zwykłe środki bezpieczeństwa, tworząc poczucie pilności i autentyczności.

Grupy wrażliwe i wyzwania związane z ochroną

Raport WEF podkreśla, że generatywna sztuczna inteligencja zwiększa również ryzyko dla grup bezbronnych, w tym dzieci i kobiet, które coraz częściej stają się celem fałszowania tożsamości i nadużywania syntetycznych obrazów.

Chociaż sztuczna inteligencja może stanowić część rozwiązania, w raporcie ostrzega się, że Niewłaściwie wdrożone narzędzia sztucznej inteligencji mogą powodować nowe luki w zabezpieczeniach. Wiele firm nie posiada wiedzy specjalistycznej, aby skutecznie bronić się przed ewoluującymi zagrożeniami.

Ochrona przed oszustwami wzmocniona sztuczną inteligencją

Eksperci zalecają, aby konsumenci zwolnili, kwestionowali niechciane wiadomości i niezależnie weryfikowali prośby przed udostępnieniem jakichkolwiek danych osobowych lub finansowych. Strona internetowa FTC ReportFraud.ftc.gov jest cennym źródłem informacji umożliwiającym zgłaszanie podejrzeń oszustw.

Wzrost liczby oszustw wykorzystujących sztuczną inteligencję uwydatnia potrzebę skoordynowanych działań rządów, przedsiębiorstw i dostawców technologii w celu ochrony zaufania i stabilności w coraz bardziej cyfrowym świecie. Brak dostosowań narazi osoby i organizacje na coraz bardziej wyrafinowane ataki.