Végtelen lehetőségek állnak rendelkezésre, valamint a mesterséges intelligencia (AI) chatbotok, amelyek megkönnyítik az életét, hogy gyorsabban, könnyebben és jobban csináljanak valamit. Sajnos a chatbotokat gyakran aljas célokra is használják, például számítógépes támadásokra. „” és „” felfedte, hogy a hackerek már olyan nagy nyelvi mintákat használnak, mint a „ChatGPT”, hogy javítsák és finomítsák sémáikat, támadási célpontjaikat, szociális tervezési technikáikat stb.
Nemrég a Microsoft és az OpenAI felfedte, hogy az oroszországi, észak-koreai, iráni és kínai hackercsoportok különféle mesterséges intelligencia-technológiákat kutatnak és tesztelnek, beleértve a ChatGPT-t is, hogy jobban megértsék tevékenységeik potenciális értékét és a különféle biztonsági ellenőrzések megkerülését.
A jelentések szerint az incidensek végrehajtására mesterséges intelligencia technológiát használó kiberbűnözői csoportok egyike a Strontium, amely kapcsolatban áll az orosz katonai hírszerzéssel. Ez a csoport nagy nyelvi modelleket használ a „műholdas kommunikációs protokollok, radarképalkotási technológiák és speciális műszaki paraméterek megértéséhez”. Az „APT28” vagy a „Fancy Bear” néven ismert hackercsoportot is említik, amely aktívan részt vesz Ukrajna Oroszország elleni inváziójában. Több kiberbűnözői csoportra is van hasonló példa.
Az olyan eszközök megjelenése, mint a WormGPT és a FraudGPT, amelyek segítenek rosszindulatú e-mailek és hackereszközök létrehozásában, szintén fokozza az aggodalmat az AI kibertámadásokban való mesteri felhasználásával kapcsolatban. Izgalmas az emberek hangjának manipulálása és valaki más megszemélyesítése is, amelyre a hangszintézis eszközei kiválóak. Egyetlen három másodperces hangminta képes megtanítani egy AI-modellt arra, hogy bárkinek, még Joe Bidennek is megszólaljon.