A szenátorok arra ösztönzik a szövetségi bizottságot, hogy segítsen megvédeni a választókat a mesterséges intelligencia félretájékoztatásától
A kétpárti szenátusi páros szorgalmazza az Egyesült Államok Választási Segítségnyújtási Bizottságát, hogy segítsen felkészíteni az állami és helyi tisztviselőket a választókat célzó, mesterséges intelligencia által előállított félretájékoztatás elkerülésére.
Egy új levélben, amelyet kizárólag a CBS News szerzett meg, Amy Klobuchar demokrata minnesotai szenátor és Susan Collins maine-i kormánypárti szenátor megosztotta, hogy „komoly aggodalmaik vannak”, miközben további lépések megtételét sürgette, hogy segítsenek az ország tisztviselőinek „leküzdeni ezeket a fenyegetéseket”. ”
A keddi levél a New Hampshire-i elnökválasztási előválasztással kapcsolatos incidens után érkezett.
A verseny előtt a hamis robothívás Biden elnök megszemélyesítésével arra biztatta a választókat, hogy ne szavazzanak a január 23-i előválasztáson, és inkább „tartsák meg” szavazatukat a novemberi általános választásra.
„A keddi szavazás csak azt teszi lehetővé a republikánusok számára, hogy újra megválasztsák Donald Trumpot” – áll a CBS News által birtokolt felvételen. „Az Ön szavazata idén novemberben jelent változást, nem ezen a kedden.”
Mr. Biden könnyedén megnyerte az állam demokrata előválasztását, mint a beírható jelölt, de nyilvánvalóak a robothívással kapcsolatos aggodalmak. Klobuchar és Collins levelükben hivatkoztak a beavatkozásra, és hozzátették, hogy „a mesterséges intelligencia által generált mélyhamisítások több republikánus elnökjelöltre is hatással voltak azáltal, hogy megtévesztően olyan dolgokat mutattak be, amelyeket soha nem mondtak.”
Klobuchar, a szenátus választási törvényekkel foglalkozó vezetője tavaly szeptemberben kétpárti törvényjavaslatot terjesztett elő Collinsszal és több más szenátorral azzal a céllal, hogy betiltsák a szövetségi jelölteket érintő „anyagilag megtévesztő mesterséges intelligencia által generált audio- vagy vizuális médiát”. A törvényjavaslat, amelyet nem fogadott el a szenátus, a New Hampshire-ihez hasonló hamis roboccalra vonatkozna.
A két szenátor arra kéri a bizottságot, hogy adjon „átfogó útmutatást” a választási adminisztrátoroknak az Egyesült Államokban a választások és a szavazók megvédésére az MI-vel kapcsolatos dezinformációkkal szemben.
„Kétpárti jogszabályokat vezettünk be, hogy megbirkózzunk azokkal a kihívásokkal, amelyeket az ilyesfajta megtévesztő mesterséges intelligencia által generált tartalom jelent a demokráciánknak” – mondta Klobuchar és Collins levelében. „Mivel az idei előválasztások most zajlanak, kritikus fontosságú, hogy a választásainkat lebonyolítók rendelkezzenek azokkal az információkkal, amelyek szükségesek ahhoz, hogy időben és hatékonyan kezeljék ezeket a felmerülő fenyegetéseket.”
A New Hampshire-i robocall volt a legutóbbi nagy villanáspont a mesterséges intelligencia által generált képek, videók és hanganyagok terén, amelyeket rossz szereplők terjesztettek online a már amúgy is vitás 2024-es kampányciklusban.
Tavaly májusban elterjedt a közösségi médiában egy mesterséges intelligencia által generált fotó, amelyen a Pentagon közelében történt robbanás látható, ami az S&P 500-as mutatót rövid zuhanásra késztette, és pánikot keltett a DC régióban, miután több „ellenőrzött” fiók volt X-en, a korábbi oldalon. Twitter néven osztotta meg a képet.
Számos mesterséges intelligencia által generált videó és kép keringett az interneten is Donald Trump volt elnökről, köztük hamis képek, amelyeken Trump a rendőrség elől menekül és sír egy tárgyalóteremben.
Tavaly a floridai kormányzó, Ron DeSantis elnökválasztási kampánya közzétett egy hirdetést, amely mesterséges intelligencia által generált képeket tartalmazott Trump és Dr. Anthony Fauci ölelkezéséről, annak ellenére, hogy ez soha nem történt meg. Az egykori arkansasi kormányzó, Asa Hutchinson és Miami polgármestere, Francis Suarez elnökválasztási kampányai szintén generatív mesterséges intelligencia-botokat javasoltak, hogy válaszoljanak a választók kérdéseire, mielőtt felfüggesztenék kampányukat.