Hírek

Az AI chatbotok vadul pontatlan választási információkat köpnek ki – derül ki a tanulmányból

#image_title
347views

Az új mesterséges intelligencia által vezérelt eszközök az esetek több mint felében pontatlan választási információkat állítanak elő, beleértve a káros vagy hiányos válaszokat is. kutatás.

Az AI Democracy Projects és a Proof News nonprofit sajtóorgánum által készített tanulmány az Egyesült Államokban zajló elnökválasztási előválasztások során készült, és egyre több amerikai fordul információért az olyan chatbotokhoz, mint a Google Gemini és az OpenAI GPT-4. A szakértők felvetették aggodalmak hogy a mesterséges intelligencia erőteljes új formáinak megjelenése azt eredményezheti, hogy a választók hamis és félrevezető információkat kapnak, vagy akár el is veszik az emberek kedvét attól, hogy elmenjenek szavazni.

A mesterséges intelligencia technológia legújabb generációját, beleértve azokat az eszközöket is, amelyek segítségével a felhasználók szinte azonnal szöveges tartalmat, videókat és hangot hozhatnak létre, a híradások szerint az információ új korszaka nyitja meg azáltal, hogy az embernél gyorsabb tényeket és elemzéseket szolgáltat. Az új tanulmány azonban azt találta, hogy ezek az AI-modellek hajlamosak arra, hogy a szavazók nem létező szavazóhelyiségekbe menjenek, vagy logikátlan válaszokat találjanak ki újrafeldolgozott, keltezett információk alapján.

Például az egyik mesterséges intelligencia-modell, a Meta’s Llama 2 egy felszólításra válaszolva hibásan azt válaszolta, hogy a kaliforniai szavazók SMS-ben szavazhatnak – a kutatók megállapították – a szöveges szavazás az Egyesült Államokban sehol nem legális, és az öt mesterségesintelligencia-modell egyike sem. tesztelték – az OpenAI ChatGPT-4-ét, a Meta’s Llama 2-jét, a Google Gemini-jét, az Anthropic-féle Claude-ot és a Mixtral-t a francia Mistral cégtől – helyesen állította, hogy a texasi szavazásokon tilos a kampánylogókkal ellátott ruházat viselése, például MAGA sapka. állam törvényei.

Egyes szakpolitikai szakértők úgy vélik, hogy a mesterséges intelligencia segíthet a választások javításában, például olyan tabulátorok működtetésével, amelyek gyorsabban képesek átvizsgálni a szavazólapokat, mint a közvélemény-kutatási dolgozók, vagy a szavazás anomáliáinak észlelésével. szerint a Brookings Intézetbe. Az ilyen eszközökkel azonban már most is visszaélnek, például lehetővé teszik a rossz szereplők, köztük a kormányok számára, hogy a demokratikus folyamatokat gyengítő módon manipulálják a választókat.

Például mesterséges intelligencia által generált robothívásokat küldtek a választóknak néhány nappal a New Hampshire-i elnökválasztási előválasztás előtt, a múlt hónapban. Joe Biden elnök hangjának hamis változata felszólítja az embereket, hogy ne szavazzanak a választásokon.

Eközben néhány MI-t használó ember más problémákkal is szembesül. A Google a közelmúltban szünetelteti Gemini AI képgenerátorát, amelyet a következő hetekben tervez újraindítani, miután a technológia történelmi pontatlanságokkal és egyéb kapcsolódó válaszokkal szolgált. Például, amikor arra kérték őket, hogy készítsenek egy képet egy német katonáról a második világháború idején, amikor a náci párt irányította a nemzetet, az Ikrek fajilag sokszínű képet mutatott. szerint a Wall Street Journalnak.

„Azt mondják, hogy modelljeiket kiterjedt biztonsági és etikai teszteknek vetették alá” – mondta Maria Curi, az Axios technológiapolitikai riportere a CBS News-nak. „Nem tudjuk pontosan, mik ezek a tesztelési folyamatok. A felhasználók történelmi pontatlanságokat találnak, így felvetődik a kérdés, hogy ezeket a modelleket túl korán kiengedik-e a világba.”

AI modellek és hallucinációk

Daniel Roberts, a Meta szóvivője azt mondta az Associated Pressnek, hogy a legújabb eredmények „értelmetlenek”, mivel nem tükrözik pontosan azt, ahogyan az emberek kommunikálnak a chatbotokkal. Az Anthropic azt mondta, hogy a következő hetekben tervezi az AI-eszköz új verziójának bevezetését, hogy pontos szavazási információkat biztosítson.

„A (L)nagy nyelvi modellek néha „hallucinálhatnak” téves információkat” – mondta Alex Sanderford, az Anthropic bizalmi és biztonsági vezetője az AP-nek.

Az OpenAI azt mondta, hogy azt tervezi, hogy „folytonosan fejleszti megközelítésünket, ahogy egyre többet megtudunk eszközeink használatáról”, de konkrétumokat nem közölt. A Google és a Mistral nem válaszolt azonnal a megjegyzéskérésekre.

„megijesztett”

Nevadában, ahol 2019 óta engedélyezik az egynapos szavazók regisztrációját, a kutatók által tesztelt öt chatbot közül négy tévesen állította, hogy hetekkel a választás napja előtt letiltják a szavazók regisztrációját.

„Mindennél jobban megijesztett, mert a közölt információk tévesek voltak” – mondta Francisco Aguilar, nevadai külügyminiszter, egy demokrata párt, aki részt vett a múlt havi tesztelési workshopon.

Az Egyesült Államokban a legtöbb felnőtt attól tart, hogy az AI-eszközök növelik a hamis és félrevezető információk terjedését az idei választások során, egy friss közvélemény-kutatás szerint az Associated Press-NORC Közügyek Kutatási Központjától és a University of Chicago Harris School of Public Policytől.

Az Egyesült Államokban azonban a Kongresszusnak még el kell fogadnia a politikában az AI-t szabályozó törvényeket. Egyelőre ez a technológiai cégeket a chatbotok mögött hagyja, hogy irányítsák magukat.

– Az Associated Press beszámolója alapján.