A Google elnézést kért pénteken az új mesterséges intelligencia képgenerátor hibás bevezetése miatt, elismerve, hogy bizonyos esetekben az eszköz „túlkompenzálja” az emberek sokféleségét keresni, még akkor is, ha ennek a tartománynak nincs értelme.
A részleges magyarázat arra, hogy képei miért helyezik a színes bőrű embereket olyan történelmi környezetbe, ahol általában nem lennének megtalálhatók, egy nappal azután érkezett, hogy a Google ideiglenesen leállítja a Gemini chatbotot abban, hogy olyan képeket generáljon, amelyeken emberek szerepelnek. Ez válasz volt a közösségi médiában néhány felhasználó felháborodására, akik azt állították, hogy az eszköz fehérek elleni elfogultságot mutatott, ahogyan írásos felszólításokra válaszul fajilag sokszínű képeket generált.
„Nyilvánvaló, hogy ez a funkció nem érte el a célt” – mondta egy blogbejegyzés pénteken Prabhakar Raghavantól, a Google keresőmotorját és más vállalkozásokat irányító alelnöktől. „Néhány kép pontatlan vagy akár sértő. Hálásak vagyunk a felhasználók visszajelzéseiért, és sajnáljuk, hogy a funkció nem működött megfelelően.”
Raghavan nem említett konkrét példákat, de azok között, amelyek ezen a héten felkeltették a figyelmet a közösségi médiában, olyan képek voltak, amelyek egy fekete nőt ábrázoltak az Egyesült Államok alapító apjaként, valamint fekete és ázsiai embereket náci korszak német katonáiként. Az Associated Press nem tudta önállóan ellenőrizni, hogy milyen felszólításokat használtak a képek létrehozásához.
A Google körülbelül három hete hozzáadta az új képgeneráló funkciót a korábban Bard néven ismert Gemini chatbotjához. Az Imagen 2 nevű korábbi Google-kutatási kísérletre épült.
A Google egy ideje tudja, hogy az ilyen eszközök nehézkesek lehetnek. Egy 2022-es műszaki cikkben az Imagent kifejlesztő kutatók arra figyelmeztettek, hogy a generatív AI-eszközök zaklatásra vagy téves információk terjesztésére használhatók, „és számos aggályt vetnek fel a társadalmi és kulturális kirekesztéssel és elfogultsággal kapcsolatban”. Ezek a megfontolások indokolták a Google döntését, miszerint nem ad ki „nyilvános demót” az Imagenről vagy a mögöttes kódról – tették hozzá a kutatók akkor.
Azóta a generatív mesterségesintelligencia-termékek nyilvános közzététele iránti nyomás nőtt, mert a technológiai vállalatok versengenek egymással, amelyek megpróbálják kihasználni a feltörekvő technológia iránti érdeklődést, amelyet az OpenAI ChatGPT chatbotjának megjelenése váltott ki.
A Geminivel kapcsolatos problémák nem az elsők, amelyek mostanában érintenek egy képgenerátort. A Microsoftnak néhány héttel ezelőtt ki kellett igazítania saját Designer eszközét, miután néhányan arra használták, hogy mélyhamisított pornográf képeket készítsenek Taylor Swiftről és más hírességekről. A tanulmányok azt is kimutatták, hogy a mesterséges intelligencia képgenerátorai felerősíthetik az edzési adataikban fellelhető faji és nemi sztereotípiákat, és szűrők nélkül nagyobb valószínűséggel világosabb bőrű férfiakat mutatnak be, ha arra kérik őket, hogy hozzanak létre egy személyt különböző kontextusokban.
„Amikor megépítettük ezt a funkciót a Geminiben, úgy hangoltuk, hogy ne essen bele a képgenerálási technológiával korábban tapasztalt csapdákba – például erőszakos vagy szexuális jellegű képek vagy valós emberek ábrázolása. – mondta Raghavan pénteken. „És mivel felhasználóiink a világ minden tájáról érkeznek, azt szeretnénk, hogy mindenki számára jól működjön.”
Azt mondta, hogy sokan „sok embert szeretnének fogadni”, amikor focistákról vagy kutyát sétáltatókról kérnek képet. De azoknak a felhasználóknak, akik egy adott fajhoz, etnikumhoz vagy adott kulturális kontextushoz keresnek valakit, „mindenképpen olyan választ kell kapniuk, amely pontosan tükrözi azt, amit kér”.
Míg egyes felszólításokra túlkompenzált, másokban „óvatosabb volt, mint gondoltuk, és nem volt hajlandó teljes mértékben válaszolni bizonyos felszólításokra – tévesen értelmezett néhány nagyon anódos felszólítást érzékenynek”.
Nem magyarázta el, milyen felszólításokra gondolt, de a Gemini rendszeresen elutasítja bizonyos témákkal, például tiltakozó mozgalmakkal kapcsolatos kéréseket az AP pénteki tesztjei szerint, amelyekben az AP nem volt hajlandó képeket generálni az arab tavaszról, a George Floyd tiltakozásáról. vagy a Tienanmen téren. Egy esetben a chatbot azt mondta, hogy nem akar hozzájárulni a félretájékoztatás terjesztéséhez vagy az „érzékeny témák bagatellizálásához”.
A Gemini eredményeivel kapcsolatos eheti felháborodás nagy része az X-ről, korábban Twitterről indult, és felerősítette a közösségi média platform tulajdonosa, Elon Musk, aki elítélte a Google-t, amiért „őrült rasszista, civilizációellenes programozása” volt. Musk, akinek saját MI-startupja van, gyakran kritizálta a rivális AI-fejlesztőket, valamint Hollywoodot az állítólagos liberális elfogultság miatt.
Raghavan elmondta, hogy a Google „kiterjedt tesztelést” fog végezni, mielőtt újra bekapcsolná a chatbotot, hogy megmutassa az embereknek.
Sourojit Ghosh, a Washingtoni Egyetem kutatója, aki az AI képgenerátorok elfogultságát tanulmányozta, pénteken csalódott volt amiatt, hogy Raghavan üzenete azzal a nyilatkozattal zárult, hogy a Google vezetője „nem tudja megígérni, hogy a Gemini időnként nem generál kínos, pontatlan vagy sértő tartalmat. eredmények.”
Egy olyan vállalat számára, amely tökéletesítette a keresési algoritmusokat, és „a világ egyik legnagyobb adathalmazával rendelkezik, a pontos eredmények vagy a nem sértő eredmények elérése meglehetősen alacsony lécet jelenthet, amelyen felelősségre vonhatjuk őket” – mondta Ghosh.