Az OpenAI videógenerátor, a Sora azt kockáztatja, hogy propagandát és elfogultságot szít, mondják a szakértők
Egy napozó dalmát lábujjhegyen át az ablakpárkányon, a kínai újévi felvonulás elnyeli a város utcáját, egy régész kiás egy széket a sivatagi homokból.
Az online közzétett videók megjelenítik ezeket az eseményeket, de egyik sem történt meg. Ezek alkotják az első nyilvánosan elérhető alkotást, amelyet az OpenAI újonnan bemutatott videógeneráló eszköze, a Sora készített.
Sora akár egyperces videókat is összeállít a felhasználói utasítások alapján, ahogy a ChatGPT írásbeli válaszokkal válaszol a bemenetre, a Dall-E pedig képeket kínál.
Az OpenAI csütörtöki közleménye szerint a videógenerátort jelenleg terméktesztelők egy csoportja használja, de nem elérhető a nyilvánosság számára.
Ezekben a termékekben rejlik a lehetőség, hogy javítsák és megkönnyítsék a videós történetmesélést, de túlterhelhetik az internetes félretájékoztatást és fokozhatják a kormányzati propagandát, elmosva az amúgy is halvány határvonalat a valódi és a hamis online tartalmak között – mondták szakértők az ABC Newsnak.
A mesterséges intelligencia által generált videók pedig azzal fenyegetnek, hogy megerősítik a mögöttes képzési anyagokból származó gyűlöletkeltő vagy elfogult nézőpontokat, amelyek lehetővé teszik a létrehozásukat – tették hozzá.
„Eltűnt az igazság világossága, amelyet a rögzített fényképezés és videózás során megtapasztaltunk” – mondta az ABC Newsnak Kristian Hammond, a Northwestern Egyetem informatikai professzora, aki mesterséges intelligenciát tanulmányoz. – Akaratlanul is felépítettük a propagandamotorok világát.
Az ABC News megjegyzéskérésére válaszolva az OpenAI egy weboldalra mutatott rá, amely felvázolja a vállalat által a Sorával való visszaélések megelőzésére tett intézkedéseket.
„Számos fontos biztonsági lépést fogunk tenni, mielőtt a Sorát elérhetővé tesszük az OpenAI termékeiben” – áll a cég honlapján. „Vörös csapattagokkal dolgozunk – olyan területek szakértőivel, mint a félretájékoztatás, a gyűlöletkeltő tartalom és az elfogultság –, akik ellentmondóan tesztelik a modellt.”
A cég azt tervezi, hogy a Dall-E képgenerátorhoz már a palotában lévő biztonsági funkciókat is bevet, beleértve egy olyan eszközt is, amely ellenőrzi a szöveges felszólításokat annak biztosítására, hogy ne sértsék meg a „szélsőséges erőszak, szexuális tartalom, gyűlöletkeltő képek és hírességek megjelenése elleni szabályokat”. , vagy mások IP-címe.”
Az ABC Newsnak nyilatkozó szakértők hangsúlyozták, hogy nehéz értékelni egy demóterméket, amelyet még nem adtak ki a nagyközönségnek. Riasztót kongattak azonban a videogenerátorral való visszaélés lehetőségei és a teljes mértékben hatékony biztosítékok végrehajtásának kihívásai miatt.
„Az események valósághű képei befolyásolják az emberek feltételezéseit arról, hogy mi történik a valós világban, és felhasználhatók emberek megtévesztésére” – mondta Sam Gregory, a Witness ügyvezető igazgatója, amely az emberi jogok védelmét célzó videóhasználatot kívánja biztosítani. – mondta az ABC Newsnak.
A mesterséges intelligencia által generált tartalom jelentette kockázatok az elmúlt hetekben nagy aggodalmat keltettek.
A popsztár Taylor Swift hamis, szexuális jellegű, mesterséges intelligencia által generált képei január végén terjedtek el a közösségi médiában, és milliókat néztek meg. Egy Joe Biden elnök hangját megszemélyesítő hamis roboccal elvette az emberek kedvét a szavazástól a New Hampshire-i előválasztáson a múlt hónapban.
A szakértők elismeréssel szóltak az OpenAI lépéseiért, amelyek célja a Sorával való ilyen jellegű visszaélések tiltása volt. Figyelmeztették azonban, hogy a termék valószínűleg képes mély hamisítványokat létrehozni, és az ilyen videók megakadályozásának nehézségei.
Gary Marcus, a New York-i Egyetem emeritus professzora, a „Rebooting” című könyv szerzője: „Valószínűleg be tudnak tenni egy szűrőt, amely azt mondja: „Ne generáljon videókat Taylor Swifttel”, de az emberek megtalálják a módját, hogy kikerüljék. AI” – mondta az ABC Newsnak.
A Sora a többi generatív mesterségesintelligencia-termékhez hasonlóan online adathalmazokra van kiképezve, így érzékeny a széles körben elterjedt torzításokra, például a faji és nemi sztereotípiákra.
„Vannak elfogultságok a társadalomban, és ezek az elfogultságok tükröződni fognak ezekben a rendszerekben” – mondta Hammond.
Az internetes közlemény szerint a videós promptok és az ebből származó tartalom moderálása mellett az OpenAI egy „észlelési osztályozó” bevezetését tervezi, amely képes azonosítani, ha egy videót Sora készített. A cég azt mondta, hogy tartalmazni fog egy népszerű, elismert digitális címkét is, amely lényegében egy digitális vízjelet jelent.
Az ilyen óvintézkedések tapsot váltottak ki a szakértőktől, bár figyelmeztettek arra, hogy a videókat esetleg reprodukálhatják vagy módosíthatják a címkék eltávolításának eszközeként.
„Az emberek megpróbálják megkerülni a felállított védőkorlátokat” – mondta Hammond. – Ez egy fegyverkezési verseny.