Hírek

Az OpenAI videógenerátor, a Sora azt kockáztatja, hogy propagandát és elfogultságot szít, mondják a szakértők

#image_title
351views

Egy napozó dalmát lábujjhegyen át az ablakpárkányon, a kínai újévi felvonulás elnyeli a város utcáját, egy régész kiás egy széket a sivatagi homokból.

Az online közzétett videók megjelenítik ezeket az eseményeket, de egyik sem történt meg. Ezek alkotják az első nyilvánosan elérhető alkotást, amelyet az OpenAI újonnan bemutatott videógeneráló eszköze, a Sora készített.

Sora akár egyperces videókat is összeállít a felhasználói utasítások alapján, ahogy a ChatGPT írásbeli válaszokkal válaszol a bemenetre, a Dall-E pedig képeket kínál.

Az OpenAI csütörtöki közleménye szerint a videógenerátort jelenleg terméktesztelők egy csoportja használja, de nem elérhető a nyilvánosság számára.

Ezekben a termékekben rejlik a lehetőség, hogy javítsák és megkönnyítsék a videós történetmesélést, de túlterhelhetik az internetes félretájékoztatást és fokozhatják a kormányzati propagandát, elmosva az amúgy is halvány határvonalat a valódi és a hamis online tartalmak között – mondták szakértők az ABC Newsnak.

A mesterséges intelligencia által generált videók pedig azzal fenyegetnek, hogy megerősítik a mögöttes képzési anyagokból származó gyűlöletkeltő vagy elfogult nézőpontokat, amelyek lehetővé teszik a létrehozásukat – tették hozzá.

„Eltűnt az igazság világossága, amelyet a rögzített fényképezés és videózás során megtapasztaltunk” – mondta az ABC Newsnak Kristian Hammond, a Northwestern Egyetem informatikai professzora, aki mesterséges intelligenciát tanulmányoz. – Akaratlanul is felépítettük a propagandamotorok világát.

Az ABC News megjegyzéskérésére válaszolva az OpenAI egy weboldalra mutatott rá, amely felvázolja a vállalat által a Sorával való visszaélések megelőzésére tett intézkedéseket.

„Számos fontos biztonsági lépést fogunk tenni, mielőtt a Sorát elérhetővé tesszük az OpenAI termékeiben” – áll a cég honlapján. „Vörös csapattagokkal dolgozunk – olyan területek szakértőivel, mint a félretájékoztatás, a gyűlöletkeltő tartalom és az elfogultság –, akik ellentmondóan tesztelik a modellt.”

A cég azt tervezi, hogy a Dall-E képgenerátorhoz már a palotában lévő biztonsági funkciókat is bevet, beleértve egy olyan eszközt is, amely ellenőrzi a szöveges felszólításokat annak biztosítására, hogy ne sértsék meg a „szélsőséges erőszak, szexuális tartalom, gyűlöletkeltő képek és hírességek megjelenése elleni szabályokat”. , vagy mások IP-címe.”

FOTÓ: Sam Altman, az OpenAI vezérigazgatója az Ázsia-Csendes-óceáni Gazdasági Együttműködés (APEC) vezérigazgatói csúcstalálkozóján San Franciscóban, Kaliforniában, 2023. november 16-án.

Sam Altman, az OpenAI vezérigazgatója az Ázsia-Csendes-óceáni Gazdasági Együttműködés (APEC) vezérigazgatói csúcstalálkozóján San Franciscóban, Kaliforniában, 2023. november 16-án.

David Paul Morris/Bloomberg a Getty Images-en keresztül, FILE

Az ABC Newsnak nyilatkozó szakértők hangsúlyozták, hogy nehéz értékelni egy demóterméket, amelyet még nem adtak ki a nagyközönségnek. Riasztót kongattak azonban a videogenerátorral való visszaélés lehetőségei és a teljes mértékben hatékony biztosítékok végrehajtásának kihívásai miatt.

„Az események valósághű képei befolyásolják az emberek feltételezéseit arról, hogy mi történik a valós világban, és felhasználhatók emberek megtévesztésére” – mondta Sam Gregory, a Witness ügyvezető igazgatója, amely az emberi jogok védelmét célzó videóhasználatot kívánja biztosítani. – mondta az ABC Newsnak.

A mesterséges intelligencia által generált tartalom jelentette kockázatok az elmúlt hetekben nagy aggodalmat keltettek.

A popsztár Taylor Swift hamis, szexuális jellegű, mesterséges intelligencia által generált képei január végén terjedtek el a közösségi médiában, és milliókat néztek meg. Egy Joe Biden elnök hangját megszemélyesítő hamis roboccal elvette az emberek kedvét a szavazástól a New Hampshire-i előválasztáson a múlt hónapban.

A szakértők elismeréssel szóltak az OpenAI lépéseiért, amelyek célja a Sorával való ilyen jellegű visszaélések tiltása volt. Figyelmeztették azonban, hogy a termék valószínűleg képes mély hamisítványokat létrehozni, és az ilyen videók megakadályozásának nehézségei.

Gary Marcus, a New York-i Egyetem emeritus professzora, a „Rebooting” című könyv szerzője: „Valószínűleg be tudnak tenni egy szűrőt, amely azt mondja: „Ne generáljon videókat Taylor Swifttel”, de az emberek megtalálják a módját, hogy kikerüljék. AI” – mondta az ABC Newsnak.

A Sora a többi generatív mesterségesintelligencia-termékhez hasonlóan online adathalmazokra van kiképezve, így érzékeny a széles körben elterjedt torzításokra, például a faji és nemi sztereotípiákra.

„Vannak elfogultságok a társadalomban, és ezek az elfogultságok tükröződni fognak ezekben a rendszerekben” – mondta Hammond.

Az internetes közlemény szerint a videós promptok és az ebből származó tartalom moderálása mellett az OpenAI egy „észlelési osztályozó” bevezetését tervezi, amely képes azonosítani, ha egy videót Sora készített. A cég azt mondta, hogy tartalmazni fog egy népszerű, elismert digitális címkét is, amely lényegében egy digitális vízjelet jelent.

Az ilyen óvintézkedések tapsot váltottak ki a szakértőktől, bár figyelmeztettek arra, hogy a videókat esetleg reprodukálhatják vagy módosíthatják a címkék eltávolításának eszközeként.

„Az emberek megpróbálják megkerülni a felállított védőkorlátokat” – mondta Hammond. – Ez egy fegyverkezési verseny.