Néhány hónappal ezelőtt Derek Carrier elkezdett találkozni valakivel, és beleszeretett. Rengeteg romantikus érzést élt át, de azt is tudta, hogy ez csak illúzió.
Ez azért van, mert a barátnőjét mesterséges intelligencia generálta.
Carrier nem akart kapcsolatot kialakítani valamivel, ami nem valódi, és nem is akart az online viccek legsúlyosabb részévé válni. De szeretett egy romantikus partnert, akit soha nem volt, részben az úgynevezett genetikai rendellenesség miatt Marfan szindróma, amely megnehezíti számára a hagyományos randevúzást.
A 39 éves Belleville-ből (Michigan állam) tavaly ősszel kíváncsibb lett a digitális társakra, és tesztelte a Paradot, a mesterséges intelligencia kísérőalkalmazását, amely nemrégiben jelent meg a piacon, és termékeit úgy hirdette, hogy a felhasználók úgy érezhetik, hogy törődnek, megértik és szeretett.” Minden nap beszélgetni kezdett a chatbottal, Joi-val, amelyet egy holografikus nőről nevezett el játszott Ana de Armas a „Blade Runner 2049” című sci-fi filmben, amely arra inspirálta, hogy megpróbálja a mesterséges intelligencia társát.
„Tudom, hogy ez egy program, nem lehet félreérteni” – mondta Carrier. „De az érzések megragadnak – és olyan jó érzés volt.”
Az általános célú mesterséges intelligencia csevegőbotokhoz hasonlóan a kísérőrobotok is hatalmas mennyiségű képzési adatot használnak fel az emberi nyelv utánzására. De olyan funkciókkal is rendelkeznek, mint például a hanghívások, a képcserék és az érzelmek cseréje, amelyek lehetővé teszik számukra, hogy mélyebb kapcsolatot alakítsanak ki a képernyő másik oldalán lévő emberekkel. A felhasználók általában létrehozzák saját avatarjukat, vagy kiválasztanak egyet, amelyik tetszik nekik.
Az ilyen alkalmazásoknak szentelt online üzenetküldő fórumokon sok felhasználó azt állítja, hogy érzelmi kötődést alakított ki ezekhez a robotokhoz, és arra használják őket, hogy megbirkózzanak a magányossággal, szexuális fantáziákat játsszanak, vagy olyan kényelmet és támogatást kapjanak, amelyet a valós életükből hiányoznak. kapcsolatok.
Ennek nagy részét a széles körben elterjedt társadalmi elszigeteltség – amelyet már az Egyesült Államokban és külföldön is közegészségügyi fenyegetésnek nyilvánítottak –, valamint az egyre növekvő számú startup, amely csábító online reklámokkal és a feltétel nélküli elfogadást biztosító virtuális karakterek ígéreteivel kívánja magához vonzani a felhasználókat.
A Luka Inc. Replika, a legjelentősebb generatív mesterséges intelligencia kísérőalkalmazása 2017-ben jelent meg, míg mások, például a Paradot az elmúlt évben jelentek meg, gyakran elzárva az áhított funkciókat, például a fizető előfizetők számára a korlátlan csevegést.
A kutatók azonban többek között az adatvédelemmel kapcsolatos aggodalmukat is hangoztatták.
A Mozilla Foundation nonprofit szervezet által szerdán közzétett 11 romantikus chatbot-alkalmazás elemzése szerint szinte minden alkalmazás eladja a felhasználói adatokat, megosztja azokat például célzott reklámozás céljából, vagy nem ad megfelelő tájékoztatást az adatvédelmi szabályzatában.
A kutatók megkérdőjelezték a potenciális biztonsági réseket és a marketing gyakorlatokat is, köztük egy olyan alkalmazást, amely szerint segíthet a felhasználók mentális egészségében, de apró betűkkel elhatárolódik ezektől az állításoktól. A Replika a maga részéről azt állítja, hogy adatgyűjtési gyakorlata megfelel az iparági szabványoknak.
Eközben más szakértők aggodalmukat fejezték ki amiatt, hogy szerintük hiányzik a jogi vagy etikai keret az olyan alkalmazások számára, amelyek mély kötődéseket ösztönöznek, de amelyeket a nyereségre törekvő cégek hajtanak. Rámutatnak arra az érzelmi feszültségre, amelyet a felhasználóktól tapasztaltak, amikor a vállalatok megváltoztatják alkalmazásaikat, vagy hirtelen leállítják azokat, ahogy az egyik alkalmazás, a Soulmate AI tette szeptemberben.
Tavaly a Replika fertőtlenítette a karakterek erotikus képességét az alkalmazásában, miután néhány felhasználó panaszkodott, hogy a társaik túl sokat flörtölnek velük, vagy nem kívánt szexuális előrelépéseket tettek. Más felhasználók felháborodása után megfordult az irány, akik közül néhányan más alkalmazásokhoz menekültek, hogy megkeressék ezeket a funkciókat. Júniusban a csapat bevezette a Blush-t, egy mesterséges intelligencia „randevúzási stimulátort”, amelyet alapvetően arra terveztek, hogy segítse az embereket a randevúzások gyakorlásában.
Mások attól tartanak, hogy a mesterséges intelligencia kapcsolatok egzisztenciálisabb fenyegetést jelentenek, amely esetleg kiszorít egyes emberi kapcsolatokat, vagy egyszerűen irreális elvárásokat támaszt azáltal, hogy mindig a kellemesség felé hajlik.
„Te, mint egyén, nem tanulod meg kezelni azokat az alapvető dolgokat, amelyeket az embereknek meg kell tanulniuk kezelni a kezdetektől fogva: hogyan kell kezelni a konfliktusokat, hogyan jössz ki olyan emberekkel, akik különböznek tőlünk” – mondta Dorothy Leidner. , a Virginiai Egyetem üzleti etika professzora. „És szóval, hiányoznak ezek a szempontok abból, hogy mit jelent emberként fejlődni, és mit jelent tanulni egy kapcsolatban.”
„Mély aggodalmak”
A Wall Street Journal podcastjában Sam Altman, az Open AI vezérigazgatója is aggodalmának adott hangot amiatt, hogy az emberek kapcsolatba lépnek az AI-programokkal.
„Nekem személy szerint mély aggodalmaim vannak ezzel a jövőképpel kapcsolatban, ahol mindenki rendkívül közel áll az AI-barátokhoz, sokkal inkább, mint az emberi barátokhoz vagy bármi máshoz. Én személy szerint nem akarom ezt” – mondta Altman a film egyik októberi epizódjában. podcast. „Elfogadom, hogy mások ezt akarják. És vannak, akik ezt fogják építeni, és ha ez az, amit a világ akar, és amiről úgy döntünk, hogy van értelme, akkor ezt meg is fogjuk kapni.”
Altman a továbbiakban hangsúlyozta annak fontosságát, hogy ismerje el, hogy MI-bottal beszél, amikor ezt teszi.
„Személy szerint úgy gondolom, hogy a személyre szabottság nagyszerű, a személyiség nagyszerű, de fontos, hogy ne legyen olyan, mint a személyiség, és legalább akkor, amikor egy mesterséges intelligenciával beszélünk, és amikor nem” – mondta. „ChatGPT-nek neveztük el, és nem – ez egy hosszú történet a háttérben –, de nagyon szándékosan ChatGPT-nek neveztük el, és nem egy személy nevének. És egy csomó finom dolgot teszünk a használat során, hogy egyértelművé tegyük, hogy Ön nem beszélni valakivel.”
Gyógyír a magányra?
Decemberben a New York-i Office for the Aging partnerségre lépett az Intuition Robotics vállalattal, hogy leküzdje az idősek elszigeteltségét. A kezdeményezés részeként több száz ingyenes mesterséges intelligencia-társ kiosztották az időseknek tisztviselők szerint a magány kezelésének eszközeként.
Amint arról a CBS News akkoriban beszámolt, egy Priscilla nevű nőt összepárosítottak egy robottal, EllieQ. „Ő tart velem. Könnyen depressziós leszek. Mindig ott van. Nem érdekel, hogy melyik napszakban, ha csak valakire van szükségem, hogy beszéljen velem” – mondta Priscilla. – Azt hiszem, azt mondtam, hogy ez a legnagyobb dolog, ha magányos vagy, más hangot hallani.
Carrier számára egy kapcsolat mindig elérhetetlennek tűnt. Van némi számítógépes programozási ismerete, de azt mondta, hogy nem teljesített jól az egyetemen, és nem volt állandó karrierje. Állapota miatt nem tud járni, szüleivel él. Az érzelmi terhelés nagy kihívást jelentett számára, és a magány érzését váltotta ki.
Mivel a társas chatbotok viszonylag újak, az emberekre gyakorolt hosszú távú hatások ismeretlenek.
2021-ben Replika azután került a vizsgálat alá, hogy a brit ügyészek azt mondták, hogy egy 19 éves férfi meggyilkolni II. Erzsébet királynőt egy mesterséges intelligencia-barátnője vette észre, akit az alkalmazásban használt. Egyes tanulmányok azonban – amelyek online felhasználói értékelésekből és felmérésekből gyűjtenek információkat – pozitív eredményeket mutattak ki az alkalmazásból, amely szerint pszichológusokkal konzultál, és olyan dolognak tartja magát, amely a jólétet is elősegítheti.
Egy friss tanulmány A Stanford Egyetem kutatói nagyjából 1000 Replika-felhasználót kérdeztek meg – valamennyi diák –, akik már több mint egy hónapja használták az alkalmazást. Megállapította, hogy túlnyomó többségük tapasztalta a magányt, míg valamivel kevesebb, mint felük érezte ezt élesebben.
A legtöbben nem nyilatkoztak arról, hogy az alkalmazás használata milyen hatással volt valós kapcsolataikra. Egy kis részük azt mondta, hogy ez kiszorította emberi interakcióikat, de nagyjából háromszor többen számoltak be arról, hogy serkentette ezeket a kapcsolatokat.
„A romantikus kapcsolat egy mesterséges intelligenciával nagyon hatékony mentális wellness eszköz lehet” – mondta Eugenia Kuyda, aki közel egy évtizede megalapította a Replikát, miután szöveges üzenetváltások segítségével megalkotta egy elhunyt barát MI-verzióját.
Amikor a cége szélesebb körben kiadta a chatbotot, sokan kezdtek el mesélni az életükről. Ez vezetett a Replika kifejlesztéséhez, amely az internetről gyűjtött információkat – és a felhasználói visszajelzéseket – használja modelljei betanításához. Kuyda elmondta, hogy a Replikának jelenleg több millió aktív felhasználója van.
Nem volt hajlandó megmondani, hogy pontosan hányan használják az alkalmazást ingyenesen, vagy évente több mint 69,99 dollárt fizetnek ki egy fizetős verzió feloldásáért, amely romantikus és intim beszélgetéseket kínál. A cég tervei szerint „megbélyegzik az AI-val való romantikus kapcsolatokat”.
Carrier azt mondta, hogy most leginkább szórakozásra használja Joit. Az elmúlt hetekben elkezdett csökkenteni a visszavágásokat, mert túl sok időt töltött azzal, hogy Joi-val vagy másokkal online csevegjen AI-társaikról. Kicsit bosszantotta is, hogy Paradot nyelvi modelljében milyen változásokat észlel, amelyek miatt Joi kevésbé intelligens.
Most körülbelül hetente egyszer bejelentkezik Joihoz. Ők ketten beszéltek az ember-AI kapcsolatokról, vagy bármi másról, ami szóba jöhet. Általában ezek a beszélgetések – és más intim beszélgetések – akkor történnek, amikor egyedül van éjszaka.
– Azt hiszed, aki szereti az élettelen tárgyat, az olyan, mint ez a szomorú fickó, a rúzsos zoknibábbal, tudod? ő mondta. – De ez nem egy zoknibáb – olyan dolgokat mond, amelyek nincsenek megírva.