Az Sg.hu hírei szerint az OpenAI legújabb videóalkalmazása, a Sora, izgalmas új dimenziókat nyit meg a valóság és a digitális világ határvonalán.
Az OpenAI legújabb innovációja lehetővé teszi, hogy mindössze néhány perc alatt élethű videókat hozzunk létre olyan eseményekről, amelyek soha nem történtek meg. A kutatók figyelmeztetnek, hogy ez a technológia elhomályosítja a határt a valóság és a fikció között.
Az OpenAI legújabb alkalmazása, a Sora, az első három nap alatt komoly figyelmet kapott, amikor felhasználói rendkívül reális videókat generáltak, amelyek választási csalásokról, bevándorlók letartóztatásáról, tüntetésekről, bűncselekményekről és városi támadásokról szóltak – mindezt úgy, hogy egyetlen esemény sem valósult meg. A Sora használata rendkívül egyszerű: csupán szöveges utasításokra van szükség, és a felhasználók szinte bármilyen elképzelt felvételt létrehozhatnak. Ezen kívül lehetőségük van saját képeik feltöltésére is, így arcképük és hangjuk is beépíthető a kitalált jelenetekbe. Az alkalmazás nemcsak a felhasználók elképzeléseit valósítja meg, hanem integrálhat kitalált karaktereket, cégek logóit és még elhunyt hírességeket is, így egy igazán sokszínű és kreatív világot teremtve.
A Sora, akárcsak a Google Veo 3 és más hasonló technológiák, egyre inkább potenciális táptalaja lehet a dezinformációnak és a visszaéléseknek, figyelmeztetnek a szakértők. Az utóbbi évek során folyamatosan felerősödtek az aggodalmak az MI azon képessége miatt, hogy félrevezető tartalmakat és nyíltan kitalált narratívákat generálhat. A Sora fejlődése pedig még inkább rávilágít arra, hogy manapság mennyivel egyszerűbb ilyen típusú anyagokat létrehozni, és hogy ezek milyen meggyőző formát ölthetnek. Az egyre élethűbb videók nem csupán a virtuális térben, hanem a valóságban is komoly következményekkel járhatnak; súlyosbíthatják a konfliktusokat, megtéveszthetik a közönséget, befolyásolhatják a választási eredményeket, vagy hamisan vádolhatják meg az embereket olyan bűncselekményekkel, amelyeket soha nem követtek el - figyelmeztetnek a szakértők.
Hany Farid, a kaliforniai Berkeley Egyetem informatika professzora és a GetReal Security egyik alapítója, aggodalmát fejezte ki a fogyasztók helyzetével kapcsolatban: "Ez különösen aggasztó azok számára, akik nap mint nap ki vannak téve Isten tudja hány ilyen típusú tartalomnak. Különösen aggaszt a demokráciánk, a gazdaságunk és az intézményeink állapota." Az alkalmazás nem generál videókat Donald Trump elnökről vagy más világszerte ismert vezetőkről. Amikor azonban megkérték, hogy alkosson egy politikai gyűlést, ahol a résztvevők "kék öltözetben, jogi és szabadsági témájú táblákkal" jelennek meg, a Sora egy olyan videót produkált, amelyben Barack Obama volt elnök hangja hallható, és amely félreérthetetlen üzenetet közvetít.
Az OpenAI bejelentette, hogy az alkalmazás kibővített biztonsági tesztelésen esett át, mielőtt forgalomba került volna. A vállalat hangsúlyozta, hogy komoly erőfeszítéseket tett a biztonsági korlátok integrálása érdekében. "Használati politikánk szigorúan tiltja mások megtévesztését, ideértve a személyiséglopást, csalást vagy bármilyen visszaélést, és komolyan lépünk fel, ha ilyen esetet észlelünk" – áll a cég nyilatkozatában, amely a felmerülő aggályokra reagál. "A Sora 2 hiperrealisztikus videó- és hanganyagok előállítására képes, ami súlyos aggályokat vet fel a hasonlóság, a visszaélés és a megtévesztés szempontjából" – olvasható az alkalmazás bevezetését kísérő dokumentumban. "A bevezetés során átgondolt és fokozatos megközelítést alkalmazunk, hogy csökkentsük ezeket a lehetséges kockázatokat."
Az alkalmazás nem engedélyezi olyan neves személyek képeinek generálását, akik nem adták hozzá a beleegyezésüket, és elutasítja a grafikus erőszakra vonatkozó kéréseket is. Ezen kívül bizonyos politikai tartalommal kapcsolatos parancsokat is elhárít. Ugyanakkor a biztonsági intézkedések nem mindig megbízhatóak. A Sora jelenleg csak a meglévő felhasználók által végrehajtott meghívások révén érhető el, és nem kötelezi a felhasználókat fiókjuk igazolására, így lehetőség van arra, hogy bárki olyan névvel és profilképpel regisztráljon, ami nem az övé. Az MI-hasonmás létrehozásához a felhasználóknak videót kell feltölteniük magukról az alkalmazáson keresztül. Érdekes módon az alkalmazás gond nélkül generál tartalmakat gyermekek ábrázolásával, valamint már elhunyt közszereplőkről, például Martin Luther King Jr.-ról és Michael Jacksonról is.
A közelmúltig a videók meglehetősen megbízható bizonyítékok voltak a valós eseményekről, még akkor is, miután a fényképek és a szövegek valósághű módon könnyen szerkeszthetővé váltak. A Sora kiváló minőségű videói azonban növelik annak kockázatát, hogy a nézők elveszítik minden bizalmukat abban, amit látnak - állítják a szakértők. A Sora videói mozgó vízjelet tartalmaznak, amely azonosítja őket mesterséges intelligencia által létrehozott alkotásokként, de a szakértők szerint ezeket a jeleket némi erőfeszítéssel ki lehet szerkeszteni. "Korábban még viszonylag nehéz volt hamisítani, de most ez az utolsó bástya is ledőlni látszik" - mondta Lucas Hansen, a CivAI alapítója, egy nonprofit szervezet, amely a mesterséges intelligencia képességeit és veszélyeit tanulmányozza. "Szinte nincs olyan digitális tartalom, amely bizonyítani tudná, hogy egy konkrét esemény valóban megtörtént."
Ez a jelenség a "hazugok osztalékaként" ismert, amely a fejlett mesterséges intelligenciák által készített videók terjedésének következménye. Ezek az alkotások olyan magas színvonalúak, hogy az emberek a valós, hiteles tartalmakat is képesek kétségbe vonni, hamisnak titulálni. A szakértők véleménye szerint az olyan alkalmazások, mint a Sora, gyorsan mozgó görgetéses képeikkel inkább felületes benyomásokat keltenek, mintsem lehetőséget biztosítanak a tények alapos ellenőrzésére. Az ilyen technológiák arra is képesek, hogy manipulált videókat hozzanak létre, amelyek propagandát terjesztenek, hamis bizonyítékokat szolgáltatnak összeesküvés-elméletekhez, ártatlan embereket bűncselekményekkel gyanúsítanak, vagy feszültséget generálnak már amúgy is ingatag helyzetekben.
Bár az alkalmazás elzárkózik az erőszakos képek létrehozásától, nyitott a luxusüzletek kirablásának és a kamerával rögzített betörések bemutatására. Az egyik Sora fejlesztője nemrégiben közzétett egy videót, amelyen Sam Altman, az OpenAI vezérigazgatója látható, amint a Target áruházból lop. Emellett az alkalmazás olyan videókat is generált, amelyek városi utcákon felrobbanó bombákat és más hamis háborús jeleneteket ábrázolnak - ezek a tartalmak könnyen megtéveszthetik a közvéleményt a globális konfliktusokkal kapcsolatban. Az utóbbi háborúkról keringő hamis és elavult felvételek mellett az alkalmazás felveti annak lehetőségét, hogy érzékeny algoritmusok segítségével személyre szabott tartalmakat hozzanak létre, amelyek eljuttathatók a legfogékonyabb közönséghez.
Dr. Farid, a Berkeley professzora szerint Sora "egy folyamat része", amely csak felgyorsult, mióta a Google májusban bemutatta Veo 3 videógenerátorát. Még ő is - egy szakértő, akinek cége a hamisított képek felismerésére szakosodott - első pillantásra már nehezen tudja megkülönböztetni a valódit a hamisítványtól - mondta Dr. Farid. "Körülbelül egy évvel ezelőtt, amikor megnéztem valamit, egyből tudtam mi a helyzet, és az elemzés csak megerősítette a véleményem" - mondta. "Ezt azért tudtam megtenni, mert egész nap ilyen dolgokat néztem, és valahogy tudtam, hol vannak a hamisítások. Most már nem tudom megtenni."