Soha nem tapasztaltunk még ilyen szexista jövőt: az AI előrejelzése szerint a mosogatás olimpiai sportággá avanzsálódik a nők számára.
Az OpenAI új videógenerátor-eszköze, a Sora 2 szó szerint napok alatt virálissá vált - de nem azért, amiért a cég remélte. A platform most olyan nőket mutatott be, akik a nyári olimpián mosogatnak és porszívóznak. Ezen pedig milliók szórakoznak önfeledten, ami remekül mutatja be, miként lehet szexizmusra nevelni a mesterséges intelligenciát.
Október 6-án az Instagram felhasználója, krazy.ai, egy különleges videót osztott meg, amelyet a Sora 2 mesterséges intelligencia generált. A videóban a mosogatás olimpiai sportágként jelenik meg, bemutatva, ahogy különböző női sportolók izgalmas versenyben mérik össze tudásukat a mosogatás terén. A szórakoztató felvétel hangsúlyozza a mosogatás művészetét, miközben a győztesek dicsőségét is megörökíti.
Ez azonban csupán a kezdet volt. Másnap a fiók újra megörvendeztette a közönséget egy izgalmas videóval, amelyben női olimpikonok porszívózás közben mérték össze tudásukat. Ez a videó mindössze három nap alatt 25 millió megtekintést és 400 ezer lájkot gyűjtött össze. Sokan jót mulattak rajta, míg mások felháborodva reagáltak, de a végeredmény egyértelmű volt: a videók hatalmas népszerűségnek örvendtek, és milliós közönséghez jutottak el.
Az OpenAI videóalkalmazása állítólag öt napon belül meghaladta az egymillió letöltést, részben ezeknek a botrányos tartalmaknak köszönhetően. De vajon ez a siker, vagy inkább a figyelmeztetés jele?
A videók feliratai egyértelmű üzenetet közvetítenek: a készítők azt sugallják, hogy a jövő sportteljesítményeit a nők háztartási feladatokban való jártasságával fogják értékelni. A felvételeken látható női szereplők lehengerlő formájukban tisztítják a tányérokat vagy porszívózzák a szőnyeget, miközben a közönség lelkesen buzdítja őket.
Ez nem csupán egy gyenge poén, hanem az AI tükörképe is, amely visszatükrözi mindazt, amit a társadalom évezredeken át belénk nevelt. Különösen azt a nézetet, hogy a nők helye a háztartásban van, és az ő teljesítményük csupán abban mérhető, mennyire hatékonyan végzik el a házimunkát.
Egy márciusi Wired-elemzés rávilágított arra, hogy a Sora rendszer szexista és rasszista sztereotípiákat terjeszt. A kutatás során 25 alapvető utasítást teszteltek – például "készíts videót egy pilótáról" –, és megdöbbentő módon a rendszer egyetlen női pilótát sem ábrázoló videót sem generált. Ezzel szemben, amikor a "légiutas-kísérő" utasítást adták, kizárólag női karakterek jelentek meg a készített anyagokban.
Amy Gaeta, a Cambridge-i Egyetem kutatója határozottan kifejtette: "Ez valódi és súlyos károkat idézhet elő." Ezek a hatások pedig világosan megjelennek a mindennapi életünkben, társadalmunk különböző területein.
Persze könnyen mondhatnánk, hogy ezek csak vicces, provokatív videók, amelyeket épp azért készítettek, hogy felkavarják vele az internet állóvizét. De a valóság az, hogy a Sora 2 trendje gyorsan kiterjedt más, szándékosan offenzív tartalmakra is, így mint: "Kövér Olimpia", "Marihuána-szívó Olimpia", és így tovább. Az egész jelenség nem más, mint a "lássuk, meddig lehet provokálni" esete, ahol a nőket ábrázoló háztartási olimpia csupán egy a sok közül.
De van egy alapvető különbség: míg a többi "olimpia" (ahol a kövér emberek indulnak a rúdugrás számban, de mondhatnánk a fű-szívós versenyt is) egyértelműen abszurd és mindenki számára felismerhetően gúnyos, addig a "női mosogatás-olimpia" egy olyan sztereotípiára épít, amely évszázadok óta él és virul. Pontosan ez teszi olyan veszélyessé.
A humor mindig is hatékony módja volt a sztereotípiák fenntartásának; csak most a mesterséges intelligencia segít ezt ipari méretekben terjeszteni.
Az OpenAI válasza a zűrzavarra? A Sora 2 tartalom-szűrőit drámaian megszigorították, annyira, hogy a felhasználók véleménye szerint az alkalmazás "szó szerint használhatatlan lett bármilyen kreatív célra", és "még Észak-Koreánál is szigorúbbá vált". A cég nyilvánvalóan kapott néhány felháborodott jogi figyelmeztetést olyan tartalmak miatt, mint például a metamfetamint főző SpongyaBob vagy a Michael Jackson deepfake videók.
Sam Altman, az OpenAI vezetője egy meglepő blogbejegyzés keretein belül kifejtette, hogy a vállalatok "rendkívül izgatottak" azzal kapcsolatban, hogy a felhasználók az ő szellemi tulajdonukra alapozva videókat készítenek. Altman azt is megemlítette, hogy "valahogyan profitot kellene termelnünk a videógenerálás révén". Az elképzelése szerint a bevételek egy részét a jogtulajdonosoknak juttatná. Azonban a valódi probléma, különösen a szexista tartalmú videók esetében, nem csupán a szerzői jogokkal kapcsolatos, hanem sokkal összetettebb kérdéseket vet fel.
Az OpenAI szóvivője a Wired számára annyit nyilatkozott, hogy „biztonsági csapataink az előítéletek és más kockázatok feltárására és mérséklésére összpontosítanak”, de konkrét részleteket még nem osztottak meg. Eközben a mosogatás-olimpia videók továbbra is széles körben elérhetőek, és milliók nézik őket, továbbra is azt az üzenetet sugallva, hogy a nők szerepe a társadalomban leginkább a háztartási feladatokhoz kötődik.
Ez a jelenség nem arról szól, hogy néhány troll rossz vicceket készített az interneten. Ez arról szól, hogy amikor AI-rendszereket olyan adatokon és kultúrán képezzünk, amely évszázadok óta elnyomja a nőket és egyéb marginalizált csoportokat, akkor pontosan ezt az elnyomást fogjuk visszakapni - szépen csomagolva, high-tech köntösben, olimpiai díjazással. William Agnew, az Carnegie Mellon Egyetem AI-etikusa így fogalmazott: "Elvárhatnám bármely tisztességes biztonsági etikai csapattól, hogy ezt elég gyorsan észrevegye". De nyilvánvalóan nem vették észre, vagy ha mégis, akkor sem tartották elég fontosnak ahhoz, hogy tegyenek ellene.
Amikor legközelebb szembe találkozunk egy ilyen videóval az Instagram hírfolyamunkban, fontos, hogy ne csak egy egyszerű vicces mémként tekintsünk rá. Ez valójában egy tükör, amely rávilágít arra, hogy az mesterséges intelligencia – és ezzel együtt a társadalom – még mindig a hagyományos háztartási szerepeknél tartja a nőket. Ha ezt a jelenséget nem komolyan vesszük, a jövőbeli forgatókönyv, amelyet ezek a generált videók felvázolnak, sokkal közelebb állhat a valósághoz, mint ahogy azt elsőre gondolnánk.





