Dok se svijet divi mogućnostima umjetne inteligencije, u digitalnom podzemlju raste ekosistem koji briše granicu između privatnosti i pornografije. Nudify aplikacije i deepfake generatori postaju oružje masovnog uznemiravanja. Otvorite li web stranicu jednog od eksplicitnih deepfake generatora, nećete pronaći revolucionarnu tehnologiju koja liječi bolesti ili rješava klimatske promjene. Dočekat će vas, kako to opisuje magazin WIRED, meni iz noćnih mora.
Uz samo nekoliko klikova i minimalnu naknadu, ove platforme nude mogućnost pretvaranja jedne sasvim obične fotografije, selfija s ljetovanja ili poslovnog portreta s LinkedIna, u osmosekundni, eksplicitni videoklip. Tehnologija, zastrašujuće precizna, umeće stvarna lica žena u realistične grafičke seksualne situacije.
Skidanje na klik
Slogan na jednoj od takvih stranica hladnokrvno obećava: Transform any photo into a nude version with our advanced AI technology!
Mogućnosti zloupotrebe su neograničene. WIRED, koji je u svojoj istrazi odlučio ne imenovati spornu stranicu kako bi spriječio njezinu promociju, otkriva da korisnici mogu birati između 65 video predložaka. Neki simuliraju svlačenje, dok su drugi eksplicitno pornografski. Iako stranica sadrži sitnim slovima ispisana upozorenja da korisnici smiju postavljati samo fotografije za koje imaju pristanak, u praksi ne postoje nikakvi mehanizmi provjere. U svijetu gdje je vaša profilna slika javno dobro, pristanak je postao tek pravna formalnost koju zlostavljači ignoriraju jednim klikom.
Industrijalizacija zlostavljanja
Međutim, problem nije izoliran na sumnjivim web stranicama. On ulazi u mainstream. Grok, chatbot koji su razvile kompanije Elona Muska, našao se na udaru kritika jer su ga korisnici masovno zloupotrebljavali kako bi skidali odjeću ženama na slikama ili ih montirali u bikinije, bez pristanka.
Ono što zabrinjava stručnjake nije samo postojanje tehnologije, već njezina normalizacija. Dugo vremena je deepfake ekosistem, koji se sastoji od desetaka web stranica, Telegram botova i aplikacija, rastao u sjeni. Danas je automatizacija slikovnog seksualnog zlostavljanja, tzv. image-based sexual abuse, postala lakša nego ikad prije.
Ovaj nudify ekosistem ne cilja samo poznate osobe poput Taylor Swift, o čijem se slučaju nedavno pričalo. Meta su bivše partnerice, kolegice s posla, pa čak i maloljetnice. Istrage pokazuju da se ista tehnologija sve češće koristi za kreiranje materijala seksualnog zlostavljanja djece (CSAM), čineći štetu nemjerljivom, a traumu žrtava stvarnom.
Psihološki teror u digitalnom dobu
Dok tehnologija napreduje brzinom svjetlosti, zakoni i društvena svijest kaskaju. Žrtve ovakvog nasilja često se suočavaju s nerazumijevanjem okoline, koja kaže: Šta je problem, to nije stvarna fotografija?!, međutim, psiholozi upozoravaju da je osjećaj povrede, srama i gubitka kontrole identičan onom kod stvarnog zlostavljanja.
Trebamo li prestati objavljivati fotografije? Zaključati profile? Ili je vrijeme da tehnološke kompanije i zakonodavci napokon preuzmu odgovornost za čudovište koje su pustili s lanca?
Jedno je sigurno, dok se algoritmi treniraju na našim licima, nitko od nas nije samo promatrač. Svi smo postali sirovina u industriji koja ne poznaje sram.
