NaslovnicaNovostiSvako može biti žrtva AI “deepfake” pornografije: Evo kako se zaštititi

Svako može biti žrtva AI “deepfake” pornografije: Evo kako se zaštititi

ČLANAK SE NASTAVLJA ISPOD OGLASA


“Sve što moramo imati je ljudski oblik da bismo bili žrtva.” Ovako odvjetnica Carrie Goldberg opisuje rizik od deepfake pornografije u doba umjetne inteligencije.

Iako je osvetnička pornografija – ili nezakonito dijeljenje neprikladnih slika – prisutna gotovo jednako dugo kao i internet, širenje alata umjetne inteligencije znači da svatko može biti meta ovog oblika uznemiravanja, čak i ako nikada nije snimio ili poslao golišava fotografija. AI alati sada mogu dodati lice osobe golom tijelu ili manipulirati postojećim fotografijama kako bi izgledalo kao da osoba ne nosi odjeću, piše N1.

Prošle su godine mete pornografskih slika koje je generirala umjetna inteligencija bile u rasponu od žena visokog profila poput Taylor Swift do srednjoškolki čije su fotografije zloupotrijebljene.

Za nekoga tko se nađe predmetom deepfake pornografije, iskustvo je obično zastrašujuće, rekao je Goldberg, koji vodi njujoršku tvrtku CA Goldberg Law, koja zastupa žrtve online seksualnih zločina i uznemiravanja. “Pogotovo ako su mladi i ne znaju kako se snaći, a internet je ogromno, maglovito mjesto”, rekao je.

Ali postoje koraci koje mete ovog oblika uznemiravanja mogu poduzeti kako bi zaštitili sebe i mjesta kojima se mogu obratiti za pomoć, rekao je Goldberg u intervjuu za CNN-ov novi tehnološki podcast.

Uvjeti korištenja imaju za cilj demistificirati nove tehnologije s kojima se ljudi susreću u svakodnevnom životu. (Cijeli razgovor s Goldbergom možete poslušati ovdje.)

Goldberg je rekao da bi za ljude koji su žrtve slika generiranih umjetnom inteligencijom, prvi korak – koliko god bio kontraintuitivan – trebao biti njihovo dokumentiranje.

“Treba ga ukloniti s interneta što je prije moguće”, rekao je Goldberg. “Ali ako želite to moći procesuirati, potrebni su vam dokazi.”

Zatim mogu potražiti obrasce koje pružaju platforme kao što su Google, Meta i Snapchat kako bi zatražili uklanjanje eksplicitnih slika. Neprofitne organizacije poput StopNCII.org i Take It Down također mogu pomoći u uklanjanju takvih slika s više platformi odjednom.

Borba za ukidanje lažnih eksplicitnih slika i deepfakeova dobila je rijetku dvostranačku podršku. Skupina tinejdžera i roditelja pogođenih pornografijom generiranom umjetnom inteligencijom svjedočila je na saslušanju na Capitol Hillu, gdje je republikanski senator Ted Cruz predstavio prijedlog zakona — koji podržavaju demokratska senatorica Amy Klobuchar i drugi — prema kojem bi objavljivanje takvih slika bilo kazneno djelo i zahtijevaju od platformi društvenih medija da ih uklone nakon što obavijeste žrtve.

Za sada su žrtve prepuštene same sebi. U Bosni i Hercegovini ne postoje kazneni zakoni koji sprječavaju stvaranje ili dijeljenje eksplicitnih deepfake simova odraslih osoba. (Seksualne slike djece generirane umjetnom inteligencijom obično potpadaju pod materijalne zakone o seksualnom zlostavljanju djece.)

Žrtve ne mogu učiniti mnogo da to spriječe… Nikada ne možemo biti potpuno sigurni u digitalnom društvu, ali moram se dodatno potruditi da ne budu lake mete, rekla je Goldberg.

PREPORUČENI ČLANCI

KOMENTARI

Molimo korisnike da se suzdrže od vrijeđanja, psovanja i vulgarnog izražavanja. Komentari odražavaju stavove isključivo njihovih autora, koji zbog govora mržnje mogu biti i krivično gonjeni. Kao čitatelj prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa vašim vjerskim, moralnim i drugim načelima i uvjerenjima.

Subscribe
Notify of
guest
0 Komentari
Najstarije
Najnovije Najbolje ocjenjeno
Inline povratne informacije
Pogledaj sve komentare

MJESTO ZA VAŠU REKLAMU

pulsasfaltainfo@gmail.comspot_img

POPULARNO