Përmbajtja e gjeneruar nga inteligjenca artificiale është më eksplicite, ekstreme dhe komplekse sesa llojet e tjera të pornografisë me fëmijë që janë parë në të kaluarën, thotë Fondacioni Internet Watch.
Imazhet e gjeneruara nga inteligjenca artificiale që përshkruajnë abuzimin seksual të fëmijëve u rritën me 14 përqind në vitin 2025, pasi hetuesit përballen me vështirësi në rritje në dallimin e përmbajtjes sintetike nga fotografitë reale, sipas një raporti të ri.
Fondacioni Internet Watch (IWF), një organizatë jofitimprurëse britanike e dedikuar për heqjen e materialeve të abuzimit seksual me fëmijë (CSAM) nga interneti, identifikoi më shumë se 8,000 imazhe dhe video të gjeneruara nga inteligjenca artificiale nga raportet e përdoruesve gjatë vitit të kaluar.
Hulumtuesit e IWF-së e etiketojnë përmbajtjen si të gjeneruar nga inteligjenca artificiale nëse ka ndonjë gabim të dukshëm në imazhe, nëse viktima pretendon se është inteligjencë artificiale, ose nëse ka ndonjë informacion nga krijuesi origjinal se si është përdorur inteligjenca artificiale.
Ndërsa përmbajtja seksuale e gjeneruar nga inteligjenca artificiale është ende një pjesë relativisht e vogël e asaj që organizata sheh në internet, IWF paralajmëron se po rritet me një ritëm alarmues.
Nga përmbajtja e gjeneruar nga IA, më shumë se 3,400 përfshinin video të gjeneruara nga IA “me lëvizje të plotë” që janë hiperrealiste dhe lejojnë që shumë njerëz të bashkëveprojnë në video.
Mbi 65 përqind e këtyre videove përshkruanin format më të rënda të abuzimit, duke përfshirë përdhunimin, torturën seksuale dhe kafshërinë, të cilat klasifikohen si kategoria më e lartë e përmbajtjes seksuale të fëmijëve sipas ligjit britanik.
Lexo edhe: Anthropic dhe OpenAI po punësojnë specialistë të armëve për të parandaluar ‘keqpërdorimin katastrofik’
Ndërkohë, vetëm 43 përqind e përmbajtjes seksuale jo të gjeneruar nga IA binte nën kategoritë më ekstreme. IWF tha se kjo sugjeron që autorët po përdorin mjete të IA-së për të krijuar përmbajtje më eksplicite, ekstreme dhe komplekse sesa ishin më parë.
“Tani përballemi me një peizazh teknologjik që mund të gjenerojë shkelje të pafundme me lehtësi të paparë”, tha Kerry Smith, CEO e IWF, në raport.
Si po e përdorin autorët IA-në?
Studimi gjithashtu hedh dritë mbi mënyrën se si autorët e krimit po zhvillojnë dhe ndajnë në mënyrë aktive mjete.
Hulumtuesit vëzhguan diskutime në rrjetin e errët ku autorët tregtojnë dhe punojnë së bashku për të zhvilluar modele dhe baza të dhënash të personalizuara të IA-së që gjenerojnë materiale abuzive.
Në një shembull, studiuesit identifikuan një reklamë që ofronte “kurse të personalizuara” që premtonte t’u mësonte përdoruesve se si të krijonin imazhe të adoleshentëve të gjeneruara nga IA.
“Aplikacionet e vetme tani mund të gjenerojnë imazhe abuzive me përpjekje minimale, duke hequr nevojën për ekspertizë teknike dhe duke ulur ndjeshëm pengesat për hyrje”, zbuloi raporti. Në shumë raste, modelet kërkojnë vetëm një imazh të vetëm referimi për të prodhuar përmbajtje seksuale për fëmijë.
Ndërsa IA po e bën më të lehtë për këdo që të krijojë përmbajtje të thjeshtë CSAM, raporti tha se ka disa krijues të njohur me aftësi më të avancuara që krijojnë materiale më të gjata dhe më të sofistikuara. Për shembull, një krijues u falënderua mbi 3,000 herë për krijimin e një videoje 30-minutëshe të abuzimit seksual të gjeneruar nga IA.
IWF vuri në dukje se materiali që ata kanë qenë në gjendje të mbledhin jep vetëm “një pamje të pjesshme” të sasisë së përgjithshme të materialit seksual për fëmijë që qarkullon në internet dhe ka të ngjarë të jetë “dukshëm më i madh” se ai që ka gjetur.
Kjo për shkak se analistët e IWF janë të kufizuar në vendin ku mund të shikojnë, sepse nuk janë në gjendje të shkojnë përtej mureve të pagesave ose në hapësira të koduara, tha raporti.
Ndalimi në të gjithë BE-në mund të konsiderohet si një “standard minimal”
Smith i kërkoi Bashkimit Evropian të shqyrtojë zbatimin e një ndalimi në të gjithë bllokun si për përmbajtjen e abuzimit seksual të fëmijëve të gjeneruar nga inteligjenca artificiale, ashtu edhe për mjetet e përdorura për ta krijuar atë.
Çdo ndalim do ta bënte gjithashtu të paligjshëm për përdoruesit që të krijojnë përmbajtjen e tyre të personalizuar, edhe pse nuk ndahet, tha raporti.
“Përparimet në teknologji nuk duhet të vijnë kurrë në kurriz të sigurisë dhe mirëqenies së një fëmije”, tha Smith, duke shtuar se një ndalim i tillë duhet të shërbejë si një “standard minimal pa përjashtime”.
Raporti vjen menjëherë pasi ligjvënësit evropianë miratuan një zgjatje të përkohshme të Direktivës së Privatësisë Elektronike, një pjesë e legjislacionit që lejon platformat e internetit të zbulojnë përmbajtjen CSAM.
Zgjatja, e cila do të skadojë më 3 prill, synon t’u japë ligjvënësve kohë për të rënë dakord mbi një kornizë ligjore afatgjatë për të luftuar abuzimin seksual të fëmijëve në internet.
Në një njoftim për shtyp, ligjvënësit thanë se çdo masë e ardhshme duhet të mbetet “proporcionale” dhe duhet të zbatohet vetëm për përmbajtjen e shënuar tashmë si material potencial seksual i fëmijëve, në vend që të mundësojë mbikëqyrjen e të gjitha bisedave të koduara.





2 Comments
Pingback: Meta me vetëdije dëmtoi shëndetin mendor të fëmijëve, vendos juria amerikane në një vendim historik - Technews.al
Pingback: 5 arsye të forta për të mos i postuar më fëmijët tuaj online: Rreziqe që nuk mund t'i injoroni! - Technews.al