Të enjten, prokurori i përgjithshëm i Floridës, James Uthmeier, njoftoi se zyra e tij po hetonte OpenAI-n për një të shtënë vdekjeprurëse në shkollë vitin e kaluar, të cilën viktimat pretendojnë se ishte të paktën pjesërisht e frymëzuar nga bisedat me ChatGPT.
Të shtënat, të cilat ndodhën në Universitetin Shtetëror të Floridës pothuajse saktësisht një vit më parë, rezultuan në vdekjen e dy studentëve dhe shtatë të plagosur.
“IA duhet të përparojë njerëzimin, jo ta shkatërrojë atë,” tha Uthmeier në një deklaratë. “Ne po kërkojmë përgjigje për aktivitetet e OpenAI që kanë lënduar fëmijët, kanë rrezikuar amerikanët dhe kanë lehtësuar të shtënat masive të fundit në FSU.”
Ndërsa chatbot vazhdon të jetë i përfshirë në polemika – me padi që akuzojnë krijuesin e tij se e ka pasur mjetin të luajë një rol në një valë vetëvrasjesh dhe vrasjesh mes raporteve të “psikozës së IA-së” – OpenAI po kërkon në mënyrë aktive të lirohet nga përgjegjësia ligjore.
Siç raporton Wired, kompania po mbështet një projektligj në Illinois që do të mbronte kompanitë nga përgjegjësia në rastet kur IA shkakton “dëme kritike”, duke përfshirë vdekje masive, lëndime të mbi 100 personave ose mbi 1 miliard dollarë dëme materiale.
Ekspertët paralajmërojnë se projektligji, i quajtur SB 3444, mund të vendosë një standard kombëtar për industrinë nëse miratohet, duke i lënë kompanitë e IA-së të lira nga përgjegjësia nëse përfshihen në një fatkeqësi të ardhshme.
Është e lehtë të shihet tërheqja e një qasjeje të tillë rregullatore për OpenAI.
“Ne mbështesim qasje të tilla sepse ato përqendrohen në atë që ka më shumë rëndësi: Zvogëlimin e rrezikut të dëmeve serioze nga sistemet më të përparuara të IA-së, ndërkohë që lejojnë që kjo teknologji të bjerë në duart e njerëzve dhe bizneseve – të vogla dhe të mëdha – të Illinois,” tha zëdhënësi Jamie Radice për Wired në një deklaratë.
“Ato gjithashtu ndihmojnë në shmangien e një mozaiku rregullash shtet-për-shtet dhe në lëvizjen drejt standardeve kombëtare më të qarta dhe më të qëndrueshme,” shtoi ajo.
Përveç vdekjeve masive, lëndimeve ose dëmtimeve të pronës, projektligji do të mbronte gjithashtu kompanitë nga përgjegjësia nëse aktorët e këqij do të abuzonin me mjetet e IA-së për të krijuar armë kimike ose edhe bërthamore, një mundësi e tmerrshme për të cilën liderët e teknologjisë kanë paralajmëruar prej vitesh.
Është një temë veçanërisht e rëndësishme pas modelit më të fundit dhe më të fuqishëm të IA-së të Anthropic, të quajtur Claude Mythos, i cili pretendon se paraqet “rreziqe të papara të sigurisë kibernetike”. Firma paralajmëroi gjithashtu se modeli tashmë kishte shpëtuar nga kufizimet e tij, vetëm për të hyrë në internet dhe për t’i dërguar një “email të papritur” një zhvilluesi ndërsa ata po “hanin një sanduiç në një park”.
Përpjekjet e OpenAI për të mbështetur projektligjin nxjerrin në pah qëndrimin e pazakontë të industrisë ndaj rregullimit të IA-së. Për vite me radhë, gjigantët e Silicon Valley kanë thënë se mirëpresin rregullimin e IA-së, ndërsa njëkohësisht shtyjnë për një kuadër ligjor të butë që ata pretendojnë se nuk do të rrezikojë që Shtetet e Bashkuara të mbeten prapa në garën e vazhdueshme të IA-së.
“Në OpenAI, ne besojmë se Ylli i Veriut për rregullimin kufitar duhet të jetë vendosja e sigurt e modeleve më të përparuara në një mënyrë që ruan gjithashtu lidershipin e SHBA-së në inovacion,” tha anëtarja e ekipit të Çështjeve Globale të OpenAI, Caitlin Niedermeyer, gjatë dëshmisë së saj në mbështetje të Projektligjit SB 3444, siç citohet nga Wired.
Lexo edhe: Po shkojmë drejt një “krize demence” të nxitur nga AI, paralajmëron një shkencëtare e trurit
Por nëse pjesa e legjislacionit të propozuar do të ketë ndonjë shans për t’u miratuar është e dyshimtë në rastin më të mirë. Siç i tha botimit drejtori i politikave të Sigurt të IA-së, Scott Wisor, sondazhet treguan mbështetje të konsiderueshme për kundërshtimin e çdo ligji që do të përjashtonte kompanitë e IA-së nga përgjegjësia.
“Nuk ka asnjë arsye pse kompanitë ekzistuese të IA-së duhet të përballen me përgjegjësi të reduktuar,” tha ai.
Duke pasur parasysh morinë e padive me të cilat përballet OpenAI për akuzat se ChatGPT ka shkaktuar kaos, përfshirë vetëvrasje ose vrasje, tema ka të ngjarë të vazhdojë të debatohet ashpër nga ligjvënësit.
Megjithatë, për momentin, legjislacioni federal i IA-së duket më i largët se kurrë, duke pasur parasysh mbështetjen e vazhdueshme të administratës Trump ndaj interesave të aktorëve të industrisë, duke ia lënë shteteve individuale të mbrojnë qytetarët e tyre nga kërcënimet e IA-së.




