OpenAI, një ndër kompanitë më të mëdha në industrinë e inteligjencës artificiale (AI), së fundmi triumfoi mbi rregullatorët italianë, duke hequr kështu kufizimet për chatbot-in e tij, ChatGPT. Megjithatë, me shqyrtimin e vazhdueshëm nga autoritetet europiane, betejat rregullatore të ChatGPT nuk kanë përfunduar.
ChatGPT po përballej me një embargo në Itali, për shkak të akuzave nga Autoriteti Italian i Mbrojtjes së të Dhënave (GPDP) për shkelje të ligjeve të BE-së për mbrojtjen e të dhënave. Si përgjigje, OpenAI kufizoi aksesin e përdoruesëve italianë në shërbim, derisa të mund të bëheshin modifikimet e nevojshme për të qenë në përputhje me rregulloret. Që nga 28 Prilli, ChatGPT u rikthye në Itali, falë negociatave të suksesshme dhe përshtatshmërisë së OpenAI. Sidoqoftë, është thelbësore të theksohet se mjedisi rregullator për AI, dhe veçanërisht për chatbot-et, po zhvillohet me shpejtësi, dhe është gati të bëhet edhe më kompleks.
Rregullatorët në shumë vende po analizojnë në mënyrë kritike teknikat e mbledhjes dhe përpunimit të të dhënave të mjeteve të AI, duke shprehur shqetësime për marrjen e paautorizuar të të dhënave dhe përhapjen e informacioneve të pavërteta. Këto përcaktime mund të gjenden në Rregulloren e Përgjithshme të Mbrojtjes së të Dhënave (GDPR), efektet e së cilës pritet të shtrihen përtej Europës. Kjo është një shtesë në kuadrin e ri rregullator, që trajton në mënyrë specifike AI.
ChatGPT, një mjet AI që prodhon tekste, imazhe, video dhe audio bazuar në kërkesat e përdoruesve, ka qenë një ndër aplikacionet me rritjen më të shpejtë në histori. Pavarësisht nga popullariteti i tij në rritje, ai është kritikuar për rezultate inkonsistente, problematika mbi të drejtat e autorit, dhe praktika të dyshimta të mbrojtjes së të dhënave.
Në një lëvizje historike, Italia theksoi katër shkelje të GDPR, nga ChatGPT, më 31 mars: prirjen e ChatGPT për të dhënë informacione të pasakta, mungesën e njoftimit të përdoruesit në lidhje me mbledhjen e të dhënave, dështimin për të justifikuar përpunimin e të dhënave personale, dhe mbrojtjen e pamjaftueshme për fëmijët nën 13 vjeç. Si rezultat, Italia urdhëroi që OpenAI të ndërpresë përdorimin e të dhënave personale të mbledhura nga qytetarët italianë në trajnimin e ChatGPT.
Rregullimi i platformave të AI po zgjerohet globalisht, me hetime të nisura në Gjermani, Francë, Spanjë dhe madje edhe në Kanada. Për më tepër, Bordi Evropian për Mbrojtjen e të Dhënave (EDPB) ka ngritur një grup pune të dedikuar për të ndihmuar në këto hetime. Rezultatet e këtyre hetimeve mund të ndikojnë ndjeshëm në funksionimin e shërbimeve të AI në mbarë botën.
Fushat kryesore të fokusit rregullator janë burimet e të dhënave të trajnimit të ChatGPT, dhe transparenca e shpërndarjes së informacionit tek përdoruesit. ChatGPT përdor modelet e gjuhëve GPT-3.5 dhe GPT-4 të OpenAI (LLM) të trajnuar në sasi të mëdha teksti të prodhuar nga njeriu. Janë ngritur shqetësime në lidhje me përputhshmërinë e kësaj praktike me GDPR, e cila kërkon pëlqimin e qartë të përdoruesit, dhe transparencën në mbledhjen dhe përpunimin e të dhënave.
Ndërsa ChatGPT është fokusi aktual, mjete të ngjashme të AI nga gjigandë të tjerë të teknologjisë, si Google apo Microsoft, ka të ngjarë të përballen me hetime të ngjashme. Për më tepër, shumë shtete janë duke hartuar legjislacione të reja dhe specifike për AI, duke klasifikuar potencialisht sistemet e AI në shkallë të gjerë si shërbime “me rrezik të lartë”. Këto zhvillime mund të ndikojnë ndjeshëm në të ardhmen e zhvillimit dhe përdorimit të AI.
Pavarësisht sfidave të vazhdueshme, aftësia e OpenAI për të negociuar me rregullatorët italianë dhe për të rivendosur shërbimet ChatGPT në Itali ofron një precedent udhëzues për negociatat e ardhshme midis zhvilluesve dhe rregullatorëve të AI. Ndërsa mjedisi rregullator për AI vazhdon të zhvillohet, organizata si OpenAI duhet të përshtaten me qasjet komplekse ligjore për të siguruar që ato të mbeten në përputhje duke vazhduar të shtyjnë kufijtë e inovacionit të AI.




