Ligjvënësit e BE-së në Parlamentin Evropian po i afrohen asaj se si të trajtojnë AI gjeneruese ndërsa punojnë për të rregulluar pozicionin e tyre negociues në mënyrë që faza tjetër e bisedimeve legjislative të mund të nisë në muajt e ardhshëm.
Atëherë shpresa është që një konsensus përfundimtar mbi projektligjin e bllokut për rregullimin e AI mund të arrihet deri në fund të vitit.
“Kjo është gjëja e fundit që ende qëndron në negociata,” thotë eurodeputeti Dragos Tudorache, bashkë-raportuesi për Aktin e AI të BE-së, duke diskutuar bisedimet e eurodeputetëve rreth AI gjeneruese në një intervistë me TechCrunch. “Ndërsa flasim, ne po kalojmë “T”-të e fundit dhe po vendosim “Unë” të fundit. Dhe diku javën e ardhshme unë shpresoj që ne në fakt do të mbyllemi – që do të thotë se diku në maj do të votojmë.”
Këshilli miratoi qëndrimin e tij për rregulloren në dhjetor. Por aty ku Shtetet Anëtare favorizuan kryesisht shtyrjen e asaj që duhet bërë në lidhje me AI gjeneruese – në legjislacion shtesë, zbatues – eurodeputetët duket se do të propozojnë që kërkesat e vështira t’i shtohen vetë Aktit.
Në muajt e fundit, lobistët e gjigantëve të teknologjisë kanë shtyrë në drejtim të kundërt, natyrisht, me kompani të tilla si Google dhe Microsoft që argumentojnë për AI gjeneruese për të marrë një ndarje rregullatore nga rregullat e ardhshme të AI të BE-së.
Aty ku do të përfundojnë gjërat mbetet tbc. Por duke diskutuar se çfarë ka të ngjarë të jetë pozicioni i parlamentit në lidhje me teknologjinë gjeneruese të AI në Akt, Tudorache sugjeron që eurodeputetët po gravitojnë drejt një qasjeje të shtresuar – në fakt tre shtresa – njëra për të adresuar përgjegjësitë në të gjithë zinxhirin e vlerës së AI; një tjetër për të siguruar që modelet bazë të kenë disa parmakë mbrojtëse; dhe një e treta për të trajtuar çështje specifike të përmbajtjes që lidhen me modelet gjeneruese, të tilla si ChatGPT i OpenAI.
Sipas mendimit aktual të eurodeputetëve, një nga këto tre shtresa do të zbatohej për të gjitha AI-të për qëllime të përgjithshme (GPAI) – qofshin të mëdha apo të vogla; modele themelore ose jo-themelore — dhe të fokusohen në rregullimin e marrëdhënieve në zinxhirin e vlerës së AI.
“Ne mendojmë se duhet të ketë një nivel rregullash që thotë se ‘njësia A’ vë në treg një qëllim të përgjithshëm [AI] ka një detyrim ndaj ‘njësisë ekonomike B’, në rrjedhën e poshtme, që blen qëllimin e përgjithshëm [AI] dhe në fakt jep është një qëllim,” shpjegon ai. “Për shkak se i jep një qëllim që mund të bëhet me rrezik të lartë, ai ka nevojë për informacione të caktuara. Në mënyrë që të jetë në përputhje [me Aktin e AI] duhet të shpjegojë se si është trajnuar modeli. Saktësia e grupeve të të dhënave nga paragjykimet [etj].”
Një shtresë e dytë e propozuar do të adresonte modelet themelore – duke vendosur disa detyrime specifike për krijuesit e këtyre modeleve bazë.
“Duke pasur parasysh fuqinë e tyre, duke pasur parasysh mënyrën se si janë trajnuar, duke pasur parasysh shkathtësinë, ne besojmë se ofruesit e këtyre modeleve themelore duhet të bëjnë disa gjëra – si ex ante… por edhe gjatë jetës së modelit,” thotë ai. “Dhe ka të bëjë me transparencën, ka të bëjë, përsëri, me mënyrën se si ata stërviten, si testohen përpara se të dalin në treg. Pra, në thelb, cili është niveli i kujdesit të përgjegjësisë që kanë ata si zhvillues të këtyre modeleve?”
Shtresa e tretë që deputetët evropianë propozojnë do të synojë në mënyrë specifike AI-të gjeneruese – që do të thotë një nëngrup i GPAI-ve/modeleve themelore, të tilla si modelet e mëdha të gjuhës ose AI-të gjeneruese të artit dhe muzikës. Këtu ligjvënësit që punojnë për të caktuar mandatin e parlamentit po mendojnë se këto mjete kanë nevojë për përgjegjësi edhe më specifike; si kur bëhet fjalë për llojin e përmbajtjes që mund të prodhojnë (me rreziqe të hershme që lindin rreth dezinformimit dhe shpifjes); dhe në lidhje me çështjen e mprehtë (dhe gjithnjë e më të diskutueshme) të materialit me të drejtë autori që përdoret për të trajnuar AI.
“Ne nuk po shpikim një regjim të ri për të drejtën e autorit sepse tashmë ekziston një ligj për të drejtën e autorit. Ajo që ne po themi është se duhet të ketë një dokumentacion dhe transparencë për materialin që është përdorur nga zhvilluesi në trajnimin e modelit,” thekson ai. “Kështu që më pas mbajtësit e atyre të drejtave… mund të thonë hej, duroni, çfarë keni përdorur të dhënat e mia, ju përdorni këngët e mia, keni përdorur artikullin tim shkencor – mirë, faleminderit shumë që u mbrojt me ligj, prandaj ju detyroheni mua diçka – ose jo. Për këtë do të përdoren ligjet ekzistuese për të drejtat e autorit. Ne nuk po e zëvendësojmë atë ose nuk po e bëjmë atë në Aktin e AI. Ne thjesht po e sjellim atë brenda.”
Komisioni propozoi projektligjin e AI plot dy vjet më parë, duke parashtruar një qasje të bazuar në rrezik për rregullimin e aplikimeve të inteligjencës artificiale dhe duke vendosur bashkë-ligjvënësit e bllokut, parlamentin dhe Këshillin, detyrën jo të vogël të miratimit të ligjit në botë. Rregullorja e parë horizontale për AI.
Eksitimi rreth bumit në përdorimin e mjeteve gjeneruese të AI që lejojnë këdo të prodhojë vepra të tilla si kompozime të shkruara ose imazhe vizuale vetëm duke futur disa udhëzime të thjeshta është zbutur nga shqetësimi në rritje për potencialin e ndikimeve negative të shkallëzimit të shpejtë për të shoqëruar produktivitetin e mbrojtur. përfitimet.
Ligjvënësit e BE-së e kanë gjetur veten në qendër të debatit – dhe ndoshta duke tërhequr vëmendjen globale më shumë se zakonisht – pasi ata janë përballur me detyrën e ndërlikuar për të kuptuar se si rregullat e BE-së në hyrje të AI duhet të përshtaten për t’u zbatuar në AI gjeneruese virale.
Drafti origjinal i Komisionit propozonte rregullimin e inteligjencës artificiale duke kategorizuar aplikacionet në breza të ndryshëm rreziku. Sipas këtij plani, pjesa më e madhe e aplikacioneve të AI do të kategorizohen si me rrezik të ulët – që do të thotë se ata i shpëtojnë çdo kërkese ligjore. Nga ana tjetër, një pjesë e vogël e rasteve të përdorimit të rrezikut të papranueshëm do të ndaloheshin plotësisht (siç është vlerësimi i kredisë sociale në stilin kinez). Më pas, në mes, korniza do të zbatonte rregulla për një kategori të tretë aplikacionesh ku ka rreziqe të qarta të mundshme të sigurisë (dhe/ose rreziqe për të drejtat themelore), të cilat megjithatë konsiderohen të menaxhueshme.
Akti i AI përmban një listë të kategorive të “rrezik të lartë” që mbulon përdorimin e AI në një sërë fushash që prekin sigurinë dhe të drejtat e njeriut, si zbatimi i ligjit, drejtësia, arsimi, kujdesi shëndetësor i punësimit etj. Aplikacionet që bëjnë pjesë në këtë kategori do t’i nënshtrohen një regjimi të pajtueshmërisë para dhe pas tregtimit, me një sërë detyrimesh në fusha si cilësia dhe qeverisja e të dhënave; dhe zbutje për diskriminim – me potencial për zbatim (dhe dënime) nëse shkelin kërkesat.
Propozimi përmbante gjithashtu një kategori tjetër të mesme e cila zbatohet për teknologji të tilla si chatbots dhe deepfakes – teknologji e fuqizuar nga AI që ngre disa shqetësime, por jo, sipas këndvështrimit të Komisionit, aq shumë si skenarë me rrezik të lartë. Aplikacione të tilla nuk tërheqin tërësinë e kërkesave të pajtueshmërisë në draft tekst, por ligji do të zbatonte kërkesat e transparencës që nuk kërkohen nga aplikacionet me rrezik të ulët.
Të qenit i pari në hartimin e ligjeve për një fushë teknologjike kaq të zhvilluar me shpejtësi, do të thoshte se BE-ja po punonte mbi Aktin e AI shumë përpara se zhurma rreth AI gjeneruese të kalonte në rrymë. Dhe ndërsa ligjvënësit e bllokut po lëviznin me shpejtësi në një kuptim, procesi i tij bashkëlegjislativ mund të jetë mjaft i mundimshëm. Pra, siç rezulton, dy vjet pas draftit të parë, parametrat e saktë të legjislacionit të UA janë ende në proces të hashimit.
Bashkëligjvënësit e BE-së, në parlament dhe në Këshill, kanë fuqinë për të rishikuar draftin duke propozuar dhe negociuar amendamente. Pra, ka një mundësi të qartë për bllokun që të adresojë zbrazëtitë rreth AI gjeneruese pa pasur nevojë të presë që legjislacioni vijues të propozohet në linjë, me vonesën më të madhe që do të sillte.
Megjithatë, Akti i AI-së së BE-së ndoshta nuk do të jetë në fuqi para vitit 2025 – apo edhe më vonë, në varësi të faktit nëse ligjvënësit vendosin t’u japin krijuesve të aplikacioneve një ose dy vjet përpara se të fillojë zbatimi. (Kjo është një tjetër pikë debati për eurodeputetët, sipas Tudorache .)
Ai thekson se do të jetë e rëndësishme t’u jepet kompanive kohë të mjaftueshme për t’u përgatitur për t’u pajtuar me atë që ai thotë se do të jetë “një rregullore gjithëpërfshirëse dhe e gjerë”. Ai thekson gjithashtu nevojën për t’u lënë kohë Shteteve Anëtare që të përgatiten për të zbatuar rregullat rreth teknologjive të tilla komplekse, duke shtuar: “Unë nuk mendoj se të gjitha Shtetet Anëtare janë të përgatitura të luajnë rolin e rregullatorit. Ata kanë nevojë për kohë për të rritur ekspertizën, për të gjetur ekspertizë, për të bindur ekspertizën që të punojë për sektorin publik.
“Përndryshe, do të ketë një shkëputje të tillë midis realiteteve të industrisë, realiteteve të zbatimit dhe rregullatorit, dhe ju nuk do të jeni në gjendje t’i detyroni të dy botët në njëra-tjetrën. Dhe ne nuk e duam as këtë. Kështu që unë mendoj se të gjithë kanë nevojë për atë vonesë.”
Eurodeputetët po kërkojnë gjithashtu të amendojnë projektligjin e UA në mënyra të tjera – duke përfshirë duke propozuar një element të centralizuar të zbatimit për të vepruar si një lloj mjeti mbështetës për agjencitë e nivelit të shtetit anëtar; si dhe propozimin e disa rasteve shtesë të ndaluara të përdorimit (të tilla si policimi parashikues; e cila është një fushë ku Këshilli mund të kërkojë të zmbrapset).
“Ne po ndryshojmë rrënjësisht qeverisjen nga ajo që ishte në tekstin e Komisionit, dhe gjithashtu ajo që është në tekstin e Këshillit,” thotë Tudorache në pikën e zbatimit. “Ne po propozojmë një rol shumë më të fortë për atë që ne e quajmë Zyra e AI. Përfshirë mundësinë për të pasur hetime të përbashkëta. Kështu që ne po përpiqemi të vendosim dhëmbë sa më të mprehtë. Dhe gjithashtu shmangni kapanonet. Ne duam të shmangim 27 efektin e juridiksionit të ndryshëm [d.m.th. të përmbarimeve të fragmentuara dhe blerjeve në forum për t’iu shmangur zbatimit].”
Qasja e BE-së për rregullimin e AI bazohet në mënyrën se si është trajtuar historikisht përgjegjësia e produktit. Kjo përshtatje është padyshim një shtrirje, duke pasur parasysh se sa të lakueshme janë teknologjitë e AI dhe gjatësia/kompleksiteti i “zinxhirit të vlerës së AI” – d.m.th. sa entitete mund të përfshihen në zhvillimin, përsëritjen, personalizimin dhe vendosjen e modeleve të AI. Pra, zbulimi i përgjegjësisë përgjatë këtij zinxhiri është absolutisht një sfidë kryesore për ligjvënësit.
Qasja e bazuar në rrezik ngre gjithashtu pyetje specifike se si të trajtohet shija veçanërisht virale e AI gjeneruese që është shpërthyer në vetëdijen kryesore muajt e fundit, pasi këto mjete nuk kanë domosdoshmërisht një rast të qartë të përdorimit. Ju mund të përdorni ChatGPT për të kryer kërkime, për të gjeneruar trillime, për të shkruar fjalimin e një njeriu më të mirë, për të krijuar një kopje marketingu ose tekste stilolapsi në një këngë të lezetshme pop, për shembull – me paralajmërimin se ajo që nxjerr mund të jetë as e saktë dhe as shumë e mirë (dhe sigurisht që nuk do të jetë origjinale).
Në mënyrë të ngjashme, mjetet gjeneruese të artit të AI mund të përdoren për qëllime të ndryshme: Si një ndihmë frymëzuese për prodhimin artistik, të themi, për të liruar krijuesit për të bërë punën e tyre më të mirë; ose për të zëvendësuar rolin e një ilustruesi njerëzor të kualifikuar me prodhim më të lirë të makinës.
(Disa argumentojnë gjithashtu se teknologjitë gjeneruese të AI janë edhe më spekulative; se ato nuk janë fare për qëllime të përgjithshme, por në thelb të meta dhe të paaftë; që përfaqësojnë një amalgamë të investimeve të forta të hapura që po u imponohen shoqërive pa leje ose pëlqim në një situatë tepër të shtrenjtë dhe kërkimi i stilit të ekspeditës së peshkimit për të shkelur të drejtat për zgjidhje fitimprurëse.)
Prandaj, shqetësimi kryesor që deputetët evropianë kërkojnë të trajtojnë është të sigurojnë që modelet themelore gjeneruese të AI si GPT e OpenAI nuk mund t’i shmangen plotësisht rregullimit të bazuar në rrezik duke pretenduar se nuk kanë një qëllim të caktuar.
Zhvilluesit e modeleve gjeneruese të AI mund të kërkojnë gjithashtu të argumentojnë se po ofrojnë një mjet që është mjaftueshëm me qëllim të përgjithshëm për t’i shpëtuar çdo përgjegjësie sipas ligjit të ardhshëm – përveç nëse ka qartësi në rregullore në lidhje me detyrimet dhe detyrimet relative në të gjithë zinxhirin e vlerës.
Një skenar padyshim i padrejtë dhe jofunksional do të ishte që i gjithë rreziku dhe përgjegjësia e rregulluar të shtyhen në drejtim të rrymës, vetëm mbi vendosësit e aplikacioneve specifike me rrezik të lartë. Meqenëse këto entitete, pothuajse me siguri, do të përdornin modele gjeneruese të AI të zhvilluara nga të tjerët/të tjerë në rrjedhën e sipërme – kështu që nuk do të kishin akses në të dhënat, peshat etj. të përdorura për të trajnuar modelin bazë – gjë që do ta bënte të pamundur për ta që të pajtoheshin me AI Veproni për detyrimet, qoftë për cilësinë e të dhënave apo për zbutjen e paragjykimeve.
Tashmë kishte kritika për këtë aspekt të propozimit përpara se të fillonte me zell zhurma gjeneruese e AI. Por shpejtësia e adoptimit të teknologjive si ChatGPT duket se i ka bindur parlamentarët për nevojën për të ndryshuar tekstin për t’u siguruar që AI gjeneruese nuk i shpëton rregullimit.
Dhe ndërsa Tudorache nuk është në gjendje të dijë nëse Këshilli do të përputhet me ndjenjën e misionit të parlamentarëve këtu, ai thotë se ka “një ndjenjë” që ata do të blejnë – megjithëse, ka shumë të ngjarë të kërkojnë të shtojnë “rregullimet dhe rregullimet” e tyre dhe këmbanat dhe bilbilat” për mënyrën se si teksti trajton saktësisht AI-të për qëllime të përgjithshme.
Për sa i përket hapave të ardhshëm, sapo eurodeputetët të mbyllin diskutimet e tyre për dosjen, do të ketë disa vota në parlament për miratimin e mandatit. (Së pari dy votat e komisionit dhe më pas një votim plenar.)
Ai parashikon se kjo e fundit “me shumë gjasa” do të përfundojë duke u zhvilluar në seancën plenare në fillim të qershorit – ngritja e diskutimeve trilogëshe për të nisur me Këshillin dhe një sprint për të arritur marrëveshje mbi një tekst gjatë gjashtë muajve të presidencës spanjolle. . “Unë jam në fakt mjaft i sigurt… ne mund të përfundojmë me presidencën spanjolle,” shton ai. “Ata janë shumë, shumë të etur për ta bërë këtë flamurtar të presidencës së tyre.”
I pyetur pse mendon se Komisioni shmangu trajtimin e inteligjencës artificiale gjeneruese në propozimin origjinal, ai sugjeron që edhe vetëm disa vjet më parë shumë pak njerëz e kuptuan se sa e fuqishme – dhe potencialisht problematike – do të bëhej kjo teknologji, dhe as sa shpejt mund të zhvilloheshin gjërat në këtë fushë. . Pra, është një dëshmi se sa e vështirë është për ligjvënësit që të vendosin rregulla rreth ndryshimit të formës së teknologjive dixhitale, të cilat nuk janë tashmë të vjetruara para se të kenë kaluar edhe në procesin e përcaktimit të ligjit demokratik.
Disi rastësisht, afati kohor duket se po funksionon për Aktin e AI të BE-së – ose, të paktën, ligjvënësit e rajonit kanë një mundësi për t’iu përgjigjur zhvillimeve të fundit. (Sigurisht që mbetet për t’u parë se çfarë tjetër mund të shfaqet gjatë dy viteve të ardhshme ose më shumë nga AI gjeneruese, e cila mund të komplikojë rishtas këto përpjekje të fundit izoluese në të ardhmen.)
Duke pasur parasysh ritmin dhe potencialin shkatërrues të valës së fundit të modeleve gjeneruese të AI, eurodeputetët duken të prirur që të tjerët të ndjekin shembullin e tyre – dhe Tudorache ishte një nga një numër i parlamentarëve që vendosën emrat e tyre në një letër të hapur në fillim të kësaj jave, duke bërë thirrje për përpjekje ndërkombëtare për të bashkëpunuar për vendosjen e disa parimeve të përbashkëta për qeverisjen e AI.
Letra pohon gjithashtu angazhimin e eurodeputetëve për të vendosur “rregulla të përshtatura posaçërisht për modelet themelore” – me qëllimin e deklaruar për të siguruar AI “me qendër njeriun, të sigurt dhe të besueshëm”.
AI is moving very fast and we need to move too. The call from the Future of Life Institute @FLIxrisk to pause the development of very powerful AI for half a year, although unnecessarily alarmist, is another signal we need to focus serious political attention on this issue. pic.twitter.com/Tjrj9k02Yj
— Dragoș Tudorache (@IoanDragosT) April 17, 2023
Ai thotë se letra u shkrua si përgjigje ndaj letrës së hapur të lëshuar muajin e kaluar – e nënshkruar nga njerëz si Elon Musk (i cili që atëherë është raportuar se po përpiqet të zhvillojë GPAI-n e tij) – duke bërë thirrje për një moratorium për zhvillimin e ndonjë më të fuqishëm. modele gjeneruese të AI në mënyrë që të mund të zhvillohen protokolle të përbashkëta sigurie.
“Pashë njerëz që pyesnin, oh, ku janë politikëbërësit? Dëgjoni, mjedisi i biznesit është i shqetësuar, akademia është e shqetësuar dhe ku janë politikëbërësit – ata nuk po dëgjojnë. Dhe pastaj mendova mirë se kjo është ajo që ne po bëjmë këtu në Evropë, “tha ai për TechCrunch. “Pra, kjo është arsyeja pse më pas mblodha kolegët e mi dhe thashë le të kemi një përgjigje të hapur për këtë.”
“Ne nuk po themi se përgjigja është në thelb të ndalosh dhe të vraposh drejt kodrave. Por që në fakt, përsëri, të marrim me përgjegjësi sfidën [të rregullimit të AI] dhe të bëjmë diçka për të – sepse ne mundemi. Nëse ne nuk po e bëjmë atë si rregullator, atëherë kush tjetër do ta bënte?” shton ai.
Eurodeputetët nënshkrues besojnë gjithashtu se detyra e rregullimit të AI është kaq thelbësore, ata nuk duhet të presin vetëm me shpresën se miratimi i Aktit të BE-së për AI do të çojë në një tjetër ‘efekt të Brukselit’ që do të fillojë pas disa vitesh. siç ndodhi pasi blloku përditësoi regjimin e tij të mbrojtjes së të dhënave në 2018 – duke ndikuar në një sërë përpjekjesh të ngjashme legjislative në juridiksione të tjera. Përkundrazi, ky mision rregullues i AI duhet të përfshijë inkurajim të drejtpërdrejtë – sepse aksionet janë thjesht shumë të larta.
“Ne duhet të fillojmë të afrohemi në mënyrë aktive drejt demokracive të tjera me mendje të ngjashme [dhe të tjerave] sepse duhet të ketë një bisedë globale dhe një reflektim global, shumë serioz për rolin e kësaj teknologjie të fuqishme në shoqëritë tona dhe se si të krijojmë disa elemente bazë. rregullat për të ardhmen,” nxit Tudorache.




