Kompanitë e inteligjencës artificiale (IA) Anthropic dhe OpenAI po kërkojnë të punësojnë ekspertë të armëve dhe eksplozivëve për të parandaluar keqpërdorimin e teknologjisë së tyre, sipas njoftimeve të punës nga të dyja kompanitë.
Anthropic njoftoi në një postim në LinkedIn se po kërkonte një ekspert politikash për armët kimike dhe shpërthimet për të parandaluar “keqpërdorimin katastrofik” të teknologjisë së saj duke formësuar mënyrën se si sistemet e saj të IA-së trajtojnë informacionin e ndjeshëm në këto fusha.
Personi i punësuar në Anthropic do të projektojë dhe monitorojë parmakët për mënyrën se si modelet e IA-së reagojnë ndaj kërkesave në lidhje me armët kimike dhe eksplozivët. Ata gjithashtu do të kryejnë “përgjigje të shpejta” ndaj çdo përshkallëzimi që Anthropic zbulon në kërkesat për armë dhe shpërthime.
Aplikantët duhet të kenë të paktën pesë vjet përvojë në “mbrojtjen nga armët kimike dhe/ose eksplozivët”, si dhe njohuri për “pajisjet shpërndarëse radiologjike” ose bombat e pista. Roli përfshin hartimin e vlerësimeve të reja të riskut që lidershipi i kompanisë mund t’i “besojë gjatë lançimeve me rreziqe të larta”.
Njoftimi i punës së OpenAI në fillim të këtij muaji tha se po kërkonte studiues për t’u bashkuar me ekipin e saj të Përgatitjes, i cili monitoron për “rreziqe katastrofike që lidhen me modelet e inteligjencës artificiale në kufij”.
Ai gjithashtu reklamoi për një Modelues Kërcënimesh, i cili do t’i jepte një personi pronësinë kryesore “për identifikimin, modelimin dhe parashikimin e rreziqeve në kufij” dhe do të shërbente si “një nyje qendrore që lidh perspektivat teknike, qeverisëse dhe politike mbi përparësitë, fokusin dhe arsyetimin në qasjen tonë ndaj rreziqeve në kufij nga inteligjenca artificiale”.
Euronews Next kontaktoi Anthropic dhe OpenAI në lidhje me njoftimet e punës, por nuk mori një përgjigje të menjëhershme.
Këto punësime vijnë pasi Anthropic ngriti një sfidë ligjore kundër qeverisë amerikane pasi ajo e përcaktoi kompaninë si një “rrezik të zinxhirit të furnizimit”, një etiketë që i lejon qeverisë të bllokojë kontratat ose t’u udhëzojë departamenteve të mos punojnë me to.
Konflikti filloi më 24 shkurt, kur Departamenti i Luftës (DOW) kërkoi akses të pakufizuar në chatbot-in Claude të Anthropic.
CEO Dario Amodei tha se kontratat e DOW nuk duhet të përfshijnë raste kur Claude vendoset për mbikëqyrje masive vendase dhe integrohet në armë plotësisht autonome.
Menjëherë pas pasojave me Anthropic, OpenAI nënshkroi një marrëveshje me Departamentin e Luftës (DOW) për të vendosur inteligjencën e saj artificiale në mjedise të klasifikuara. Kompania tha se marrëveshja përfshinte vija të rrepta të kuqe, të tilla si mospërdorimi i sistemeve të saj për mbikëqyrje masive ose armë autonome.





1 Comment
Pingback: ‘Shkelje të pafundme’, IA nxit rritjen e imazheve ekstreme të abuzimit me fëmijët - Technews.al