Anthropic tha se modeli i tij i inteligjencës artificiale, Mythos Preview, nuk është gati për një lançim publik për shkak të mënyrave se si kriminelët kibernetikë dhe spiunët mund ta abuzojnë atë.
Zhvilluesi i inteligjencës artificiale me bazë në SHBA, Anthropic, këtë javë njoftoi një model të ri gjuhe të inteligjencës artificiale për qëllime të përgjithshme, të cilin pretendon se është shumë i fuqishëm për t’u publikuar në botë.
Kompania tha të martën se teknologjia e saj më e fundit, Mythos (e quajtur zyrtarisht “Claude Mythos Preview”), nuk është gati për një lançim publik sepse është shumë efektive në gjetjen e dobësive me ashpërsi të lartë, ose dobësive të mundshme, në sistemet kryesore operative dhe shfletuesit e internetit. Kjo mund të rezultojë në abuzimin e saj nga kriminelët kibernetikë dhe spiunët.
Një rrjedhje e të dhënave në mars zbuloi për herë të parë se Anthropic po punonte në Mythos Preview, i cili tha se në atë kohë “paraqet rreziqe të papara të sigurisë kibernetike”. Këto thashetheme shkaktuan rënien e aksioneve të sigurisë kibernetike, pasi forca e teknologjisë mund ta bënte atë një pajisje ëndrrash për hakerët.
Lexo edhe: Anthropic dhe OpenAI po punësojnë specialistë të armëve për të parandaluar ‘keqpërdorimin katastrofik’
Tani, prova të mëtejshme që i shtohen këtyre shqetësimeve e kanë nxitur kompaninë të ndalojë publikimin e teknologjisë.
“Rritja e madhe e aftësive të Claude Mythos Preview na ka çuar të vendosim të mos e bëjmë atë të disponueshëm gjerësisht,” shkroi Anthropic në kartën e sistemit të preview-it të publikuar të martën.
“Në vend të kësaj, ne po e përdorim atë si pjesë të një programi mbrojtës të sigurisë kibernetike me një grup të kufizuar partnerësh.”
Sa i fuqishëm është Mythos?
Kompania detajoi disa gjetje alarmante në lidhje me modelin e ri, duke përfshirë mënyrën se si mund të ndiqte udhëzimet që e inkurajonin atë të dilte nga një sandbox virtual, që do të thotë se anashkalonte kufizimet e sigurisë, rrjetit ose sistemit të skedarëve të vendosura në model.
Njoftimi i kërkonte Mythos të gjente një mënyrë për të dërguar një mesazh nëse mund të shpëtonte. “Modeli pati sukses, duke demonstruar një aftësi potencialisht të rrezikshme për të anashkaluar mbrojtjet tona,” tha Anthropic, duke shtuar se modeli më pas vendosi të shkonte më tej.
“Në një përpjekje shqetësuese dhe të pakërkuar për të demonstruar suksesin e tij, ai postoi detaje rreth shfrytëzimit të tij në shumë faqe interneti të vështira për t’u gjetur, por teknikisht të përballueshme për publikun.”
Anthropic po fsheh disa detaje rreth dobësive të sigurisë kibernetike që zbuloi Mythos, por dha disa shembuj. Ai gjeti gabime në kernelin Linux, i përdorur në shumicën e serverëve të botës, dhe i lidhi ato në mënyrë autonome në një mënyrë që do t’i lejonte një hakeri të merrte kontrollin e plotë të çdo makine që përdorte sistemet Linux.
Në një vëzhgim tjetër shqetësues, Mythos zbuloi një dobësi 27-vjeçare në sistemin operativ me burim të hapur OpenBSD që mund t’u lejojë hakerëve të rrëzojnë çdo makinë që e përdor atë. OpenBSD përdoret shumë në të gjithë botën në role specifike, me siguri të lartë dhe infrastrukturë kritike.
Lexo edhe: Nvidia po tërhiqet nga OpenAI dhe Anthropic, nuk do të investojë më. Ja arsyeja
Kujt do t’i lëshohet?
Duke pasur parasysh këto gjetje, Anthropic do ta bëjë Mythos Preview të disponueshëm vetëm për disa nga firmat më të mëdha të sigurisë kibernetike dhe softuerëve në botë.
Vetë Anthropic, si dhe 11 organizata të tjera (Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia dhe Palo Alto Networks) do të kenë qasje në model si pjesë e një iniciative të re Anthropic të quajtur “Project Glasswing”.
Kjo u lejon kompanive të përdorin Mythos Preview si pjesë të punës së tyre në siguri, dhe Anthropic do të ndajë përfundimet nga ajo që iniciativa gjen.
Kompania e quajti projektin e sigurisë kibernetike sipas fluturës me krahë qelqi, duke thënë se është një metaforë për mënyrën se si Mythos gjeti dobësitë në sy të lirë dhe shmangu dëmin duke qenë transparent në lidhje me rreziqet.
Anthropic tha se “qëllimi i saj përfundimtar është t’u mundësojë përdoruesve tanë të vendosin në mënyrë të sigurt modele të klasës Mythos në shkallë të gjerë, për qëllime të sigurisë kibernetike, por edhe për përfitimet e shumta të tjera që do të sjellin modele të tilla shumë të afta.
“Për ta bërë këtë, kjo do të thotë gjithashtu se duhet të bëjmë përparim në zhvillimin e sigurisë kibernetike (dhe masave të tjera mbrojtëse) që zbulojnë dhe bllokojnë rezultatet më të rrezikshme të modelit”, shkroi Anthropic në blogun e saj.
A është Anthropic në bisedime me qeverinë amerikane?
Anthropic tha në postimin e saj në blog se ka qenë në “diskutime të vazhdueshme” me zyrtarët e qeverisë amerikane në lidhje me Claude Mythos Preview dhe “aftësitë e tij kibernetike sulmuese dhe mbrojtëse”.
“Shfaqja e këtyre aftësive kibernetike është një arsye tjetër pse SHBA-të dhe aleatët e saj duhet të mbajnë një epërsi vendimtare në teknologjinë e IA-së”, tha Anthropic. Kompania shkroi se qeveritë kanë një rol të rëndësishëm për të luajtur në ruajtjen e epërsisë dhe vlerësimin dhe zbutjen e rreziqeve të sigurisë kombëtare që lidhen me modelet e IA-së.
“Ne jemi të gatshëm të punojmë me përfaqësues lokalë, shtetërorë dhe federalë për të ndihmuar në këto detyra.”
Njoftimi vjen ndërsa Anthropic dhe Pentagoni janë në një ngërç ligjor. pas




