Ka një prirje të re që shfaqet në hapësirën gjeneruese të AI – AI gjeneruese për sigurinë kibernetike – dhe Google është ndër ata që kërkojnë të hyjnë në katin e parë.
Në Konferencën RSA 2023 sot, Google njoftoi Cloud Security AI Workbench, një paketë sigurie kibernetike e mundësuar nga një model i specializuar i gjuhës së AI “sigurie” i quajtur Sec-PaLM. Një degë e modelit PaLM të Google, Sec-PaLM është “i rregulluar mirë për rastet e përdorimit të sigurisë”, thotë Google – duke përfshirë inteligjencën e sigurisë si kërkimi mbi dobësitë e softuerit, malware, treguesit e kërcënimit dhe profilet e aktorëve të kërcënimeve në sjellje.
Cloud Security AI Workbench përfshin një sërë mjetesh të reja të fuqizuara nga AI, si Mandiant’s Threat Intelligence AI, i cili do të përdorë Sec-PaLM për të gjetur, përmbledhur dhe vepruar ndaj kërcënimeve të sigurisë. (Kujtojmë se Google bleu Mandiant në 2022 për 5.4 miliardë dollarë.) VirusTotal, një tjetër pronë e Google, do të përdorë Sec-PaLM për të ndihmuar abonentët të analizojnë dhe shpjegojnë sjelljen e skripteve me qëllim të keq.
Diku tjetër, Sec-PaLM do të ndihmojë klientët e Chronicle, shërbimi i sigurisë kibernetike të Google në cloud, në kërkimin e ngjarjeve të sigurisë dhe ndërveprim “në mënyrë konservative” me rezultatet. Ndërkohë, përdoruesit e AI të Qendrës së Komandës së Sigurisë të Google do të marrin shpjegime “të lexueshme nga njeriu” për ekspozimin ndaj sulmit me mirësjellje të Sec-PaLM, duke përfshirë asetet e ndikuara, zbutjet e rekomanduara dhe përmbledhjet e rrezikut për gjetjet e sigurisë, pajtueshmërisë dhe privatësisë.
“Ndërsa Inteligjenca Artificiale gjeneruese ka pushtuar së fundmi imagjinatën, Sec-PaLM bazohet në vite të kërkimit themelor të AI nga Google dhe DeepMind, dhe ekspertizën e thellë të ekipeve tona të sigurisë”, shkroi Google në një postim në blog këtë mëngjes. “Ne sapo kemi filluar të kuptojmë fuqinë e aplikimit të inteligjencës artificiale gjeneruese për sigurinë dhe presim me padurim të vazhdojmë të shfrytëzojmë këtë ekspertizë për klientët tanë dhe të nxisim përparime në të gjithë komunitetin e sigurisë.”
Këto janë ambicie mjaft të guximshme, veçanërisht duke pasur parasysh që VirusTotal Code Insight, mjeti i parë në Cloud Security AI Workbench, është i disponueshëm vetëm në një vrojtim të kufizuar për momentin. (Google thotë se planifikon të nxjerrë pjesën tjetër të ofertave për “testuesit e besuar” në muajt e ardhshëm.) Sinqerisht nuk është e qartë se sa mirë funksionon Sec-PaLM – ose nuk funksionon – në praktikë. Sigurisht, “zbutjet e rekomanduara dhe përmbledhjet e rrezikut” duken të dobishme, por a janë sugjerimet shumë më të mira apo më të sakta sepse ato i ka prodhuar një model i AI?
Në fund të fundit, modelet e gjuhës së inteligjencës artificiale – pa marrë parasysh sa të avancuara – bëjnë gabime. Dhe ata janë të ndjeshëm ndaj sulmeve si injeksioni i menjëhershëm, i cili mund t’i bëjë ata të sillen në mënyrat që krijuesit e tyre nuk e kishin menduar.
Kjo nuk po i ndalon gjigantët e teknologjisë, sigurisht. Në mars, Microsoft lançoi Security Copilot, një mjet i ri që synon të “përmbledhë” dhe “të bëjë kuptim” të inteligjencës së kërcënimit duke përdorur modele gjeneruese të AI nga OpenAI duke përfshirë GPT-4. Në materialet e shtypit, Microsoft – ngjashëm me Google – pretendoi se AI gjeneruese do të pajiste më mirë profesionistët e sigurisë për të luftuar kërcënimet e reja.
Juria është shumë e paqartë për këtë. Në të vërtetë, AI gjeneruese për sigurinë kibernetike mund të rezultojë të jetë më shumë zhurmë se çdo gjë – ka mungesë studimesh mbi efektivitetin e saj. Rezultatet do t’i shohim së shpejti me ndonjë fat, por ndërkohë, pranoni pretendimet e Google dhe Microsoft me një kokërr të shëndetshme kripe.




