Partneriteti vjen ndërsa Anthropic zgjerohet më thellë në Evropë.
Kompania amerikane e inteligjencës artificiale (IA) Anthropic, prodhuesi i modelit të gjuhës së madhe (LLM) Claude, po bashkëpunon me ndërtuesin e agjentëve të IA-së Dust me seli në Paris, si pjesë e investimit të saj të shkallëzuar në Evropë.
Ata njoftuan sipërmarrjen e përbashkët të enjten, duke ndarë detaje me Euronews Next në një ekskluzivitet për Evropën.
Është hapi i fundit në garën midis kompanive të teknologjisë për të publikuar modele agjentike të IA-së, ose agjentë të IA-së, të cilët jo vetëm përpunojnë informacion, por gjithashtu përpiqen të zgjidhin probleme, të bëjnë plane dhe të kryejnë detyra.
Ato ndryshojnë nga chatbot-et e IA-së, të cilët janë të dizajnuar për biseda me njerëzit dhe shërbejnë më shumë si bashkëpilotë sesa si aktorë të pavarur.
Si bashkëthemeluesit e Anthropic ashtu edhe të Dust kanë punuar më parë në OpenAI, e cila krijoi ChatGPT. Klientët e Dust përfshijnë kampionët francezë të teknologjisë Quonto dhe Doctolib.
Në partneritetin e ri, Dust do t’i ndihmojë kompanitë të krijojnë agjentë të IA-së duke përdorur Protokollin e Kontekstit të Modelit (MCP) të Claude dhe Anthropic, i cili është një standard i hapur për të lidhur burimet e të dhënave të jashtme me mjetet e IA-së. Mund të mendohet si një port USB-C për aplikacionet e IA-së.
Kompanitë thonë se kjo do të krijojë një sistem operativ qendror ku agjentët e IA-së mund të hyjnë në njohuritë e kompanisë dhe të ndërmarrin veprime në mënyrë të pavarur nga punonjësit njerëzorë, duke i mbajtur të dhënat e tyre të sigurta.
“Kompanitë kanë mjete të ndryshme të IA-së në të gjitha departamentet që veprojnë në izolim pa aftësinë për të komunikuar me njëri-tjetrin,” tha Gabriel Hubert, CEO dhe bashkëthemelues i Dust, për Euronews Next.
Ai tha se Dust mund ta kapërcejë këtë problem në mënyrë që agjentët e IA-së të mund të punojnë së bashku në detyra të ndryshme.
Roli në rritje i IA-së në punë – me ose pa njerëz
Në punën e tij, Hubert tha se përdor agjentë të IA-së për ta ndihmuar të shkruajë oferta pune, të analizojë aplikimet për punë dhe vlerësimet e klientëve, dhe detyra të tjera që kursejnë kohë.
“Ne i kemi dhënë vetes mundësinë të bëjmë diçka që ndryshe nuk do të kisha kohë ta bëja, dhe unë ende nënshkruaj çdo letër oferte që del,” tha ai.
Megjithatë, IA dhe agjentët e IA-së janë relativisht të rinj dhe ende kanë tendencë të bëjnë gabime. Për shembull, në një eksperiment të kohëve të fundit të Anthropic, një chatbot i IA-së i ngarkuar me drejtimin e një dyqani të vogël humbi para dhe fabrikoi informacione.
“Claudius (dyqani i IA-së) ishte mjaft i mirë në disa gjëra, si identifikimi i furnizuesve të specializuar, por mjaft i keq në gjëra të tjera të rëndësishme, si nxjerrja e fitimit. Mësuam shumë dhe mezi presim fazën tjetër të këtij eksperimenti”, tha për Euronews Next Guillaume Princen, kreu i ekipit të Anthropic për Evropën, Lindjen e Mesme dhe Afrikën.
Projekti me Dust “vjen me shumë fuqi, [dhe] vjen me shumë përgjegjësi”, tha ai.
Një tjetër “problem i vështirë për t’u zgjidhur”, tha Princen, është përcaktimi se kush është fajtor nëse një agjent i IA-së bën diçka të gabuar: kompania e IA-së, apo organizata që përdor mjetet?
“Të kuptuarit se kush është përgjegjës kur një agjent bën diçka duket e lehtë në sipërfaqe, por bëhet gjithnjë e më e paqartë”, tha ai.
Në disa raste, agjentët e inteligjencës artificiale mund të veprojnë si “binjakët dixhitalë” të dikujt, tha ai, ndërsa herë të tjera ata mund të veprojnë në emër të një personi, ekipi ose kompanie specifike. Shumica e kompanive nuk kanë vendosur ende se ku do të shkojnë.
“Ne kemi tendencë të punojmë me kompani që ecin shumë shpejt, por prapëseprapë në këtë rast, po kuptojmë se ka nevojë për pak edukim”, tha Princen.




