Pavarësisht rasteve të shumta ku avokatët janë ndëshkuar për përdorimin e informacionit të pasaktë të gjeneruar nga inteligjenca artificiale, shumë prej tyre vazhdojnë të përdorin mjete si ChatGPT për kërkime ligjore. Arsyeja kryesore? Koha. Apo më mirë, mungesa e saj.
Në një kohë kur ngarkesa e punës është gjithnjë në rritje dhe presioni për të qenë produktiv është i lartë, AI duket si një ndihmës ideal. Me integrimin e teknologjisë në platformat tradicionale të kërkimeve ligjore si LexisNexis apo Westlaw, përdorimi i AI-së është bërë pjesë e përditshme e punës për shumë juristë. ChatGPT dhe modele të tjera të ngjashme nuk po përdoren vetëm për të shkruar dokumente ligjore, por gjithnjë e më shumë për të mbledhur informacion dhe për të gjetur referenca të mundshme ligjore.
Megjithatë, ka një problem të madh: këto mjete shpesh “imagjinojnë” informacione. Kjo quhet “hallucinim” në terminologjinë e AI-së — kur modeli shpik raste gjyqësore ose vendime që nuk ekzistojnë. Kjo ka çuar disa avokatë në telashe serioze, përfshirë gjoba dhe kritika të ashpra nga gjyqtarët, si në një rast të njohur në vitin 2023 lidhur me një çështje aviacioni.
Pra, pse vazhdojnë ta përdorin? Shumë avokatë e shohin ChatGPT si një “motor kërkimi shumë i zgjuar” dhe nuk janë të vetëdijshëm për kufizimet e tij. Ata nuk kuptojnë plotësisht mënyrën se si funksionojnë këto modele dhe si prodhojnë përmbajtjen. Mungesa e trajnimit specifik dhe nxitimi për të përmbushur afatet i shtyn ata të besojnë verbërisht në përgjigjet e AI-së, pa bërë verifikimin e duhur.
Lexo edhe: Anthropic arrin 3 miliardë dollarë të ardhura vjetore nga kërkesa e bizneseve për AI
Ekspertët theksojnë se përdorimi i AI-së në fushën ligjore nuk është domosdoshmërisht i keq – përkundrazi, mund të jetë shumë i dobishëm. Por çelësi është përdorimi me përgjegjësi dhe gjithmonë me kontroll njerëzor. Verifikimi i informacionit, përdorimi i burimeve të besueshme dhe kuptimi i kufijve të teknologjisë janë thelbësore për të ruajtur integritetin dhe saktësinë në dokumentet ligjore. Përndryshe, AI mund të shërbejë më shumë si një burim rreziku sesa si ndihmë.




