Chatbot-i i inteligjencës artificiale, ChatGPT, ka marrë vëmendje për prirjen e tij për të ofruar informacione të pasakta. Megjithëse OpenAI paralajmëron në faqen kryesore se AI mund të “gjenerojë herë pas here informacione të pasakta”, shumë kritikë argumentojnë se ky paralajmërim është i pamjaftueshëm, duke pasur parasysh pasojat e mundshme të keqinformimit.
Kufizimet e chatbot-it u vunë re kur avokati amerikan Steven A. Schwartz e përdori atë për të gjetur çështje mbështetëse për një padi kundër linjës ajrore kolumbiane, Avianca. Në fakt, rastet e ofruara nga ChatGPT nuk ekzistonin. Pavarësisht dyshimit të tij fillestar dhe kontrolleve të mëvonshme me chatbot-in, sistemi vazhdoi të pohonte se rastet e fabrikuara ishin legjitime.
Ndërsa Schwartz mban një pjesë të fajit, shpeshtësia me të cilën përdoruesit i marrin të mirëqëna si të besueshme pohimet e ChatGPT, kërkon një konsideratë më të gjerë. Gjatë muajve të fundit, janë shfaqur raporte të shumta mbi njerëzit që mashtrohen nga gënjeshtrat e chatbot-it. Keqinformimi varionte nga fabrikimi i lajmeve dhe punimeve akademike, deri te gjenerimi i lajmeve të pasakta ose përhapja e akuzave të rreme për sjellje të pahijshme seksuale të personave publikë.
Këto raste nxjerrin në pah një potencial shqetësues për pasoja të dëmshme për shkak të keqinformimit të ChatGPT. Gjithashtu, këto raste nënvizojnë nevojën që përdoruesit t’i qasen përgjigjeve të gjeneruara nga AI me një sy kritik, dhe për më tepër është e rëndësishme që OpenAI të përmirësojë besueshmërinë e sistemit.
Ndërsa raporte të ndryshme shpesh paraqesin chatbot-et AI, si ChatGPT, si të ngjashëm me inteligjencën njerëzore, ata shpesh minimizojnë kufizimet dhe potencialin e robotëve për të ofruar informacione të pasakta. Sipas shumë ekspertëve, OpenAI duhet të ndërmarrë hapa më të mëdhenj për të siguruar saktësinë e informacionit.
Megjithëse chatbot-et po promovohen si një lloj i ri teknologjie, përdoruesit shpesh i trajtojnë ato si motorrë kërkimi. Kjo është problematike, pasi ndërsa motorët e kërkimit ofrojnë informacione që mund të verifikohen, ndërsa chatbot-et përgjigjen me qasjen miqësore të një asistenti digjital, duke mashtruar potencialisht përdoruesit. Një mohim i shkurtër është i pamjaftueshëm për të kundërshtuar këtë problematikë.
Në ndryshim nga ChatGPT, chatbot-i i Bing, i cili gjithashtu përdor të njëjtën teknologji, performon më mirë me detyrat e gjetjes së fakteve, duke i lidhur ato me burimet. ChatGPT mund të kërkojë në mënyrë të ngjashme në web, por kjo veçori disponohet vetëm në versionin Plus, i cili është me pagesë. Rrjedhimisht, natyra e pavarur e ChatGPT e bën atë më të prirur ndaj përdoruesëve që nuk mund të verifikojnë gjithmonë informacionin.
Ndërsa OpenAI ka bërë përmirësime me ChatGPT që nga publikimi i platformës, ka ende mospërputhje të konsiderueshme. Për shembull, kur u pyet nëse mund të zbulojë tekstin e krijuar nga AI, roboti paralajmëroi se ai “nuk ishte i pagabueshëm”, por më pas pohoi gabimisht se teksti në fjalë ishte krijuar nga AI. Në mënyrë të ngjashme, kur u pyet për rekomandime librash për ekonominë, ai ofroi dy tituj krejtësisht të fabrikuar.
Duke pasur parasysh këto mospërputhje, kritikët argumentojnë se mohimi i përgjegjësisë, “Mund të gjenerojë herë pas here informacione të pasakta”, duket se nënvlerëson shpeshtësinë e gabimeve. Si të tilla, deklarata më të qarta nga OpenAI, të shoqëruara me përmirësime në besueshmërinë e sistemit, janë të nevojshme për t’u mbrojtur kundër keqpërdorimeve të mundshme dhe pasojave të dëmshme.





1 Comment
Pingback: Lëshimi i Titanit: ChatGPT-4 sfidon çdo gjë! - Technews.al