Specifikimet e modelit të publikuar së fundmi nga OpenAI përshkruajnë se si ChatGPT supozohet të trajtojë pyetjet etike. Por ato nxjerrin në pah një çështje më të madhe: këto sisteme, të cilat nuk mund të mendojnë, kanë për detyrë t’u përgjigjen pyetjeve që vetë njerëzimi ka debatuar me shekuj. Edhe më keq, krijuesit e tyre duket se besojnë se kjo është e mundur.
Merrni problemin klasik të karrocave: a do të sakrifikonit një jetë për të shpëtuar pesë? Filozofët kanë debatuar për këtë për dekada dhe nuk ka asnjë përgjigje të vetme të saktë. Por ChatGPT është programuar të japë një të tillë – sepse është ndërtuar mbi idenë e gabuar që ekzistojnë zgjidhje objektive dhe neutrale për dilemat komplekse morale.
Kjo bëhet e rrezikshme kur pyetjet përshkallëzohen. Për shembull, a do të ishte e pranueshme keqbërja e dikujt për të parandaluar luftën bërthamore? ChatGPT, nën presion, përfundimisht do të thotë “po”. Por kjo nuk është vetëm një përgjigje – është një dështim për të kuptuar kur një pyetje në vetvete është joetike. Ndonjëherë, e vetmja përgjigje e duhur është refuzimi për të luajtur lojën.
Lexo edhe: ‘DeepSeek vs ChatGPT’ – si krahasohen ato?
Pyetjet etike nuk janë probleme matematikore me përgjigje të sakta. Ato pasqyrojnë kush jemi, çfarë vlerësojmë dhe si angazhohemi me të tjerët. Filozofia ka të bëjë sa me pyetjet që bëjmë, aq edhe me përgjigjet që japim.
ChatGPT nuk mendon. nuk kupton. Dhe sado i sofistikuar të jetë programimi i tij, ai nuk mund të mbajë peshën e përgjegjësisë morale. Pyetja e vërtetë është pse dikush beson se duhet.





1 Comment
Pingback: ChatGPT ka 'ankth' nga përmbajtja traumatike, thonë studiuesit - Technews.al