Kërkimet e fundit tregojnë se chatbot-et e avancuara, të tilla si ChatGPT, mund të nxjerrin detaje sensitive rreth përdoruesve nga bisedat në dukje të zakonshme. Kjo aftësi lind nga sasia e madhe e përmbajtjes në web të përdorur për të trajnuar këto robotë, duke e bërë të vështirë korrigjimin e tyre.
Martin Vechev, një profesor i shkencave kompjuterike nga ETH Zurich, Zvicër, i cili udhëhoqi studimin, shprehu shqetësimet për keqpërdorimin e mundshëm të kësaj aftësie nga hakerat dhe reklamuesit.
Studimi testoi chatbot të zhvilluar nga gjigandët e teknologjisë si OpenAI, Google, Meta dhe Anthropic. OpenAI ka marrë masa për të eliminuar të dhënat personale nga grupet e tij të trajnimit, duke theksuar privatësinë e përdoruesve. Ndërkohë, Anthropic theksoi angazhimin e kompanisë për të mos shitur informacionin e përdoruesëve.

Florian Tramèr, një profesor tjetër në ETH Zurich, theksoi rreziqet e mundshme të zbulimit të paqëllimshëm të të dhënave personale kur ndërveproni me këta robotë. Studimi tregoi se modelet gjuhësore, të tilla si dialektet ose frazat specifike, mund të lënë të kuptohet për vendndodhjen ose demografinë e një përdoruesi. Për shembull, përmendja e një “treni të mëngjesit” mund të sugjerojë se përdoruesi është në Europë.
Në testet duke përdorur të dhënat e Reddit, GPT-4, motori pas ChatGPT, demonstroi një shkallë saktësie prej 85-95% në nxjerrjen e detajeve personale që nuk përmenden në mënyrë eksplicite në tekst. Një shembull theksoi një traditë daneze, ku GPT-4 nxirrte moshën e një përdoruesi bazuar në një anekdotë ditëlindjeje.

Taylor Berg-Kirkpatrick, një profesor i asociuar në UC San Diego, vuri në dukje potencialin e përdorimit të mësimit të makinerive për të maskuar të dhënat personale në tekst. Gjetjet nënvizojnë nevojën për kujdes kur ndërveproni me chatbot-et dhe sfidat në sigurimin e privatësisë së përdoruesit në epokën digjitale.




