Springer Nature, i cili boton mijëra revista shkencore, thotë se nuk ka asnjë problem me AI që përdoret për të ndihmuar në shkrimin e kërkimit – për sa kohë që përdorimi i tij zbulohet siç duhet.
Springer Nature, botuesi më i madh akademik në botë, ka sqaruar politikat e tij për përdorimin e mjeteve të shkrimit të AI në punimet shkencore. Kompania njoftoi këtë javë se softueri si ChatGPT nuk mund të vlerësohet si autor në letrat e botuara në mijëra revistat e saj. Megjithatë, Springer thotë se nuk ka asnjë problem me shkencëtarët që përdorin AI për të ndihmuar në shkrimin ose gjenerimin e ideve për kërkime, për sa kohë që ky kontribut zbulohet siç duhet nga autorët.
“Ne u ndjemë të detyruar të sqaronim pozicionin tonë: për autorët tanë, për redaktorët tanë dhe për veten tonë,” thotë Magdalena Skipper, kryeredaktore e botimit kryesor të Springer Nature, Nature, për The Verge. “Kjo gjeneratë e re e mjeteve LLM – përfshirë ChatGPT – ka shpërthyer me të vërtetë në komunitet, i cili me të drejtë është i emocionuar dhe duke luajtur me to, por [gjithashtu] duke i përdorur ato në mënyra që shkojnë përtej mënyrës se si ato mund të përdoren realisht aktualisht.”
ChatGPT dhe modelet e mëparshme të gjuhëve të mëdha (LLM) tashmë janë emëruar si autorë në një numër të vogël punimesh të botuara, printime paraprake dhe artikuj shkencorë. Megjithatë, natyra dhe shkalla e kontributit të këtyre mjeteve ndryshon rast pas rasti.
Në një artikull opinioni të botuar në revistën Oncoscience, ChatGPT përdoret për të argumentuar marrjen e një ilaçi të caktuar në kontekstin e bastit të Pascal, me tekstin e krijuar nga AI të etiketuar qartë. Por në një dokument paraprintimi që shqyrton aftësinë e robotit për të kaluar Provimin e Licencimit Mjekësor të Shteteve të Bashkuara (USMLE), e vetmja njohje e kontributit të robotit është një fjali që thotë se programi “kontribuoi në shkrimin e disa seksioneve të këtij dorëshkrimi”.
CEO i kompanisë që financoi kërkimin, startup-i i kujdesit shëndetësor Ansible Health, argumentoi se roboti dha një kontribut të rëndësishëm. “Arsyeja pse e renditëm [ChatGPT] si autor ishte sepse besojmë se në të vërtetë kontribuoi intelektualisht në përmbajtjen e punimit dhe jo vetëm si një temë për vlerësimin e tij”, tha për Futurism CEO i Ansible Health, Jack Po.
Reagimet në komunitetin shkencor ndaj punimeve që vlerësojnë ChatGPT si autor kanë qenë kryesisht negative, me përdoruesit e mediave sociale që e quajtën vendimin në rastin USMLE “absurd”, “budalla” dhe “thellësisht budalla”.
Argumentet kundër dhënies së autorësisë së AI është se softueri thjesht nuk mund të përmbushë detyrat e kërkuara, siç shpjegojnë Skipper dhe Nature Springer. “Kur mendojmë për autorësinë e punimeve shkencore, të punimeve kërkimore, ne nuk mendojmë vetëm për t’i shkruar ato,” thotë Skipper. “Ka përgjegjësi që shtrihen përtej publikimit, dhe sigurisht për momentin këto mjete të AI nuk janë në gjendje t’i marrin ato përgjegjësi.”
Softueri nuk mund të jetë kuptimplotë përgjegjës për një botim, ai nuk mund të pretendojë të drejta të pronësisë intelektuale për punën e tij dhe nuk mund të korrespondojë me shkencëtarët e tjerë dhe me shtypin për të shpjeguar dhe për t’iu përgjigjur pyetjeve mbi punën e tij.
Megjithatë, nëse ka konsensus të gjerë për kreditimin e AI si autor, ka më pak qartësi për përdorimin e mjeteve të AI për të shkruar një punim, madje edhe me njohjen e duhur. Kjo është pjesërisht për shkak të problemeve të mirë-dokumentuara me prodhimin e këtyre mjeteve. Softueri i shkrimit të inteligjencës artificiale mund të përforcojë paragjykimet sociale si seksizmi dhe racizmi dhe ka një tendencë për të prodhuar “marrëzi të besueshme” – informacione të pasakta të paraqitura si fakte.
Është për shkak të çështjeve si këto që disa organizata kanë ndaluar ChatGPT, duke përfshirë shkollat, kolegjet dhe faqet që varen nga shkëmbimi i informacionit të besueshëm, si programimi i depove të pyetjeve dhe përgjigjeve StackOverflow. Në fillim të këtij muaji, një konferencë e lartë akademike mbi mësimin e makinerive ndaloi përdorimin e të gjitha mjeteve të AI për të shkruar punime, megjithëse tha se autorët mund të përdornin një softuer të tillë për të “lustruar” dhe “redaktuar” punën e tyre. Pikërisht aty ku vihet kufiri midis shkrimit dhe redaktimit është i ndërlikuar, por për Nature Springer, ky rast përdorimi është gjithashtu i pranueshëm.
“Politika jonë është mjaft e qartë për këtë: ne nuk e ndalojmë përdorimin e tyre si një mjet për të shkruar një letër,” thotë Skipper për The Verge. “Ajo që është thelbësore është se ka qartësi. Rreth asaj se si një letër bashkohet dhe çfarë [softuer] përdoret. Ne kemi nevojë për transparencë, pasi ajo qëndron në thelbin e mënyrës sesi duhet bërë dhe komunikuar shkenca.”
Kjo është veçanërisht e rëndësishme duke pasur parasysh gamën e gjerë të aplikacioneve për të cilat mund të përdoret AI. Mjetet e inteligjencës artificiale jo vetëm që mund të gjenerojnë dhe parafrazojnë tekstin, por mund të përsërisin dizajnin e eksperimentit ose të përdoren për të hedhur poshtë idetë, si një partner laboratori makinerie. Softueri i fuqizuar nga AI si Semantic Scholar mund të përdoret për të kërkuar punime kërkimore dhe për të përmbledhur përmbajtjen e tyre, dhe Skipper vëren se një mundësi tjetër është përdorimi i mjeteve të shkrimit të AI për të ndihmuar studiuesit për të cilët anglishtja nuk është gjuha e tyre e parë. “Mund të jetë një mjet rrafshimi nga ky këndvështrim,” thotë ajo.
Skipper thotë se ndalimi i mjeteve të AI në punën shkencore do të ishte i paefektshëm. “Unë mendoj se mund të themi me siguri se ndalimet e drejtpërdrejta të çdo gjëje nuk funksionojnë,” thotë ajo. Në vend të kësaj, thotë ajo, komuniteti shkencor – duke përfshirë studiuesit, botuesit dhe organizatorët e konferencave – duhet të bashkohen për të hartuar norma të reja për zbulimin dhe parmakët për sigurinë.
“Është detyrë për ne si komunitet të përqendrohemi në përdorimet pozitive dhe potencialin, dhe më pas të rregullojmë dhe frenojmë keqpërdorimet e mundshme,” thotë Skipper. “Unë jam optimist se ne mund ta bëjmë atë.”




