Fondacioni Wikimedia, organizata jofitimprurëse që menaxhon Wikipedia-n, po diskuton mundësinë e përdorimit të modeleve të inteligjencës artificiale për të gjeneruar përmbajtje në platformë. Gjatë diskutimeve të javëve të fundit, vihet re një mungesë dakordësie në komunitet mbi përdorimin ose jo të modeleve të tilla. Disa vullnetarë janë shprehur se mjete si ChatGPT mund të ndihmojnë në gjenerimin dhe përmbledhjen e artikujve, ndërsa të tjerët mbeten skeptikë.
Shqetësimi është se përmbajtja e krijuar nga AI do t’i mbingarkonte faqet më pak të njohura me përmbajtje jo të sakta, dhe rreziku kryesor për Wikipedia është se njerëzit mund të dëmtojnë cilësinë e faqes duke hedhur informacione të paverifikuara. Fondacioni Wikimedia po synon ndërtimin e mjeteve për ta bërë më të lehtë për vullnetarët të identifikojnë përmbajtjen e krijuar nga bot-e. Ndërkohë, Wikipedia po punon për të hartuar një politikë që përcakton kufijtë se si vullnetarët mund të përdorin modele AI për të krijuar përmbajtje në website.
Një sugjerim i mundshëm është ideja e përdorimit të BLOOM, një model AI i publikuar vitin e kaluar nën “Licensën e Përgjegjshme AI” (RAIL) që “kombinon një qasje të hapur për licencimin, me kufizimet e sjelljes që duhet të zbatojë përdorimi në mënyrë të përgjegjshme i AI”. Kjo do të mundësonte përdorimin fleksibël të modeleve AI, duke vendosur gjithashtu disa kufizime. Megjithatë, ekziston ende shqetësimi se grumbullimi i pakufizuar i të dhënave në internet i lejon kompanitë e AI të shfrytëzojnë web-in e hapur për të krijuar baza të dhënash komerciale për modelet e tyre.
Mariana Fossatti, një koordinatore e Whose Knowledge?, një fushatë globale e përqendruar në mundësimin e aksesit në informacione në internet në të gjithë vendndodhjet dhe gjuhët lokale, thotë se modelet e AI dhe Wikipedia, të kombinuara së bashku, do të sillnin shumë problematika për disponueshmërinë e informacionit online. “Ne kemi këtë sasi të madhe informacioni në më shumë se 300 gjuhë,” tha Fossatti për Motherboard. “Por sigurisht që këto 300 gjuhë të ndryshme janë gjithashtu shumë të pabarabarta. Wikipedia në anglisht është shumë më e pasur në përmbajtje se të tjerat, dhe ne po ushqejmë sistemet e AI me këtë grup njohurish.”
Draft-politika përfshin një pikë që shpreh se verifikimi i tekstit është i nevojshëm për përmbajtjen e krijuar nga AI. Fondacioni Wikimedia tha se AI përfaqëson një mundësi për të ndihmuar në shkallëzimin e punës së vullnetarëve në projektet e Wikipedia dhe Wikimedia, dhe se po shqyrton se si këto modele mund të jenë në gjendje të ndihmojnë në mbylljen e boshllëqeve të njohurive, dhe të rrisin aksesin dhe pjesëmarrjen në informacion. Megjithatë, angazhimi njerëzor mbetet blloku më thelbësor i ndërtimit të ekosistemit të njohurive Wikimedia. AI funksionon më së miri si një shtesë për punën që njerëzit bëjnë në këtë organizatë.
Sipas Amy Bruckman, profesoreshë dhe kryetare e shkollës së informatikës interaktive në Institutin e Teknologjisë në Georgia, modelet AI janë po aq të mira sa aftësia e tyre për të dalluar të vërtetën nga trillimi. Bruckman sugjeron përdorimin e modeleve të AI, por është i rëndësishëm redaktimi i tyre dhe kontrollimi i burimeve. Shqetësimi me përmbajtjen e krijuar nga AI është se ai është i prirur të përfshijë informacione të gabuara, dhe madje të citojë burime dhe punime akademike që nuk ekzistojnë, gjë që rezulton në përmbledhje tekstesh që duken të sakta, por më vonë zbulohen se janë të fabrikuara. Bruckman nuk i sheh disa nga problemet që vijnë me modelet e AI më të ndryshme se përpjekjet e qëllimshme për të redaktuar faqet e Wikipedia. “Unë nuk mendoj se është aq i ndryshëm nga lufta kundër vandalizmit,” shtoi Bruckman. “Ne kemi strategji për ta luftuar atë. Mendoj se përmbajtja e pashqyrtuar e krijuar nga AI është një formë vandalizmi, dhe ne mund të përdorim të njëjtat teknika që përdorim për luftimin e vandalizmit në Wikipedia, për të luftuar informacionet jo të sakta që vijnë nga AI.”




