Botët e intelegjencës artificiale po gëlltisin Wikipedia dhe po prishin serverët

Botët e intelegjencës artificiale po gëlltisin Wikipedia dhe po prishin serverët

Fondacioni Wikimedia njoftoi se nxjerrja agresive e të dhënave nga inteligjenca artificiale po krijon presion të madh në serverët e Wikipedia-s, duke rritur trafikun e internetit me 50 për qind deri në janar 2024.

Robotët e automatizuar që kërkojnë të dhëna për të trajnuar modelet e gjuhës AI shkarkojnë terabajt përmbajtje, gjë që rëndon ndjeshëm sistemin e serverëve. Fondacioni pret jo vetëm Wikipedia, por edhe platforma të tjera si Wikimedia Commons, e cila ofron 144 milionë skedarë mediash me një licencë të hapur. Për dekada, kjo përmbajtje ka shërbyer si burim rezultatesh për gjithçka, nga kërkimet në internet deri te projektet shkollore. Por që nga fillimi i vitit 2024, kompanitë e inteligjencës artificiale kanë rritur në mënyrë dramatike nxjerrjen e automatizuar të të dhënave përmes kërkimeve të drejtpërdrejta dhe shkarkimeve me shumicë për të “ushqyer” modelet e tyre gjithnjë e më të uritura.

Ky problem nuk është vetëm teorik. Fondacioni thotë se kur ish-presidenti amerikan Jimmy Carter vdiq në dhjetor 2024, faqja e tij në Wikipedia pati miliona vizita. Por tendosja e vërtetë erdhi kur përdoruesit filluan njëkohësisht të transmetonin një video 90-minutëshe të një debati të vitit 1980 të postuar në Wikimedia Commons. Rritja e papritur dyfishoi trafikun e zakonshëm të internetit të Wikimedia-s, duke mbingarkuar përkohësisht disa nga lidhjet e saj të internetit. Inxhinierëve të Wikimedia-s iu desh të ridrejtonin menjëherë trafikun për të reduktuar ngecjen, por ngjarja zbuloi një problem më të thellë: gjerësia e brezit themelor ishte konsumuar tashmë nga robotët që shkarkonin media në një shkallë masive.

Të dhënat e brendshme të Wikimedia zbulojnë pse ky lloj trafiku është kaq i shtrenjtë për projektet e hapura. Ndryshe nga njerëzit, të cilët zakonisht lexojnë artikuj të njohur dhe të ruajtur shpesh në memorie, robotët kërkojnë faqe të fshehura dhe të vizituara rrallë, duke i detyruar serverët t’i ngarkojnë ato drejtpërdrejt. Sistemet e memorizimit, të cilat janë krijuar rreth sjelljes së parashikueshme njerëzore, nuk funksionojnë kur robotët lexojnë të gjithë arkivin.

Si rezultat, Wikimedia zbuloi se robotët përbëjnë 65 për qind të kërkesave më të shtrenjta për infrastrukturën bazë, edhe pse ato përbëjnë vetëm 35 për qind të numrit total të shikimeve të faqeve.

Situata përkeqësohet më tej nga fakti se shumë nga të ashtuquajturat robotë të fokusuar në AI nuk ndjekin rregullat standarde. Disa e injorojnë skedarin robots.txt, të tjerë pozojnë në mënyrë të rreme si përdorues të rregullt, e kështu me radhë.

LEXO EDHE:

Back to top button