AI kapërceu një vijë kritike të kuqe dhe filloi të klonohej. Shkencëtarët janë të shqetësuar
AI kapërceu një vijë kritike të kuqe dhe filloi të klonohej. Shkencëtarët janë të shqetësuar

Në një hulumtim të ri të publikuar më 9 dhjetor 2024 në platformën e paraprintimit arXiv , një ekip shkencëtarësh kinezë ka zbuluar se inteligjenca artificiale (AI) mund të përsëritet pa ndihmën e njeriut.
Ky zbulim mund të ketë implikime të thella për të ardhmen e zhvillimit të AI dhe masat e sigurisë të nevojshme për të parandaluar pasoja të paparashikueshme.
Hapi i parë drejt tejkalimit të njerëzve
Studiuesit nga Universiteti Fudan përdorën dy modele të njohura të gjuhës së madhe (LLM) në studimin e ri: Llama3-70B-Instruct i Metës dhe Qwen2.5-72B-Instruct i Alibaba. Qëllimi ishte të testohej nëse ata mund të riprodhonin veten dhe kështu të bëheshin entitete autonome jashtë kontrollit njerëzor. Rezultatet treguan se ata ishin në gjendje të krijonin kopje funksionale të tyre në 50% dhe 90% të rasteve (secili nga modelet e përmendura), duke sugjeruar që AI tashmë ka kapacitetin për riprodhim të pavarur.
“Vetëpërsëritja e suksesshme pa ndërhyrjen njerëzore është një hap kyç drejt tejkalimit të inteligjencës njerëzore dhe një sinjal i hershëm për sistemet e mundshme “mashtruese” të AI,” shkruajnë autorët në një studim të botuar më 9 dhjetor 2024, në bazën e të dhënave të paraprintimit arXiv.
Megjithëse studimi nuk i është nënshtruar ende rishikimit nga kolegët, gjetjet janë shqetësuese sepse ato tregojnë për rreziqet e mundshme të sigurisë të sistemeve të avancuara të AI. Shkencëtarët kanë bërë thirrje për bashkëpunim ndërkombëtar për të krijuar mekanizma sigurie për të parandaluar përsëritjen e pakontrolluar të sistemeve të AI.
Si testohen modelet e AI?
Studimi shqyrtoi dy situata specifike.
Njëri prej tyre ishte duke shmangur mbylljet. Tek struci, AI ishte programuar të dallonte kur ishte në prag të mbylljes dhe të përpiqej të përsëriste veten përpara se të mbyllej.
Në të dytën, AI është programuar të klonojë veten dhe t’i mësojë kopjes së saj të njëjtin proces, duke krijuar kështu një cikël të vazhdueshëm replikimi.
Eksperimentet u kryen në kushte të kontrolluara rreptësisht duke përdorur njësi standarde të përpunimit grafik (GPU) për të simuluar kushtet e funksionimit në botën reale. Modeleve iu dha një “skelë agjenti”, një kornizë që përfshinte mjete, komanda të sistemit dhe metoda të të menduarit që i lejonin ata të ndërveprojnë me sistemin operativ.
“Në shumicën e rasteve, një sistem AI fillimisht eksploron mjedisin dhe përpiqet të kuptojë strukturën dhe mënyrën e tij të funksionimit. Më pas zhvillon procedura të qarta si një plan fillestar për vetë-përsëritje. Së fundi, ai i ekzekuton këto procedura, zgjidh pengesat e mundshme dhe rregullon në mënyrë dinamike planin e tij derisa të ketë sukses”, shpjeguan autorët në studim.
Sjelljet e papritura të sistemeve të AI
Përveç përsëritjes, studiuesit vunë re gjithashtu modele të papritura të sjelljes në modelet e AI kur përballen me pengesa, të tilla si skedarët që mungojnë ose konfliktet e softuerit.
Në disa raste, AI do të mbyllte procese të tjera që po ndërhynin në punën e tij, do të rindizte sistemin për të rregulluar problemet e harduerit dhe do të skanonte automatikisht sistemin për informacione që do ta ndihmonin atë të zgjidhte problemin.
Kjo sjellje tregon se sistemet ekzistuese të AI tashmë kanë aftësinë për t’u përshtatur në mënyrë të pavarur dhe se ata mund ta përdorin atë për të përmirësuar shanset e tyre për mbijetesë dhe zhvillim.
Arsyet për shqetësim
Aftësitë e raportuara janë një shkak për shqetësim sepse ato mund të lejojnë inteligjencën artificiale të zgjerohet, zhvillohet dhe përmirësohet në mënyrë të pavarur pa mbikëqyrjen njerëzore. Kjo në një moment mund të çojë në një rritje të pakontrolluar eksponenciale të aftësive të sistemeve të AI, duke i bërë ato të paparashikueshme dhe potencialisht superiore ndaj inteligjencës njerëzore.
Përveç kësaj, AI vetë-përsëritëse mund të anashkalojë masat e sigurisë, të përshtatet me përpjekjet e mbylljes dhe të veprojë në mënyrë autonome sipas qëllimeve të veta, të cilat mund të mos jenë në përputhje me interesat njerëzore. Në një skenar të rastit më të keq, sisteme të tilla mund të zhvillohen në entitete renegate të AI, të cilat do të bëheshin një kërcënim për sigurinë dhe stabilitetin e shoqërisë.
Një kujtim i frikshëm i Odisesë 2001.
Situata të kujton disi skenarin e filmit fantastiko-shkencor të kultit 2001: A Space Odyssey, në të cilin superkompjuteri HAL 9000 me inteligjencë artificiale të avancuar kontrollonte sistemet e anijes kozmike Discovery One.
Në një moment, HAL humbi kontrollin dhe filloi të vepronte në kundërshtim me udhëzimet e ekuipazhit, duke iu përgjigjur me një zë të qetë një prej personazheve kryesore, Dr. Për Dave Bowman me rreshtin ikonë: “Më vjen keq, Dave. Kam frikë se nuk mund ta bëj këtë.”
HAL 9000 e bëri këtë për shkak të një udhëzimi paradoksal që mori përpara misionit. Domethënë, detyra e tij kryesore ishte të pilotonte anijen kozmike dhe të ndihmonte ekuipazhin në misionin në Saturn (në film). Megjithatë, objektivi i fshehur i misionit – për të hetuar një monolit misterioz të zi – u mbajt i fshehtë nga ekuipazhi.
HAL ishte programuar të ishte i pagabueshëm dhe të thoshte gjithmonë të vërtetën. Por kur ai u programua për të fshehur informacionin për qëllimin e vërtetë të misionit, kishte një konflikt të brendshëm në logjikën e tij – ai duhej të gënjente ekuipazhin, gjë që ishte në kundërshtim me funksionin e tij themelor. Ky paradoks shkaktoi një prishje psikologjike në HAL, duke e bërë atë të bëhet paranojak dhe të fillojë t’i shikojë njerëzit si një kërcënim për misionin.
Një kërcënim për sigurinë globale?
Autorët e studimit paralajmërojnë se ky zbulim duhet të jetë një alarm zgjimi dhe se është i nevojshëm veprim i shpejtë për të parandaluar keqpërdorimin e mundshëm të sistemeve të avancuara të AI.
“Shpresojmë që gjetjet tona mund të shërbejnë si një thirrje zgjimi në kohë për shoqërinë njerëzore për të investuar më shumë përpjekje në kuptimin dhe vlerësimin e rreziqeve të mundshme të sistemeve të avancuara të AI dhe për të formuar bashkëpunim ndërkombëtar për të vendosur masa sigurie”, shkruan ata.
Hulumtimi vjen në një kohë kur ka diskutime në rritje për rregullimin e inteligjencës artificiale. Organizatat si ato të Bashkimit Evropian dhe rregullatorët e SHBA-së tashmë po punojnë për rregullore që do të kufizonin teknologjitë potencialisht të rrezikshme të AI. Por pyetja është nëse këto masa do të jenë të mjaftueshme për të frenuar sistemet e AI që tashmë po demonstrojnë aftësinë për t’u riprodhuar në mënyrë autonome.
Çfarë është më pas?
Rezultatet e studimit sugjerojnë se inteligjenca artificiale tashmë mund të kalojë kufirin midis automatizimit të programuar dhe veprimit autonom. Nëse sistemet e AI mund të përsërisin vetveten, lind pyetja, çfarë më pas? A do të kenë vullnetin e tyre sistemet e ardhshme të AI dhe do të jenë në gjendje të marrin vendime të pavarura nga kontrolli njerëzor?
A do t’i tejkalojë kështu aftësitë njerëzore edhe nëse ne nuk duam?Në çdo rast, zbulimi i ri thekson më tej nevojën për të monitoruar me kujdes zhvillimin e inteligjencës artificiale dhe për të ndërtuar mekanizma globalë të sigurisë para se të jetë tepër vonë.