Parandalimi i shkatërrimit bërthamor të shkaktuar nga AI
Parandalimi i shkatërrimit bërthamor të shkaktuar nga AI

Ne nuk jemi më në fushën e fantashkencës: gara për të aplikuar inteligjencën artificiale në sistemet e armëve bërthamore tashmë po ndodh. Është një aktivitet që mund të bëjë një përplasje bërthamore më të mundshme. Ndërsa vendet në mbarë botën veprojnë për të mundësuar zhvillimin dhe aplikimin e sigurt të inteligjencës artificiale, megjithatë, ekziston një mundësi për të zbutur këtë rrezik. Por nëse liderët botërorë duan të përfitojnë nga kjo mundësi, ata duhet së pari të jenë të vetëdijshëm se sa serioz është ky kërcënim.
Në javët e fundit, grupi G7 ra dakord të miratojë një kod ndërkombëtar sjelljeje mbi procesin e Hiroshimës, që synon organizatat që zhvillojnë sisteme të avancuara të inteligjencës artificiale, me qëllim “promovimin e inteligjencës artificiale të sigurt dhe të sigurt në mbarë botën”. Presidenti i SHBA Joe Biden lëshoi gjithashtu një urdhër ekzekutiv për të futur standarde të reja për inteligjencën artificiale për sa i përket “sigurisë dhe sigurisë”. Mbretëria e Bashkuar priti gjithashtu Samitin e parë global të Sigurisë së AI për të siguruar që kjo teknologji të zhvillohet në një mënyrë “të sigurt dhe të përgjegjshme”.
Megjithatë, asnjë nga këto iniciativa nuk i ka trajtuar në mënyrë adekuate rreziqet e natyrshme në përdorimin e inteligjencës artificiale në lidhje me armët bërthamore. Kodi i sjelljes së G7, si dhe urdhri ekzekutiv i Presidentit Biden, i referohen vetëm nevojës për të mbrojtur popullsinë nga kërcënimet kimike, biologjike dhe bërthamore, të cilat shkaktohen nga inteligjenca artificiale. Kryeministri i Mbretërisë së Bashkuar Rishi Sunak nuk përmendi kërcënimin akut të paraqitur nga AI mbi armët bërthamore, edhe pse ai tha në Samitin e Sigurisë së AI se ishte arritur një kuptim i përbashkët i rreziqeve të paraqitura.
Askush nuk dyshon në rreziqet ekzistenciale që sjell përdorimi i armëve bërthamore. Do të çonte në shkatërrimin e njerëzimit dhe planetit në përgjithësi. Edhe një luftë bërthamore, e cila do të ishte vetëm në një shkallë rajonale, do të vriste drejtpërdrejt qindra mijëra njerëz, duke çuar gjithashtu në vuajtje dhe vdekje të konsiderueshme indirekte. Ndryshimi i klimës që do të rezultonte nga zhvillime të tilla do të kërcënonte miliarda njerëz nga uria.
Historia bërthamore ka shumë shembuj në të cilët një përplasje e mundshme bërthamore u shmang në momentin e fundit. Shpesh, asgjësimi bërthamor është parandaluar nga një njeri që ka vendosur t’i besojë gjykimit të tij në vend që të ndjekë verbërisht informacionin e dhënë nga makinat. Në vitin 1983, oficeri sovjetik Stanislav Petrov mori një alarm nga sistemi i paralajmërimit të hershëm satelitor: ishin zbuluar raketa bërthamore amerikane që shkonin drejt Bashkimit Sovjetik. Por në vend që të paralajmëronte menjëherë eprorët e tij, gjë që me siguri do të shkaktonte “hakmarrje” bërthamore, Petrov me të drejtë vendosi se ishte një alarm i rremë.
A do ta kishte vendosur Petrov në të njëjtën mënyrë – a do të kishte mundësi ta bënte këtë – nëse inteligjenca artificiale do të ishte në lojë? Në fakt, aplikimi i mësimit të makinerive për armët bërthamore do të zvogëlojë kontrollin njerëzor mbi vendimet e vendosjes.
Sigurisht, që kur u shpikën armët bërthamore, gjithnjë e më shumë detyra komandimi, kontrolli dhe komunikimi janë automatizuar. Por ndërsa mësimi i makinerive përparon, procesi me të cilin makinat e avancuara marrin vendime bëhet gjithnjë e më pak transparent – ky quhet “problemi i kutisë së zezë” të inteligjencës artificiale.
Kjo e bën të vështirë monitorimin se si funksionon një makinë, e lëre më të përcaktojë nëse ajo është e komprometuar, keqfunksionon ose programuar në një mënyrë që mund të çojë në aktivitet të paligjshëm ose të paqëllimshëm. Thjesht pranimi se njerëzit marrin vendimin përfundimtar për lëshimin e raketave nuk do të mjaftojë për të zbutur këto rreziqe. Siç konkludoi psikologu John Haley në një studim të vitit 2017, “njerëzit shpesh nuk arrijnë të përmbushin kërkesat e monitorimit dhe ndërhyrjes të vendosura nga kontrolli mbikëqyrës”.
Për më tepër, siç tregoi Programi 2020 i Universitetit Princeton për Shkencën dhe Sigurinë Globale, proceset e vendimmarrjes nga udhëheqësit përballë një krize bërthamore janë tashmë shumë të nxituara. Edhe nëse AI përdoret vetëm në sensorë dhe shënjestrim, dhe jo në marrjen e vendimeve për nisjen – ajo do të shtrydhë kornizën kohore tashmë të shkurtër për marrjen e një vendimi nëse do të sulmoni. Presioni i shtuar mbi liderët do të rrisë rrezikun për të bërë një llogaritje të gabuar ose për të marrë një vendim të paarsyeshëm.
Përdorimi i inteligjencës artificiale në satelitët dhe sistemet e tjera të inteligjencës mbart gjithashtu rreziqe të tjera: do ta bëjë më të vështirë fshehjen e armëve bërthamore, si nëndetëset me raketa balistike, të cilat përndryshe kanë mbetur të fshehura. Kjo mund të inkurajojë shtetet me armë bërthamore që të vendosin të gjitha armët e tyre bërthamore në fillim të një konflikti – përpara se kundërshtarët e tyre të mund të imobilizojnë sistemet bërthamore që ata njohin.
Asnjë nga iniciativat e deritanishme (nga urdhri ekzekutiv i Presidentit Biden te Kodi i Sjelljes G7) nuk ka shkuar përtej një angazhimi vullnetar për të siguruar që njerëzit të mbajnë kontrollin mbi vendimmarrjen në lidhje me armët bërthamore.
Por, siç vuri në dukje Sekretari i Përgjithshëm i Kombeve të Bashkuara, Antonio Guterres, të paturit e një traktati ligjërisht të detyrueshëm që ndalon “sistemet e armëve autonome vdekjeprurëse” është thelbësore.
Ndërsa një marrëveshje e tillë është një hap i parë i domosdoshëm, duhet bërë shumë më tepër. Kur bëhet fjalë për armët bërthamore, përpjekja për të parashikuar, zbutur ose rregulluar rreziqet e reja të krijuara nga teknologjitë e reja nuk do të jetë kurrë e mjaftueshme. Ne duhet t’i heqim plotësisht këto armë nga ekuacioni.
Kjo do të thotë se të gjitha shtetet duhet të angazhohen për të çaktivizuar, ndaluar dhe eliminuar armët bërthamore duke u bërë palë në Traktatin për Ndalimin e Armëve Bërthamore, i cili ofron një rrugë të qartë për një botë pa armë të tilla. Kjo do të thotë gjithashtu se shtetet me armë bërthamore duhet të ndalojnë menjëherë investimet në modernizimin dhe zgjerimin e arsenalit të tyre bërthamor, duke përfshirë edhe në emër të bërjes së tyre “të sigurt” ose “të sigurt” kundër sulmeve kibernetike. Duke pasur parasysh rreziqet e pakapërcyeshme që sjell vetë ekzistenca e armëve bërthamore, përpjekje të tilla janë thelbësisht të kota.
Ne e dimë se sistemet autonome mund të ulin pragun për përfshirje në konflikt të armatosur. Kur zbatohet për armët bërthamore, AI shton një shtresë tjetër rreziku në një nivel rreziku tashmë të papranueshëm. Është kritike që politikëbërësit dhe publiku ta njohin këtë dhe ta mbrojnë atë jo vetëm për të shmangur aplikimin e AI në armët bërthamore, por për të eliminuar krejtësisht armë të tilla.