Ekspertët duan që inteligjenca artificiale të rregullohet si energjia bërthamore
Rreziku i paraqitur nga inteligjenca artificiale (AI) është i njëjtë me rreziqet ekzistenciale dhe të sigurisë të ardhjes së epokës bërthamore, kanë paralajmëruar studiuesit e AI dhe po bëjnë thirrje që AI t'i nënshtrohet legjislacionit të ngjashëm si energjia bërthamore. Por ka probleme.
Sam Altman, CEO i OpenAI, bëri thirrje për krijimin e një agjencie federale që mund të japë licenca për të krijuar modele të inteligjencës artificiale mbi një prag të caktuar aftësie. Kjo, shpjegon Time, është e ngjashme me mënyrën se si operatorët e centraleve bërthamore duhet të licencohen nga rregullatori bërthamor dhe si pjesë e kushteve të licencës, operatorët bërthamorë duhet të ndjekin udhëzimet rregullatore të sigurisë dhe një detyrim ligjor për të reduktuar rreziqet aq sa është e arsyeshme. .
Nga ana tjetër, Altman kritikoi ligjin e BE-së për AI si “të mbirregulluar” dhe tha se OpenAI i tij nuk ishte një kompani me rrezik të lartë.
Në këtë mënyrë, sipas revistës, paraqiten dy mesazhe kontradiktore. Njëra është se e ardhmja e aftësive të AI paraqet një rrezik kaq të rëndësishëm saqë kërkohet një skemë ekskluzive e licencave rregullatore të nivelit bërthamor. Nga ana tjetër, sistemet ekzistuese nuk kërkojnë asnjë rregullim, pavarësisht dëmeve të dokumentuara mirë që konsiderohen të parëndësishme. Dhe këtu prishen analogjitë e sigurisë bërthamore.
Inxhinieria e sigurisë, disiplina që garanton sigurinë e sistemeve bërthamore, është ndërtuar mbi premisën se dështimet ose sjelljet e gabuara të sistemit, sado të vogla qofshin, mund të çojnë në ngjarje katastrofike. Konsideroni se të gjithë komponentët e sistemit bërthamor, qoftë uranium apo plutonium, hardueri dhe softueri, deri në beton, rregullohen individualisht dhe në mënyrë rigoroze. Këta elementë individualisht nuk paraqesin kërcënim për katastrofë bërthamore, por në orkestrim çojnë në shfaqjen e një reaksioni të kontrolluar të ndarjes bërthamore. Në të kundërt, dështimet në orkestrimin e lartpërmendur mund të kalojnë në ngjarje katastrofike ose të rrezikshme.
Paaftësia jonë për të parandaluar dëmet e vazhdueshme nga AI, si diskriminimi algoritmik, dezinformimi dhe sulmet kibernetike, shoqëruar me mungesën e aftësive teknike dhe menaxheriale për të kontrolluar ose matur mekanizmat e AI që shkaktojnë këto dëme, do të thotë që ne thjesht nuk kemi dhe nuk do të ketë bazë teknike për t’u marrë me rreziqet në shkallë më të gjerë që hipotetikisht mund të shkaktojë inteligjenca artificiale. Dhe ky është një kërcënim serioz ekzistencial, përfundon “Time”.