Inteligjenca artificiale më e fuqishme ndonjëherë – DeepMind pranon se nuk e di se si do ta kontrollojë atë

Inteligjenca artificiale më e fuqishme ndonjëherë – DeepMind pranon se nuk e di se si do ta kontrollojë atë

Në një analizë prej 145 faqesh, Google DeepMind ekspozon rreziqet që rrjedhin nga zhvillimi i inteligjencës së përgjithshme artificiale (AGI), duke përfshirë mundësinë e “dëmve ekstreme” si rreziqe ekzistenciale që mund të shkatërrojnë përgjithmonë qytetërimin njerëzor.

Autorët e punimit, i cili përfshin bashkëthemeluesin e DeepMind, Shane Legg, nuk citojnë skenarë specifikë për një rezultat të tillë, por bëjnë thirrje për një debat shoqëror rreth pranueshmërisë së rrezikut dhe konceptit të dëmit, duke theksuar se nuk duhet të jetë vetëm në dorën e kompanive teknologjike ta përcaktojnë atë.

Dokumenti klasifikon rreziqet e inteligjencës artificiale të avancuar në katër kategori: keqpërdorim (përdorimi i qëllimshëm i AI për qëllime të dëmshme), mospërputhje (zhvillimi i sjelljes së padëshiruar dhe të dëmshme), gabime (defekte të papritura në dizajn ose trajnim) dhe rreziqe strukturore (konflikte interesi midis aktorëve të ndryshëm – shteteve, kompanive ose sistemeve të AI). Megjithëse DeepMind thekson rëndësinë e identifikimit të hershëm të aftësive të rrezikshme, dokumenti përmban gjithashtu kritika indirekte për qasjet e konkurrentëve, si Anthropic dhe OpenAI.

Megjithatë, gazeta nuk i bindi të gjithë ekspertët e sigurisë së AI. Anthony Aguirre i Institutit Future of Life e quajti përpjekjen “të lavdërueshme”, por paralajmëroi se ne jemi më afër krijimit të AGI sesa të kuptojmë se si ta kontrollojmë atë. Për më tepër, përkufizimi i paqartë i AGI paraqet një pengesë për vlerësimin shkencor, thonë kritikët si Heidi Hlaaf i Institutit AI Tani. Sipas saj, pa kufij të qartë se çfarë përbën AGI, është e vështirë të zhvillohet një strategji efektive sigurie.

Ndërsa DeepMind parashikon zhvillimin e mundshëm të AGI deri në vitin 2030, zërat e tjerë në sektor janë edhe më optimistë – ose alarmues. Anthropic parashikon që AI që tejkalon aftësitë njerëzore në “pothuajse gjithçka” mund të shfaqet brenda dy deri në tre vjet, ndërsa OpenAI beson se ne jemi tashmë në pragun e sistemeve që çojnë në AGI. Ndërkohë, ekspertë si profesori Gary Marcus mbeten skeptikë se metodat aktuale të AI – bazuar në modelet gjuhësore – mund të arrijnë vërtet inteligjencën e nivelit njerëzor, veçanërisht kur merret parasysh sensi i shëndoshë dhe mësimi nga disa shembuj.

Google, në përgjigjen e tij, thekson se qasja e tyre mund të zbatohet në përkufizime të shumta të AGI dhe se çështja qendrore nuk është përkufizimi, por më tepër vlerësimi i aftësive afatgjata dhe përballja me kërcënimet e mundshme. Kompania po kërkon konsensus ndërkombëtar për mënyrën më të mirë për të menaxhuar dhe rregulluar këtë teknologji, duke theksuar se siguria dhe modestia janë thelbësore kur zhvillohet një risi kaq e fuqishme.

LEXO EDHE:

Back to top button