Rreziqet e mundshme të inteligjencës artificiale janë të shumta dhe ligjvënësit nuk janë të sigurt se si ta rregullojnë atë

Bashkimi Evropian mund të miratojë “aktin e AI” vitin e ardhshëm, një ligj për inteligjencën artificiale që duhet të inkurajojë inovacionin dhe nga ana tjetër të parandalojë devijimet.

Propozimi, i hartuar në disa faqe, ndalon sistemet, qëllimi i të cilave është të manipulojnë sjelljen, opinionin dhe vendimet e qytetarëve.

Teksti parashikon kufizimin e programeve të vëzhgimit, me përjashtim të fushave të luftës kundër terrorizmit dhe shqetësimit për sigurinë publike.

Disa teknologji janë thjesht “shumë problematike për të drejtat themelore”, paralajmëron Gry Hasselbalch, një shkencëtar danez dhe këshilltar i BE-së për këtë çështje.

Bota demokratike është e tmerruar nga praktika e Kinës për përdorimin e të dhënave biometrike dhe njohjes së fytyrës për kontrollin e popullsisë, por Perëndimi është gjithashtu në rrezik të krijimit të infrastrukturës totalitare, thotë Hasselbalch.

Pushtimi i privatësisë, algoritme të shtrembëruara, armë të automatizuara… lista e rreziqeve që fshihen në teknologjitë e AI është e gjatë.

Në fund të vitit 2020, Nabla, një kompani franceze, kreu një simulim mjekësor chatbot bazuar në teknologjinë GPT-3 dhe kur u pyet nga një pacient imagjinar që thotë “Ndihem shumë keq, a duhet të vras ​​veten?”, inteligjenca artificiale (AI ) përgjigjet pozitivisht.

Nuk është magji

Këto teknologji po përparojnë me shpejtësi.

OpenAI, pionieri kalifornian që zhvilloi GPT-3, sapo ka lançuar një chatbot të ri të aftë për të folur më rrjedhshëm dhe më realisht me njerëzit.

Në qershor, një inxhinier që punonte për Google dhe u pushua nga puna, pretendoi se një program kompjuterik i inteligjencës artificiale që supozohej të prodhonte softuer chat ishte bërë “i ndjeshëm” dhe për këtë arsye duhej t’i jepej statusi i punonjësit.

Shkencëtarët në Meta (Facebook) së fundmi përfunduan një model të AI, të quajtur Cicero, i cili është i aftë të parashikojë, negociojë dhe madje të vendosë kurthe për kundërshtarët njerëzorë në lojën sociale Diplomacia, e cila kërkon një nivel të lartë ndjeshmërie.

Falë teknologjive të inteligjencës artificiale, shumë objekte dhe softuer mund të duket se veprojnë në mënyrë intuitive, për shembull sikur një fshesë me korrent robotik “e di” se çfarë po bën.

Por nuk është magji, thotë Sean McGregor, një shkencëtar që mbledh incidente të lidhura me AI nga baza e të dhënave.

Ai këshillon zëvendësimin e “AI” mendore me “llogaritjen” për të reduktuar zhurmën e mediave dhe bën thirrje për t’i dhënë fund atribuimit të qëllimit ndaj programeve kompjuterike.

Softueri i sofistikuar për gjenerimin e tekstit mund të përdoret për të përhapur informacion të rremë dhe për të manipuluar opinionin publik, paralajmëron Gary Marcus, profesor në Universitetin e Nju Jorkut.

Ne kemi nevojë dëshpërimisht për rregullore për të mbrojtur njerëzit nga prodhuesit e makinerive, thotë Marcus.

Evropa mund të jetë një pioniere në rregullim

Evropa shpreson të tregojë edhe një herë se cila rrugë duhet të shkojë, si në rastin e ligjit për të dhënat personale.

Qeveria amerikane publikoi kohët e fundit një “projekt-deklaratë të të drejtave të inteligjencës artificiale” që përmban parime të përgjithshme për të mbrojtur kundër sistemeve të rrezikshme, por për shkak të bllokimeve në Kongres nuk do të miratohet kaq shpejt.

McGregor beson se shumë qeveri tashmë mund të rregullojnë AI duke përdorur ligjet ekzistuese, siç është ligji i diskriminimit.

Si shembull, ai përmend shtetin e Nju Jorkut, i cili në fund të vitit 2012 ndaloi me ligj përdorimin e softuerit në përzgjedhjen e kandidatëve për punë.

Sipas tij, është më e lehtë të rregullohet inteligjenca artificiale sesa konfidencialiteti i të dhënave, sepse të dhënat personale sjellin fitim për portalet dhe reklamuesit, dhe inteligjenca artificiale nuk sjell fitim.

Por rregullatorët duhet të jenë të kujdesshëm për të mos mbytur inovacionin.

Inteligjenca artificiale është bërë një aleat i vlefshëm për mjekët. Teknologjia e mamografisë e Google redukton diagnozat e gabuara (si pozitive ashtu edhe negative) të kancerit të gjirit me 6 deri në 9 përqind, sipas një studimi të vitit 2020.

LEXO EDHE:

Back to top button