Google, Microsoft dhe Open AI kanë formuar një grup për të rregulluar inteligjencën artificiale

Google, Microsoft dhe Open AI kanë formuar një grup për të rregulluar inteligjencën artificiale

Katër nga kompanitë më me ndikim në fushën e inteligjencës artificiale kanë formuar një grup industrie për të mbikëqyrur zhvillimin e sigurt të modeleve më të avancuara të inteligjencës artificiale.

Organizata “Frontier Model Forum” formoi kompaninë “Open AI”, e cila zhvilloi chatbotin ChatGPT, më pas “Microsoft”, “Google”, pronar i kompanisë së inteligjencës artificiale “Deep Mind” me qendër në Mbretërinë e Bashkuar dhe kompania “Anthropic. “.

Përfaqësuesit e këtij grupi thonë se fokusi do të jetë në zhvillimin e sigurt dhe të përgjegjshëm të modeleve më të avancuara të inteligjencës artificiale, ndërsa do të mendohet edhe për teknologjinë e ardhshme të bazuar në inteligjencën artificiale që do të jetë shumë më e avancuar se mjetet e disponueshme aktualisht, shkruan Guardian. .

“Kompanitë që zhvillojnë teknologjinë e bazuar në AI janë përgjegjëse për krijimin e një produkti të sigurt që duhet të mbetet nën kontrollin e njeriut”, tha Brad Smith, president i Microsoft.

Ai shton se kjo nismë është një hap kyç për afrimin e sektorit të teknologjisë në fushën e zhvillimit të përgjegjshëm të inteligjencës artificiale në një mënyrë që do të përfitojë mbarë njerëzimin.

Anëtarët e forumit deklarojnë se qëllimet e tyre kryesore janë të promovojnë kërkimin e sigurisë së AI, të tilla si zhvillimi i standardeve për vlerësimin e modeleve; inkurajimi i aplikimit të përgjegjshëm të modeleve të avancuara të bazuara në inteligjencën artificiale; diskutimi i rreziqeve të sigurisë dhe besimit në inteligjencën artificiale me politikanët dhe ekspertët; mbështetjen e zhvillimit të përdorimeve pozitive të inteligjencës artificiale si lufta kundër krizës klimatike dhe zbulimi i hershëm i kancerit.

Ata shtojnë se anëtarësimi në grup është i hapur për organizatat që zhvillojnë modele kufitare, të cilat përkufizohen si “modele të mëdha të mësimit të makinerive që tejkalojnë aftësitë e pranishme aktualisht në modelet ekzistuese më të avancuara dhe mund të kryejnë një gamë të gjerë detyrash”.

Njoftimi për formimin e këtij grupi vjen në një kohë kur rregullimi i teknologjisë po përshpejtohet. Të premten, kompanitë e teknologjisë – përfshirë anëtarët e grupit Frontier Model Forum – ranë dakord për masa të reja mbrojtëse në lidhje me inteligjencën artificiale pas një takimi me Joseph Biden në Shtëpinë e Bardhë.

Angazhimet e miratuara në takim përfshijnë raportimin e përmbajtjes së prodhuar nga mjetet e bazuara në AI për të dalluar më lehtë materialet mashtruese (të tilla si të ashtuquajturat falsifikime të thella) dhe lejimin e ekspertëve të pavarur të testojnë modelet e AI.

Njoftimi i Shtëpisë së Bardhë u prit me skepticizëm nga disa aktivistë të cilët thonë se industria e teknologjisë është e njohur për shkeljen e vetërregullimit. Njoftimi i Metës javën e kaluar se do të lëshonte një model të AI u përshkrua nga një ekspert si “duke u dhënë njerëzve një plan për të bërë një bombë bërthamore”.

Grupi Frontier Model Forum thekson se “kontribute të rëndësishme” për sigurinë janë dhënë nga organe të tilla si qeveria e Mbretërisë së Bashkuar, e cila mblodhi një samit global për sigurinë e AI dhe BE, e cila po prezanton një projektligj për AI që është legjislativi më serioz. përpjekje për të rregulluar aktualisht teknologjinë me rritje më të shpejtë.

LEXO EDHE:

Back to top button