Kreu i OpenAI habiti me pranimin: “Ne nuk e dimë se si funksionon e gjithë puna…”

Për shumë njerëz, inteligjenca artificiale është ende një e panjohur e madhe. Megjithëse mjetet e inteligjencës artificiale përdoren gjithnjë e më shumë dhe prezantohen si diçka që do të ndryshojë mënyrën se si ne punojmë dhe jetojmë, njerëzit janë ende skeptikë. Pjesërisht sepse AI është diçka që ata nuk mund ta shohin dhe prekin, dhe pjesërisht sepse thjesht nuk e dinë se për çfarë të përdorin mjete të tilla dhe si funksionon e gjithë kjo.

Megjithatë duket se nuk janë të vetmit në këtë mënyrë të menduari. Duke marrë pjesë në Samitin e AI për Good Global në Gjenevë, kreu i OpenAI Sam Altman, e njëjta kompani që filloi të gjithë maninë e inteligjencës artificiale, zbuloi disa fakte interesante rreth chatbot-it të tyre të njohur ChatGPT.

Kur u pyet se cila ishte gjëja e parë e madhe dhe e mirë që solli në botë inteligjenca artificiale, Altman vuri në dukje punën më të shpejtë dhe më efikase. Megjithatë, ai gjithashtu theksoi se gjëja kryesore negative që është rezultat i përdorimit të inteligjencës artificiale në botë është para së gjithash siguria kibernetike e shqetësuar, por shtoi gjithashtu se nga ana tjetër inteligjenca artificiale do të ndihmojë edhe në forcimin kibernetik. sigurinë.

Një nga problemet kryesore që lind në zhvillimin e inteligjencës artificiale është burimi i të dhënave mbi bazën e të cilave zhvillohen mjetet e inteligjencës artificiale. Për një kohë të gjatë është folur se si rrjedhin të dhënat, dhe fakti është se në internet ka gjithnjë e më shumë të ashtuquajturat. të dhënat sintetike, të cilat u krijuan me ndihmën e inteligjencës artificiale, dhe trajnimi i inteligjencës artificiale bazuar në këto të dhëna mund të çojë në probleme në të ardhmen.

Mendoj se nevojiten të dhëna cilësore. Ka të dhëna të këqija që krijohen në mënyrë sintetike, por ka edhe të dhëna të këqija që krijohen nga njerëzit. Dhe për sa kohë që ne mund të gjejmë të dhëna të mjaftueshme me cilësi të lartë për të trajnuar modelet tona, nuk duhet të ketë asnjë problem, vuri në dukje Altman.

Është kjo çështje e trajnimit të AI që ka çuar në një debat rreth mënyrës se si funksionon vetë AI.

Ndër të tjera, ai pranoi se kompania ende nuk e di se si funksionojnë modelet e saj të mëdha gjuhësore. Gjegjësisht, aktualisht aftësitë e modelit të AI janë të kufizuara në nivelin e ndërfaqes së përdorur për të komunikuar me përdoruesit. Por qëllimi është të krijohen modele të tilla që mund t’i mësojnë njerëzit për kiminë, por jo se si të bëjnë armë kimike. Kjo është pjesa që AI nuk e kupton dhe njerëzit, pranon Altman, nuk e dinë se si funksionon AI “prapa skenave” ose si ta zgjidhin atë problem.

Ne nuk e kemi zgjidhur ende interpretueshmërinë, vuri në dukje Altman, duke sugjeruar që kompania duhet të kuptojë ende se si të gjurmojë se si po performojnë modelet e saj të AI. Pas testimit të mëtejshëm nëse duhet të lëshojnë modele të reja dhe më të fuqishme, tha ai, këto sisteme përgjithësisht konsiderohen të sigurta dhe të fuqishme.

Altman shtoi se ata nuk e kuptojnë se çfarë po ndodh në trurin tuaj në një nivel neuron pas neuroni dhe ata ndjekin disa rregulla standarde për të kuptuar se si mendja e njeriut do të dëshironte të shpjegonte një pyetje të veçantë.

Është pranimi se edhe kompania që ka zhvilluar ChatGPT nuk e di se si funksionon AI në prapaskenë, gjë që shqetëson më shumë ekspertë të cilët po bëjnë thirrje për investime më të mëdha në sigurinë e AI.

Megjithatë, Altman beson se siguria do të evoluojë me zhvillimin dhe kuptimin e mëtejshëm të inteligjencës artificiale.

“Më duket se sa më shumë të kuptojmë se çfarë po ndodh në këto modele, aq më mirë,” vuri në dukje Altman.

LEXO EDHE:

Back to top button