Sa i sigurt është Chat GPT? Hulumtimet tregojnë një nivel shqetësues të dezinformimit

Sa i sigurt është Chat GPT? Hulumtimet tregojnë një nivel shqetësues të dezinformimit

Chatbot-et dhe modele të ngjashme të inteligjencës artificiale shpesh perceptohen si burime informacioni jashtëzakonisht inteligjente, por në të njëjtën kohë jo të besueshme.

Një studim i kohëve të fundit nga OpenAI, i botuar nga New York Times, hedh dritë mbi këtë kontradiktë. Konkretisht, OpenAI ka zbuluar se modelet e tyre më të fundit, duke përfshirë GPT-o3 dhe o4-mini, kanë një tendencë në rritje për të gjeneruar “halucinacione” – informacione të pasakta ose plotësisht të sajuara.

Modelet më të fundit kryesore të OpenAI, GPT o3 dhe o4‑mini, janë projektuar për të imituar logjikën njerëzore. Ndryshe nga paraardhësit e tij, të cilët përqendroheshin kryesisht në gjenerimin e tekstit të rrjedhshëm, GPT o3 dhe o4-mini supozohet të “mendojnë hap pas hapi”.

OpenAI mburrej se o3 mund të barazohej ose tejkalonte rezultatet e doktoraturës në kimi, biologji dhe matematikë. Por raporti i OpenAI zbulon të dhëna të frikshme për këdo që i merr përgjigjet e Chat GPT si të mirëqena, shkruan Index.hr.

OpenAI zbuloi se GPT o3 “halucinonte” në një të tretën e detyrave në testin e figurave publike – dy herë më shumë se modeli o1 i vitit të kaluar. O4-mini më kompakt ishte edhe më i keq, me halucinacione në 48% të detyrave të ngjashme.

-Derisa të zgjidhen këto probleme, shikojeni çdo përgjigje ndaj një modeli të inteligjencës artificiale me një dozë të madhe skepticizmi. “Ndonjëherë Chet GPT duket si një person i sigurt në vetvete që flet budallallëqe”, përfundon raporti.

LEXO EDHE:

Back to top button