Problemet e halucinacioneve: Kur “ChatGPT” shkruan marrëzi

Problemet e halucinacioneve: Kur "ChatGPT" shkruan marrëzi

Ka gjithnjë e më shumë njerëz që ankohen se “ChatGPT” është halucinacione dhe një grup studiuesish pohojnë se kanë të drejtë – roboti me të vërtetë po shkruan marrëzi.

Në një studim të botuar në revistën “Ethics and Information Technology”, një grup studiuesish nga Universiteti i Glasgow, ndër të tjera, thonë se “halucinacionet” nuk janë emërtimi i përshtatshëm për gabimet e bëra nga “ChatGPT”. Meqenëse halucinacionet janë çdo besim se ekziston diçka që nuk ekziston fare, përdorimi i kësaj fjale në përshkrimin e inteligjencës artificiale mund të jetë vetëm metaforik. “Halucination” nuk është emri i duhur për gabimet, kështu që studiuesit rekomandojnë një tjetër – “të shkruarit e pakuptimta”.

Është vënë në dukje se “shtypja e koklaviturave” është më e përshtatshme pasi “ChatGPT” nuk i intereson nëse përgjigjet e tij janë të sakta apo të pasakta. Në punimin e tyre, studiuesit citojnë dy lloje dërdëllisjeje: “gërmadha e fortë” është ajo që synon të keqinformojë përdoruesin dhe t’i çojë ata në rrugë të gabuar, ndërsa “gërmadha e lehtë” është ajo që shkruhet pa ndonjë qëllim të fshehtë. Për shkak se ChatGPT nuk mund të ofrojë qëllimisht përgjigje të gabuara, studiuesit thonë se gabimet që bën i përkasin “marrëzive më të lehta”.

Në fund, theksohet se chatbot-et kanë një qëllim – të prodhojnë tekst që i ngjan diçkaje që do të shkruante njeriu. Studiuesit kujtojnë një avokat që përdori “ChatGPT” për të shkruar një padi. Ai tha shumë budallallëqe para gjyqtarit, por jo sepse “ChatGPT” donte t’i bënte të mjerë jetën, por sepse boti iu përgjigj kërkesës me budallallëqe dhe informacione të pasakta.

“Halucinacionet” ose “të pakuptimta” do të bëhen gjithnjë e më shumë problem me kalimin e kohës ndërsa numri i njerëzve që mbështeten në ChatGPT rritet. Përdoruesit vendosin vetë se si të përdorin asistentët e AI, dhe ata marrin vendime jo bazuar në një kuptim të thellë të funksionimit të chatbot-eve, por bazuar në atë që kanë dëgjuar dhe lexuar për aftësitë e tyre. Duke i quajtur gabimet e tyre “halucinacione” krijon edhe më shumë dëm, pasi krijon përshtypjen se chatbot-et po përpiqen të kuptojnë se çfarë u kërkohet dhe po bëjnë gabime gjatë rrugës. Kjo është larg së vërtetës, sepse inteligjenca artificiale (të paktën tani për tani) nuk përpiqet të kuptojë asgjë, por thjesht riprodhon atë që ka mësuar nga njerëzit.

 

LEXO EDHE:

Back to top button