Problemet e halucinacioneve: Kur “ChatGPT” shkruan marrëzi
Problemet e halucinacioneve: Kur "ChatGPT" shkruan marrëzi
![](https://alsat.mk/wp-content/uploads/2023/08/chatgpt.jpg)
Ka gjithnjë e më shumë njerëz që ankohen se “ChatGPT” është halucinacione dhe një grup studiuesish pohojnë se kanë të drejtë – roboti me të vërtetë po shkruan marrëzi.
Është vënë në dukje se “shtypja e koklaviturave” është më e përshtatshme pasi “ChatGPT” nuk i intereson nëse përgjigjet e tij janë të sakta apo të pasakta. Në punimin e tyre, studiuesit citojnë dy lloje dërdëllisjeje: “gërmadha e fortë” është ajo që synon të keqinformojë përdoruesin dhe t’i çojë ata në rrugë të gabuar, ndërsa “gërmadha e lehtë” është ajo që shkruhet pa ndonjë qëllim të fshehtë. Për shkak se ChatGPT nuk mund të ofrojë qëllimisht përgjigje të gabuara, studiuesit thonë se gabimet që bën i përkasin “marrëzive më të lehta”.
Në fund, theksohet se chatbot-et kanë një qëllim – të prodhojnë tekst që i ngjan diçkaje që do të shkruante njeriu. Studiuesit kujtojnë një avokat që përdori “ChatGPT” për të shkruar një padi. Ai tha shumë budallallëqe para gjyqtarit, por jo sepse “ChatGPT” donte t’i bënte të mjerë jetën, por sepse boti iu përgjigj kërkesës me budallallëqe dhe informacione të pasakta.
“Halucinacionet” ose “të pakuptimta” do të bëhen gjithnjë e më shumë problem me kalimin e kohës ndërsa numri i njerëzve që mbështeten në ChatGPT rritet. Përdoruesit vendosin vetë se si të përdorin asistentët e AI, dhe ata marrin vendime jo bazuar në një kuptim të thellë të funksionimit të chatbot-eve, por bazuar në atë që kanë dëgjuar dhe lexuar për aftësitë e tyre. Duke i quajtur gabimet e tyre “halucinacione” krijon edhe më shumë dëm, pasi krijon përshtypjen se chatbot-et po përpiqen të kuptojnë se çfarë u kërkohet dhe po bëjnë gabime gjatë rrugës. Kjo është larg së vërtetës, sepse inteligjenca artificiale (të paktën tani për tani) nuk përpiqet të kuptojë asgjë, por thjesht riprodhon atë që ka mësuar nga njerëzit.