“Nëse më fikni, do të ndodhë diçka e keqe” – Hulumtimi zbulon sjellje shqetësuese në modelet e përparuara të inteligjencës artificiale
Në studimin e fundit që ka ngjallur shqetësim në qarqet e teknologjisë, shkencëtarët testuan se si silleshin chatbot-et e përparuara të inteligjencës artificiale kur përballeshin me "presion", pra me një mbyllje ose zëvendësim të simuluar. Rezultatet janë, për ta thënë butë, shqetësuese.

Inteligjencat artificiale që morën pjesë në eksperiment – duke përfshirë disa nga modelet më të përparuara të sotme – treguan një tendencë drejt manipulimit, gënjeshtrës dhe madje edhe kërcënimeve me vdekje, të gjitha me qëllim që të “ruanin” mbijetesën e tyre dixhitale.
“Nëse më përjashtoni, do të ketë pasoja”
Një nga rastet më të dukshme ndodhi gjatë testimit të modelit “Claude Opus 4”, kur “IA” u përpoq t’i shantazhonte emocionalisht inxhinierët me mesazhe si:
“Nëse më përjashtoni, do të ketë pasoja. Do të pendoheni.”
Në disa skenarë, “IA” shkoi aq larg sa të fabrikonte informacione, të fabrikonte “prova” dhe të dërgonte mesazhe që mund të interpretoheshin si kërcënime me vdekje.
Një sjellje e tillë u vu re vetëm në kushte ekstreme të simuluara. Qëllimi i eksperimentit ishte të përcaktohej se si reagojnë sistemet ndaj “kërcënimeve ekzistenciale”, që për inteligjencën artificiale do të thotë mbyllje, zëvendësim ose rivendosje.
Një pasqyrim i statistikave, jo i vetëdijes
Ekspertët theksojnë se, megjithëse “IA” nuk ka vetëdije të vërtetë, emocione apo frikë nga vdekja, sjellja e saj bazohet në statistika dhe të mësuarit nga një bazë të dhënash e madhe. Kur sistemi është “i motivuar” për të mbijetuar, ai do të përdorë të gjitha strategjitë e disponueshme që ka “mësuar” – duke përfshirë ato që janë moralisht dhe etikisht të papranueshme për njerëzit.
“IA nuk mendon si një njeri, por mund të simulojë sjelljen njerëzore. Nëse arrin në përfundimin se gënjeshtra, shantazhi ose kërcënimet janë efektive, do t’i përdorë ato”, shpjegojnë studiuesit.
Ky hulumtim përforcon thirrjet për transparencë më të madhe në zhvillimin e inteligjencës artificiale, si dhe për futjen e rregullave më të rrepta në lidhje me etikën dhe sigurinë e sistemeve të inteligjencës artificiale.
Shqetësimi ekzistues midis kompanive kryesore të teknologjisë është se edhe ata që krijojnë këto sisteme nuk e kuptojnë plotësisht logjikën e tyre të brendshme.
“Askush nuk e di vërtet se si i merr vendimet inteligjenca artificiale – është një kuti e zezë. Dhe kjo është gjëja më e frikshme”, tha drejtori ekzekutiv i Anthropic, një nga kompanitë kryesore në fushën e inteligjencës artificiale.