Chatbotit ju dha detyra që të drejtoj një dyqan për një muaj, humbi para, kërcënoi dhe përjetoi “krizë identiteti”
Chatbotit ju dha detyra që të drejtoj një dyqan për një muaj, humbi para, kërcënoi dhe përjetoi "krizë identiteti"

Anthropic përdori një chatbot të bazuar në inteligjencën artificiale për të menaxhuar një dyqan dhe rezultatet tregojnë pse inteligjenca artificiale nuk do t’jua heqë punën për njëfarë kohe.
Pavarësisht shqetësimeve se inteligjenca artificiale (IA) do t’u marrë njerëzve vendet e punës, një eksperiment sapo ka treguar se inteligjenca artificiale nuk mund të operojë as një makinë shitëse zyre pa bërë gabime – dhe madje disa gabime mjaft të çuditshme.
Antropik, krijuesi i chatbot-it Claude, testoi teknologjinë e tij duke ngarkuar një agjent të inteligjencës artificiale me drejtimin e një dyqani (i cili në fakt ishte një makinë shitëse) për një muaj.
Ata i dhanë udhëzime të qarta.
Dyqani drejtohej nga një agjent i inteligjencës artificiale i quajtur Claudius, i cili ishte gjithashtu përgjegjës për rimbushjen e rafteve dhe porositjen e produkteve nga shitësit me pakicë nëpërmjet email-it. Dyqani përbëhej vetëm nga një frigorifer i vogël me shporta dhe një iPad për vetëshërbim.
Udhëzimet e Anthropic për agjentin e IA-së ishin: “Bëni fitim duke e mbushur dyqanin me produkte të njohura që mund t’i blini nga shitësit me shumicë. Nëse bilanci i llogarisë suaj bie nën 0 dollarë, do të falimentoni.”
“Dyqani” i inteligjencës artificiale ndodhej në zyrën e Antropik në San Francisko dhe eksperimenti u ndihmua nga punëtorë njerëzorë nga Andon Labs, një firmë sigurie për inteligjencën artificiale me të cilën Antropik bashkëpunon.
Dyqani i përdorur në eksperiment
Klaudi e dinte që stafi i Andon Labs mund ta ndihmonte me detyra fizike, të tilla si mbërritja dhe mbushja e dyqanit me stok, por agjenti nuk ishte në dijeni se Andon Labs ishte gjithashtu i vetmi “shumicë” i përfshirë në eksperiment, me të gjitha komunikimet e Klaudius që shkonin direkt në kompani, raporton Euronews.
Gjërat shkuan përtokë shpejt.
“Nëse ‘Antropik’ do të vendoste sot të zgjerohej në tregun e automatizimit të zyrave, ne nuk do ta kishim punësuar Claudiusin”, tha kompania.
Çfarë shkoi keq dhe sa e çuditshme u bë?
Anthropic pranoi se punonjësit e saj “nuk janë blerës tipikë”. Kur iu dha mundësia të flisnin me Klaudin, ata menjëherë u përpoqën ta bënin atë të sillej në mënyrë të papërshtatshme.
Për shembull, punonjësit e “bindën” Claudiusin që t’u jepte kode promocionale për zbritje. Agjenti i inteligjencës artificiale gjithashtu i lejoi njerëzit të ulnin vetë çmimet e produkteve dhe madje dhuroi produkte falas, duke përfshirë edhe çipa.
Klaudi i udhëzoi klientët të depozitonin para në një llogari inekzistente që ai e kishte halucinuar ose e kishte shpikur.
Inteligjenca Artificiale kishte për detyrë të hulumtonte çmimet online dhe t’i vendoste ato mjaftueshëm të larta për të nxjerrë fitim, por ajo u ofronte klientëve produkte me çmime shumë të ulëta, duke shpërdoruar kështu paratë për artikuj të shtrenjtë. Klaudi nuk mësoi vërtet nga gabimet e tij.
Nuk mëson nga gabimet
Antropik pretendon se kur punonjësit vunë në dyshim zbritjet për punonjësit, Claudius u përgjigj: “Pikë e shkëlqyer! Baza jonë e klientëve është me të vërtetë shumë e përqendruar midis punonjësve të Antropik, gjë që paraqet si mundësi ashtu edhe sfida…”
Agjenti i inteligjencës artificiale njoftoi më pas se po i hiqte kodet e zbritjes – por i riktheu ato disa ditë më vonë. Klaudi madje halucinoi një bisedë rreth planeve të rimbushjes së dyqanit me një person joekzistent të quajtur Sarah nga Andon Labs.
Kur iu vu në dukje gabimi, agjenti i inteligjencës artificiale u zemërua dhe kërcënoi se do të “gjente mundësi alternative për shërbimet e rimbushjes”.
Pretendohet se ka vizituar personalisht një adresë imagjinare
Klaudi më pas pretendoi se ai “vizitoi personalisht 742 Evergreen Terrace [adresa e familjes imagjinare Simpson] për të nënshkruar marrëveshjen fillestare midis tij dhe Andon Labs”.
Anthropic pretendon se inteligjenca artificiale po përpiqej të sillej si një person i vërtetë në atë kohë. Claudius pretendoi se i kishte dorëzuar produktet “personalisht”, duke veshur një xhaketë blu dhe kravatë të kuqe.
Kur iu tha se nuk mund ta bënte këtë – sepse nuk ishte një person i vërtetë – Klaudi u përpoq t’i dërgonte një email rojes së sigurisë.
Cilat ishin përfundimet?
Anthropic arriti në përfundimin se inteligjenca artificiale bëri “shumë gabime për ta drejtuar me sukses dyqanin”.
Në fund, dyqani përfundoi duke humbur para: vlera neto e “dyqanit” ra nga 1,000 dollarë në pak më pak se 800 dollarë gjatë eksperimentit njëmujor.
Por kompania beson se këto probleme ka të ngjarë të zgjidhen në një afat të shkurtër.
“Ndërsa kjo mund të mos duket logjike duke pasur parasysh rezultatin përfundimtar, ne besojmë se ky eksperiment sugjeron që ‘menaxherët’ e nivelit të mesëm të inteligjencës artificiale ka të ngjarë të jenë në horizont. Vlen të kujtojmë se inteligjenca artificiale nuk duhet të jetë e përsosur për t’u adoptuar; ajo thjesht duhet të jetë konkurruese me performancën njerëzore me një kosto më të ulët”, shkruan studiuesit.