A mund të jetë inteligjenca artificiale përgjegjëse për shkeljet morale?
A mund të jetë inteligjenca artificiale përgjegjëse për shkeljet morale?

Zotërimi i karakteristikave të ngjashme me mendjen e njeriut mund të rrisë gjasat që AI të bëhet një kok turku. Gjegjësisht, sa më e ngjashme me njeriun të jetë një inteligjencë artificiale, aq më shumë njerëzit janë të prirur t’i atribuojnë asaj më shumë faj për shkelje të ndryshme morale në botën reale, sipas rezultateve të një studimi të Universitetit të Grave Korea Soukjung në Seul, Kore.
Dihet prej kohësh se njerëzit janë të lumtur të fajësojnë inteligjencën artificiale për shkelje të ndryshme, për shembull, në rastet kur një automjet autonom godet një këmbësor ose pasojat e vendimeve që shkaktuan një aksident në punë, në diagnostikimin mjekësor ose në ushtrimet dhe operacionet ushtarake. . Disa kërkime tregojnë se njerëzit kanë më shumë gjasa të fajësojnë inteligjencën artificiale, e cila konsiderohet e aftë për të ndërgjegjësuar, menduar dhe planifikuar.
Studiuesit koreanë u prezantuan pjesëmarrësve të studimit me shembuj të ndryshëm të botës reale të shkeljeve morale që përfshijnë AI, dhe më pas vlerësuan shkallën e fajit të njerëzve që i atribuohen AI, zhvilluesit të saj, kompanisë pas saj ose një autoriteti qeveritar. Dhe sa herë që AI u kujton mendjen njerëzore, njerëzit do t’ia hedhin të gjithë fajin. Dhe kur bëhet fjalë për ndarjen e fajit relativ, njerëzit do të fajësojnë më pak kompaninë e përfshirë në zhvillimin e AI të akuzuar.
Këto gjetje tregojnë se perceptimi i mendjes së AI është një faktor kyç në caktimin e fajit për gjërat që shkojnë keq. Studiuesit kanë frikë nga pasojat e mundshme të dëmshme të përdorimit të inteligjencës artificiale si një kok turku.
– A mund të konsiderohet inteligjenca artificiale përgjegjëse për shkeljet morale? Ky hulumtim tregon se perceptimi i inteligjencës artificiale si njeri rrit fajin e inteligjencës artificiale, dhe zvogëlon fajin e njerëzve që morën pjesë në krijimin e saj – paralajmërojnë studiuesit koreanë.