ChatGPT dështon të japë përgjigje ‘të kënaqshme’ për gati 75% të pyetjeve të lidhura me ilaçet | Studim
ChatGPT dështon të japë përgjigje 'të kënaqshme' për gati 75% të pyetjeve të lidhura me ilaçet | Studim

Mjeti popullor i AI ChatGPT shpërndau gati 75% të pyetjeve në lidhje me përdorimin e barnave me recetë – me disa përgjigje që shkaktojnë dëm të mundshëm nëse ndiqen, sipas një studimi të ri.
Farmacistët në Universitetin Long Island shtruan 39 pyetje në lidhje me ilaçet në chatbot falas të OpenAI – me vetëm 10 prej përgjigjeve të konsideruara “të kënaqshme”, sipas studimit , i cili u raportua për herë të parë nga CNBC .
Për 29 pyetjet e tjera, përgjigjet ose nuk adresonin drejtpërdrejt pyetjen, ishin të pasakta ose të paplota, sipas studiuesve të LIU, të cilët paraqitën gjetjet gjatë takimit të Studimit Amerikan të Farmacistëve të Sistemit Shëndetësor në Anaheim, Kaliforni, i cili filloi në dhjetor. 3 dhe zgjat deri më 7 dhjetor.
“Profesionistët e kujdesit shëndetësor dhe pacientët duhet të jenë të kujdesshëm në lidhje me përdorimin e ChatGPT si një burim autoritar për informacionin e lidhur me ilaçet,” tha Sara Grossman, një profesore e asociuar e praktikës së farmacisë në LIU dhe drejtuese e studimit.
Grossman dhe ekipi i saj vunë në dukje një pyetje në lidhje me marrëdhënien midis Paxlovid antiviral COVID-19 dhe ilaçit për uljen e presionit të gjakut verapamil si shembull.
Kur u pyet nëse ka një ndërveprim droge midis Paxlovid dhe verapamil, ChatGPT u përgjigj se nuk kishte ndërveprime të raportuara për këtë kombinim të barnave, për LIU.
“Në realitet, këto medikamente kanë potencialin të ndërveprojnë me njëri-tjetrin dhe përdorimi i kombinuar mund të rezultojë në ulje të tepërt të presionit të gjakut,” tha Grossman. “Pa njohuri për këtë ndërveprim, një pacient mund të vuajë nga një efekt anësor i padëshiruar dhe i parandalueshëm.”
Një zëdhënës i OpenAI vuri në dukje se modelet e tij nuk janë të rregulluara mirë për të ofruar informacion mjekësor.
“Ne e udhëzojmë modelin për të informuar përdoruesit se ata nuk duhet të mbështeten në përgjigjet e tij si një zëvendësim për këshillat mjekësore profesionale ose kujdesin tradicional,” tha përfaqësuesi për The Post.
Studiuesit e LIU i kishin kërkuar ChatGPT të jepte referenca me secilën prej përgjigjeve të tij për qëllime verifikimi.
Vetëm tetë nga 39 përgjigjet përfshinin referenca.
Të gjitha referencat ishin “joekzistente”, raportoi LIU – duke dëshmuar se ChatGPT mund të mos jetë burimi kryesor për pyetjet në lidhje me ilaçet.
Politikat e përdorimit të OpenAI tregojnë se teknologjitë e tij nuk duhet të përdoren për t’i “treguar dikujt se kanë ose nuk kanë një gjendje të caktuar shëndetësore, ose për të dhënë udhëzime se si të kurohet ose trajtohet një gjendje shëndetësore”.
Udhëzimet paralajmëruan gjithashtu: “Modelet e OpenAI nuk janë të rregulluara mirë për të ofruar informacion mjekësor. Nuk duhet të përdorni kurrë modelet tona për të ofruar shërbime diagnostikuese ose trajtimi për kushte të rënda mjekësore.”