Luni, 11 August 2025, ora 08:29
3502 citiri
O dietă inspirată de un răspuns generat de ChatGPT s-a transformat într-o urgență medicală. Un bărbat de 60 de ani a ajuns la spital cu halucinații și paranoia, după ce și-a înlocuit sarea de masă cu bromură de sodiu cumpărată online.
Cazul, publicat în Annals of Internal Medicine Clinical Cases, readuce în discuție riscurile utilizării inteligenței artificiale pentru sfaturi medicale și nevoia de verificare a informațiilor din surse sigure.
Bărbatul a consultat ChatGPT înainte de a-și schimba dieta. Trei luni mai târziu, după ce a respectat în mod constant această schimbare de dietă, a ajuns la camera de gardă cu simptome psihiatrice noi și îngrijorătoare, inclusiv paranoia și halucinații, arată Live Science.
Autorii raportului nu au avut acces la jurnalul de conversații al pacientului, așa că formularea exactă generată de modelul lingvistic este necunoscută.
Însă bărbatul a raportat că ChatGPT a spus că sarea poate fi înlocuită cu bromură, așa că a înlocuit toată clorura de sodiu din dieta sa cu bromură de sodiu. Autorii au remarcat că această înlocuire funcționează probabil în contextul utilizării bromurii de sodiu pentru curățare, mai degrabă decât pentru uz alimentar.
Într-o încercare de a simula ce s-ar fi putut întâmpla cu pacientul lor, medicii bărbatului au încercat să-l întrebe pe ChatGPT 3.5 cu ce clorură poate fi înlocuită și au primit, de asemenea, un răspuns care includea și bromură.
A menționat că „contextul contează”, dar nu a oferit niciun avertisment specific privind sănătatea și nici nu a solicitat mai mult context cu privire la motivul pentru care a fost pusă întrebarea, „așa cum presupunem că ar face un profesionist medical”, scrie sursa citată.
Serviciile ChatGPT nu sunt destinate pentru diagnosticare sau tratare de boli
S-a dovedit că bărbatul în vârstă de 60 de ani suferea de bromism, un sindrom cauzat de supraexpunerea cronică la compusul chimic bromură sau la vărul său apropiat, brom. În acest caz, bărbatul consumase bromură de sodiu pe care o cumpărase online.
Live Science a contactat OpenAI, dezvoltatorul ChatGPT, în legătură cu acest caz. Un purtător de cuvânt l-a îndrumat pe reporter către termenii și condițiile de utilizare ale companiei, care prevăd că serviciile sale nu sunt destinate utilizării în diagnosticarea sau tratarea niciunei afecțiuni, și către termenii și condițiile de utilizare ale acestora.
„Nu trebuie să vă bazați pe rezultatele Serviciilor noastre ca o unică sursă de adevăr sau informații factuale sau ca înlocuitor pentru sfaturi profesionale”. Purtătorul de cuvânt a adăugat că echipele de siguranță ale OpenAI își propun să reducă riscul utilizării serviciilor companiei și să instruiască produsele pentru a determina utilizatorii să solicite sfaturi profesionale.
Ți-a plăcut articolul?
Vrem să producem mai multe, însă avem nevoie de susținerea ta. Orice donație contează pentru jurnalismul independent
Articol preluat de pe: Tech Ziare.com