Za zdravstveni nasvet je vprašal ChatGPT, nato pa je pristal v bolnici: povzročil si je redko in nevarno bolezen

19. 8. 2025
Za zdravstveni nasvet je vprašal ChatGPT, nato pa je pristal v bolnici: povzročil si je redko in nevarno bolezen (foto: Profimedia)
Profimedia

Če se tudi vi za zdravstvene nasvete obračate na ChatGPT, je nujna previdnost, svarijo strokovnjaki.

Ameriška medicinska revija je opozorila bralce, naj ne uporabljajo ChatGPT-ja kot vira zdravstvenih informacij, potem ko je prišlo do primera redke zastrupitve zaradi pogovora z orodjem o odpravi soli iz prehrane, poročajo na portalu bljesak.info.

V strokovni reviji Annals of Internal Medicine so opisali primer moškega, ki je po posvetu z umetno inteligenco razvil bromizem, zastrupitev z bromom. To stanje je bilo na začetku 20. stoletja precej pogosto: po ocenah je povzročilo skoraj vsak deseti sprejem v psihiatrične ustanove. Bromidne soli so se takrat na veliko uporabljale v zdravilih brez recepta kot pomirjevala in uspavala, uporabljale so se tudi za zdravljenje glavobolov.

Sol zamenjal z bromidom

Pacient je zdravnikom povedal, da se je po branju o škodljivih učinkih natrijevega klorida (soli) obrnil na ChatGPT in ga vprašal, kako lahko iz prehrane izloči kloride. Po pogovoru z umetno inteligenco je tri mesece jemal natrijev bromid.

Na plaži pustil brisačo s prav posebnim sporočilom

Po navedbah zdravnikov je moški prišel v bolnišnico prepričan, da ga sosed zastruplja. Imel je številne prehranske omejitve, obenem pa je bil do bolnišnične vode nezaupljiv in paranoičen. Že prvi dan je poskušal pobegniti, zato so ga morali zadržati in zdraviti zaradi psihoze. Kasneje so se pokazali tudi tipični znaki bromizma – akne na obrazu, močna žeja in nespečnost.

Zdravniki z Univerze v Washingtonu v Seattlu so opozorili, da ta primer jasno kaže, kako lahko uporaba umetne inteligence prispeva k nevarnim zdravstvenim zapletom, ki bi jih bilo mogoče preprečiti.

Ker niso imeli dostopa do natančnega zapisa pacientovega pogovora z orodjem, niso mogli potrditi, točno kakšen nasvet je moški dejansko prejel. Vendar so sami postavili podobno vprašanje in med možnostmi so dobili tudi bromid, brez kakršnega koli opozorila o zdravstvenih tveganjih ali pojasnila, zakaj uporabnik sploh išče takšno informacijo. "Predvidevamo, da bi zdravnik to zagotovo vprašal oziroma dodal več konteksta in zdravstvena opozorila," so zapisali.

Avtorji članka so opozorili, da ChatGPT in podobne aplikacije lahko ustvarjajo znanstveno netočne informacije in nimajo sposobnosti kritične presoje, zato spodbujajo širjenje dezinformacij.

Pri podjetju OpenAI, razvijalcu ChatGPT-ja, so medtem poudarili, da novi model GPT-5 prinaša izboljšave prav na področju zdravja. Zdaj naj bi bil boljši pri prepoznavanju resnih težav in pri opozarjanju uporabnikov na možna tveganja. Ob tem pa so jasno izpostavili, da umetna inteligenca nikakor ni nadomestilo za strokovno pomoč.

Primer iz članka se je sicer zgodil pred izidom GPT-5, kar pomeni, da je pacient uporabljal starejšo različico.

Vir: bljesak.info

Babica Mirjana (99) razkrila skrivnost dolgega življenja: ni hrana, ni genetika, ampak nekaj, kar vsi pozabljamo