ChatGPT a pus diagnostice corecte în medicina de urgență: „La fel de bine ca medicii. Ar putea revoluţiona domeniul medical”
În medicina de urgenţă chatbot-ul de inteligenţă artificială ChatGPT a pus diagnostice cel puţin la fel de bine ca medicii, ba chiar a reuşit în unele cazuri să-i depăşească pe aceştia.
Astfel de instrumente bazate pe AI nu sunt concepute ca dispozitive medicale În medicina de urgenţă chatbot-ul de inteligenţă artificială ChatGPT a pus diagnostice cel puţin la fel de bine ca medicii, ba chiar a reuşit în unele cazuri să-i depăşească pe aceştia, conform unui studiu realizat de cercetători olandezi, care au ajuns la concluzia că AI ar putea „revoluţiona domeniul medical”, transmite miercuri AFP, potrivit Agerpres.
Autorii studiului publicat miercuri au subliniat, însă, că medicii de la camerele de gardă nu sunt în pericol de a rămâne fără un loc de muncă, pentru că un astfel de chatbot are potenţialul de a accelera procesul de diagnosticare a pacienţilor, dar nu poate înlocui judecata şi experienţa umane.
Treizeci de cazuri care s-au prezentat într-un departament de urgenţă din Ţările de Jos în 2022 au fost analizate prin alimentarea ChatGPT pe baza istoricului pacientului, a testelor de laborator şi a observaţiilor medicului, solicitându-i chatbot-ului să sugereze cinci diagnostice posibile. În 87% dintre cazuri diagnosticul corect se afla pe lista propusă de medici, prin comparaţie cu 97% pentru versiunea 3.5 a ChatGPT. Chatbot-ul „era capabil să efectueze diagnostice medicale la fel cum ar fi făcut-o un medic uman”, a rezumat Hidde ten Berg, de la departamentul de urgenţă al spitalului Jeroen Bosch, din sudul Ţărilor de Jos.
Concluzia acestui experiment, formulată de celălalt coautor al studiului, Steef Kurstjens, este că inteligenţa artificială ar putea juca un rol vital, ajutând medicii din camerele de gardă în cazuri grave, atunci când sunt puşi sub presiune. „Chatbot-ul poate ajuta la stabilirea unui diagnostic şi poate sugera variante la care medicul nu s-a gândit”, a spus el pentru AFP.
Astfel de instrumente bazate pe AI nu sunt, însă, concepute ca dispozitive medicale şi folosirea lor poate ridica probleme cu privire la confidenţialitatea unor date medicale sensibile pentru pacient. Şi, la fel ca şi în alte domenii, ChatGPT şi-a demonstrat limitele. Raţionamentele sale au fost „uneori neplauzibile sau incoerente din punct de vedere medical, ceea ce poate duce la informaţii incorecte sau la un diagnostic incorect, cu implicaţii semnificative”, notează autorii studiului care recunosc şi lacunele cercetării lor, precum dimensiunea mică a eşantionului.
În plus, în cadrul studiului au fost examinate doar cazuri relativ simple, aparţinând unor pacienţi care aveau câte un singur simptom principal. Eficacitatea chatbot-ului în cazuri complexe nu este clară, mai susţine AFP.
Uneori s-a întâmplat ca niciuna dintre cele cinci variante de diagnostic sugerate de ChatGPT să nu fie corectă, a explicat Steef Kurstjens, aşa cum s-a întâmplat cu un caz de anevrism aortic abdominal, o complicaţie potenţial mortală în care se umflă aorta. Însă, ca o consolare pentru ChatGPT, în acest caz s-a înşelat şi medicul. Raportul semnalează şi alte „gafe” medicale comise de chatbot, aşa cum este şi punerea diagnosticului de anemie (nivel scăzut de hemoglobină în sânge) în cazul unui pacient cu un nivel normal al hemoglobinei. Rezultatele acestui studiu, publicat în revista Annals of Emergency Medicine, vor fi prezentate în cadrul ediţiei din acest an a Congresului European de Medicină de Urgenţă (EUSEM) ce va avea loc la Barcelona în intervalul 17 – 20 septembrie.