Umělá inteligence dělá diagnostické chyby téměř ve 80 % případů, jak ukázalo výzkum
Krátce o výsledku výzkumu
Nedávný výzkum publikovaný v *Jama Network Open* a citovaný v *Financial Times* ukázal, že populární chatboti nejsou schopni přesně stanovit lékařské diagnózy, pokud jim poskytneme omezený soubor dat. Ve více než 80 % případů dělali chybnou diagnózu a pouze při úplném popisu příznaků se přesnost zvyšovala až na 90 %.
Jak byl výzkum proveden
KrokCo dělaliVýběr případů29 klinických scénářů z referenční literatury.Předání datInformace o pacientovi byly chatbota postupně předávány: anamnéza → výsledky vyšetření → laboratorní analýzy.Odpovědi od AIZeptávali se na diagnostiku; měřili přesnost a úplnost odpovědí.
Účastníci experimentu
* 20 populárních modelů od OpenAI, Anthropic, Google, xAI, DeepSeek.
* Při neúplných datech více 80 % z nich dělalo nesprávnou diagnózu.
* S rostoucím objemem informací se přesnost zvyšovala: v nejlepších případech >90 %, průměrně – chyby méně než 40 %.
Reakce vývojářů
SpolečnostKomentářGoogle & AnthropicPři pokusu získat lékařské doporučení chatboti přísně doporučují obrátit se na odborníka.OpenAIUvádí v podmínkách používání, že jejich služby nejsou určeny k získávání licencovaných lékařských doporučení.xAI & DeepSeekNe poskytly komentáře.
Někteří z nich vyvíjejí specializované modely: Google vytvořila AMIE, která ukazuje dobré výsledky, ale její závěry stále vyžadují potvrzení živého lékaře, zejména s ohledem na důležitost vizuálního hodnocení.
Závěr
Chatboti mohou být užiteční jako podpůrný nástroj, avšak při omezených informacích často dělají chyby. Jejich používání jako náhrady kvalifikovaného lékařského specialisty je zatím nepřípustné, i když tyto modely mohou být užitečné v regionech s nedostatkem přístupu k tradiční medicíně.
Komentáře (0)
Podělte se o svůj názor — prosím, buďte slušní a držte se tématu.
Přihlaste se pro komentování