Нове дослідження Гарвардської медичної школи та медичного центру Beth Israel Deaconess показало, що сучасні моделі штучного інтелекту в окремих сценаріях перевершують реальних лікарів у точності первинної діагностики. Водночас пацієнти у всьому світі вже давно використовують AI як інструмент для перевірки поставленого лікарем діагнозу. Особливо актуально це для людей, які стикалися з некоректними діагнозами, безрезультативним лікуванням або трагедією втрати близької людини через лікарську помилку. Чому люди дедалі частіше перевіряють лікарські висновки через штучний інтелект і як це змінює ставлення до медицини, читайте в матеріалі УНН.
Ще кілька років тому ідея про те, що штучний інтелект може ставити діагнози точніше за лікаря, звучала як сюжет науково-фантастичного фільму. Однак у 2026 році це вже предмет серйозної наукової дискусії. У журналі Science опублікували дослідження команди Гарвардської медичної школи та медичного центру Beth Israel Deaconess, у якому вчені порівняли можливості моделей OpenAI та GPT із роботою сотень лікарів різного рівня підготовки.
Дослідники аналізували як класичні клінічні кейси, так і реальні випадки пацієнтів у відділеннях невідкладної допомоги. В одному з експериментів AI-модель порівнювали з двома лікарями-терапевтами на основі 76 реальних випадків із приймального відділення лікарні Beth Israel. Оцінку якості діагнозів проводили інші лікарі "всліпу" – без інформації про те, хто саме поставив діагноз людина чи штучний інтелект.
Замість розгляду справи про медичну недбалість лікарів Odrex по суті – новий раунд процесуальних маневрів13.05.26, 11:49 • 102372 перегляди
На етапі первинного сортування пацієнтів у відділенні невідкладної допомоги AI-модель запропонувала "точний або дуже близький до точного діагноз" у 67% випадків. Для порівняння, один із лікарів досяг такого результату у 55% випадків, інший – у 50%.
У кожній діагностичній точці контакту AI-модель показала або кращі результати, ніж лікарі, або був на одному рівні з ними
– зазначено в дослідженні.
Особливо помітною перевага AI була саме на першому етапі прийняття рішення – коли інформації про пацієнта ще мало, а часу на роздуми практично немає. Саме там, де людський фактор, перевтома чи помилка можуть коштувати життя.
Водночас самі автори дослідження наголошують на тому, що мова не йде про заміну лікарів штучним інтелектом уже сьогодні. Дослідження не стверджує, що AI готовий самостійно ухвалювати рішення щодо життя і смерті пацієнтів. Навпаки, вчені прямо пишуть про "нагальну потребу" у масштабних клінічних випробуваннях у реальних умовах медицини.
Тут виникає головне питання – якщо люди дедалі більше бачать, що технологія може помилятися рідше за лікаря, що відбувається з глобальною довірою до самої медичної системи?
Фактично світ поступово входить у нову реальність, де пацієнт більше не сприймає лікаря як "єдине джерело істини". Люди починають перевіряти призначення, завантажують медичні документи у AI-сервіси, шукають альтернативні висновки та "другу думку".
Особливо яскраво це проявляється у країнах, де існують проблеми із захистом прав пацієнтів, доступом до медичної документації та ефективністю розслідування можливих лікарських помилок. Як раніше писав УНН, в Україні саме на цьому підґрунті почали з’являтися незалежні громадські ініціативи пацієнтів, зокрема рух StopOdrex.
Причини їх появи не лише окремі конфлікти довкола медичних закладів. Це реакція суспільства на системну кризу довіри. Адже коли людина не впевнена, що держава здатна швидко й ефективно захистити її права, вона починає шукати альтернативні механізми впливу та взаємної підтримки.
Саме так функціонує громадська ініціатива StopOdrex, яка збирає історії пацієнтів та родин, що заявляють про негативний досвід лікування у приватній клініці Odrex.
Нагадаємо
Як раніше повідомляв УНН, активісти руху StopOdrex стверджують, що їхні платформи стали місцем, де люди вперше змогли відкрито говорити про неправильні діагнози, післяопераційні ускладнення, відсутність комунікації з лікарями та проблеми з отриманням медичної документації.