BETA — Сайт у режимі бета-тестування. Можливі помилки та зміни.
UK | EN |
LIVE
Здоров'я 🇺🇦 Україна

ШІ ставить точніші діагнози, ніж лікарі невідкладної допомоги, але не все так добре

Технології 24 24 Канал 1 переглядів 5 хв читання
ШІ ставить точніші діагнози, ніж лікарі невідкладної допомоги, але не все так добре
Техно Штучний інтелект ШІ ставить точніші діагнози, ніж лікарі невідкладної допомоги, але не все так добре 4 травня, 13:00view counttime for reading5 хвЗберегтиШІ ставить точніші діагнози, ніж лікарі невідкладної допомоги, але не все так добре Михайло Года Основні тези
  • Дослідження з Гарварду показало, що ШІ може перевершувати лікарів у точності діагнозів на етапі первинного огляду, але потребує подальших клінічних випробувань.
  • Лікарі застерігають, що ШІ не може замінити медичних спеціалістів через обмеження в роботі з нетекстовими даними та відсутність системи відповідальності за діагнози.
Чи кращий штучний інтелект за лікаря в приймальному відділенніЧи кращий штучний інтелект за лікаря в приймальному відділенні / Depositphotos

Нове дослідження з Гарварду порівняло рішення лікарів і штучного інтелекту в умовах приймального відділення. Результати виявилися неоднозначними й підняли питання про роль технологій у медицині.

Дослідження, опубліковане в журналі Science, провели фахівці з Гарвардської медичної школи (Harvard Medical School) та Медичного центру "Бет Ісраель Діаконесс" (Beth Israel Deaconess Medical Center). Вони перевірили, як великі мовні моделі, зокрема моделі від OpenAI, справляються з реальними клінічними випадками у відділенні невідкладної допомоги.

Дивіться також Oracle змусила 30000 людей навчити ШІ своїй роботі, а потім звільнила їх

Чи справді ШІ вже перевершує лікарів?

У межах експерименту дослідники проаналізували 76 пацієнтів, які звернулися до лікарні. Діагнози, сформульовані двома лікарями внутрішньої медицини, порівняли з висновками моделей o1 і 4o. Оцінювання проводили інші лікарі, які не знали, кому належить кожен діагноз – людині чи алгоритму.

Результати показали, що модель o1 демонструвала рівень точності не нижчий, а інколи й вищий за лікарів. Найбільш помітна різниця виникла на етапі первинного огляду – коли інформації про пацієнта мінімум, а рішення потрібно приймати швидко.

Зокрема, у 67% випадків модель o1 давала точний або близький до правильного діагноз на етапі тріажу. Для порівняння, один лікар досяг такого результату у 55% випадків, інший – у 50%.

Ми протестували модель за практично всіма показниками, і вона перевершила як попередні моделі, так і наших лікарів у контрольній групі,
– зазначив Арджун Манраї, керівник лабораторії ШІ в Гарварді.

Важливо, що дослідники не обробляли дані перед передачею – ШІ-моделі отримували ту ж інформацію, що й лікарі з електронних медичних записів у момент ухвалення рішення. Про це мовиться в пресрелізі Гарвардської медичної школи.

Що про це думають лікарі?

Попри вражаючі результати, автори дослідження наголошують: мова не йде про готовність ШІ самостійно приймати критичні рішення. У роботі прямо зазначено потребу в "термінових перспективних клінічних випробуваннях", щоб перевірити ці технології в реальних умовах.

Є й інші обмеження. Дослідження враховувало лише текстову інформацію, тоді як у реальній медицині важливу роль відіграють зображення, аналізи та інші типи даних. Попередні роботи показують, що сучасні моделі поки що гірше працюють з нетекстовими джерелами.

Лікар Адам Родман (Adam Rodman) звернув увагу на ще одну проблему:

Наразі не існує чіткої системи відповідальності за діагнози ШІ.

Він також наголосив, що пацієнти все ще хочуть, щоб саме люди супроводжували їх у складних медичних рішеннях.

Критичну позицію висловила і лікарка невідкладної допомоги Крістен Пантаґані (Kristen Panthagani). У тексті на сайті You Can Know Things вона назвала дослідження цікавим, але таким, що призвело до "перегрітих заголовків". На її думку, порівняння було не зовсім коректним, адже ШІ змагався з лікарями внутрішньої медицини, а не з профільними лікарями екстреної допомоги.

Якщо порівнювати ШІ з лікарями, варто брати саме тих, хто працює в цій спеціалізації,
– пояснила вона.

Крім того, Пантаґані наголосила, що головна мета лікаря в приймальному відділенні – не одразу встановити точний діагноз, а визначити, чи є загроза життю пацієнта. Це принципово інший підхід, який складно відтворити алгоритмами.

Тож якщо намагатися підбити сухий підсумок, то хоч дослідження демонструє значний прогрес штучного інтелекту в медицині, але водночас воно акцентує увагу на тому, що навіть найкращі моделі поки що залишаються інструментом, а не заміною лікаря.

Як люди вже використовують ШІ для самодіагностики?

Попри застереження лікарів, чат-боти вже стали для багатьох користувачів першим "контактом" із медициною. Люди дедалі частіше звертаються до ШІ, щоб зрозуміти симптоми, отримати попередні пояснення або навіть визначити можливий діагноз.

За даними досліджень, приблизно 1 з 6 дорослих регулярно використовує чат-боти для пошуку інформації про здоров'я, пише Healthline. Причини очевидні – швидкість, безкоштовність і відчуття анонімності. ШІ може миттєво пояснити складні медичні терміни, допомогти підготуватися до візиту до лікаря або підказати, на що звернути увагу між прийомами.

Крім того, аналітики відзначають, що такі інструменти вже використовуються для розшифровки аналізів, розуміння призначеного лікування і навіть психологічної підтримки, пише Erictopol.

Втім, разом із популярністю зростають і ризики. Дослідження показують, що відповіді чат-ботів можуть бути неточними, суперечливими або не враховувати індивідуальні особливості пацієнта. В окремих перевірках виявилося, що такі системи можуть давати хибні або вводячі в оману медичні поради майже у половині випадків, пише Medical Life Science.

Вже є реальні інциденти. Наприклад, відомо про випадки, як повідомляло видання Life Science, коли ШІ впевнено пропонував відверто небезпечні "лікувальні" методи, якщо запит був сформульований як медичний.

Ще одна проблема – надмірна довіра. Користувачі часто не можуть відрізнити відповіді лікаря від відповіді ШІ і схильні вважати їх однаково надійними, навіть коли інформація є помилковою. Це підвищує ризик неправильного самолікування або, навпаки, зайвої тривоги.

Загалом експерти наголошують: чат-боти можуть бути корисними інструментами для загальної інформації або підготовки до консультації, але вони не здатні замінити повноцінну медичну оцінку. Вони не бачать пацієнта, не аналізують повний набір даних і не несуть відповідальності за рішення.

Тому навіть якщо ШІ підказує можливий діагноз або варіанти лікування, такі поради слід сприймати лише як загальні орієнтири. Для постановки точного діагнозу та вибору лікування необхідно звертатися до кваліфікованого лікаря.

Поділитися

Схожі новини