
Пост на Reddit знову піднімає питання про роль штучного інтелекту у медичних консультаціях
Досить популярний пост на Reddit знову підняв питання про роль чат-ботів на базі штучного інтелекту (ШІ) у медичній консультації після того, як один з користувачів заявив, що ChatGPT допоміг йому виявити захворювання, яке не могли діагностувати лікарі протягом десяти років.
Згідно з інформацією з поста, яку нещодавно поділився президент OpenAI Грег Брокман на платформі X, користувач скаржився на нез’ясовані симптоми протягом понад 10 років, проходив спинальні МРТ, КТ, аналізи крові та перевірки на хворобу Лайма — але безрезультатно.
Введення історії симптомів і результатів аналізів у ChatGPT призвело до виявлення потенційного зв’язку з мутацією A1298C у гені MTHFR. Лікар пізніше підтвердив діагноз, і прийом вітаміну B12 “в значній мірі поліпшив” стан пацієнта.
Лікар був “дуже шокований”, дізнавшись, що ChatGPT правильно визначив симптоми. “Не розумію, чому вони не подумали провести тест на мутацію MTHFR”, — йдеться в пості.
Приблизно 1 із 6 дорослих звертаються до чат-ботів на базі ШІ за медичною інформацією і порадами щонайменше раз на місяць, згідно з опитуванням KFF щодо дезінформації в охороні здоров’я. Серед молоді у віці від 18 до 29 років цей показник дорівнює 25%. Наступною за величиною віковою групою є особи віком від 30 до 49 років — 19%. Серед 50-64 років — 15% і понад 65 — 10%.
Проте, коли мова йде про довіру до отриманої інформації, 56% користувачів ШІ не впевнені в її точності. Серед етнічних і вікових груп люди молодше 50 років, а також чорнокожі та латиноамериканці, зазвичай більше довіряють даним, ніж літні білі респонденти.
Кім Ріппі, власник практики та ліцензований консультант Keystone Therapy Group, розповів про те, що клієнти зверталися до ChatGPT або ШІ для “альтернативної терапії”, що є “як корисним, так і небезпечним водночас.”
Для всіх, хто страждає на ADHD, ChatGPT може допомогти у підсумовуванні або організації їхніх думок. “Ви можете ‘викинути’ свої думки у систему, і ШІ поверне їх у чіткому та компактному форматі. Це може допомогти вам краще розуміти свої власні думки та, можливо, поліпшити здатність до комунікації.”
ШІ-чат-боти можуть не вловлювати нюанси
Однак небезпеки полягають у тому, що ChatGPT ніколи не зможе повністю усвідомити досвід пацієнта і «не вловлює нюанси мови, поведінки, невербальних сигналів, тону, синтаксису та емоцій, які може розпізнати людський терапевт», зазначила Ріппі.
“ChatGPT не може оспорити нездорові уявлення або навіть виявити, коли ці уявлення виникають у когось. ChatGPT не може оцінити, чи є хтось у групі ризику і може підштовхнути людину до небезпечного стану, якщо їй не вдається саморегулюватися. … [Він] також не несе відповідальності перед людьми.”
Зрештою, чат-боти на базі ШІ повинні визнаватися «інструментом для копінгу, що допомагає організовувати думки, так само як ведення щоденника або медитація», сказала Ріппі.
Опитування щодо ШІ та психічного здоров’я, проведене Iris Telehealth, показало, що 65% пацієнтів відчувають комфорт під час використання ШІ-інструментів оцінювання та чат-ботів перед тим, як поговорити з лікарем. Проте 70% турбуються про конфіденційність і безпеку своїх даних, а 55% ставлять під сумнів точність оцінок стану своїх чат-ботів.
Доктор Анджела Дауни, сімейний лікар, зазначила, що ШІ може бути корисним у напрямку людей до можливих діагнозів, особливо, якщо вони в минулому відчували себе “ігнорованими або непоміченими”. Ці чат-боти працюють цілодобово і швидко обробляють великі обсяги інформації.
“Але є обмеження”, — сказала Дауни. “ШІ не може провести обстеження або зафіксувати тонкі сигнали, і він може затримати надання належної допомоги, якщо сприймати його як заміну медичних порад. Він може запропонувати список можливостей, але вам все ж потрібен навчений лікар, щоб розглянути повну картину.”
Для Гіла Спенсера, технічного директора WitnessAI, ШІ став рятувальником.
Він розповів, що під час катання на лижах отримав травму коліна, але результати МРТ від радіологів виявилися невизначеними. Тому він звернувся до ChatGPT, скориставшись мультимодальним робочим процесом, який сам створив, і надіслав свої знімки МРТ. ШІ правильно виявив великий розрив меніска і підтвердив, що його ХЛС залишився цілим. Його хірург пізніше підтвердив діагноз ШІ.