Смертельна впевненість: як поради ШІ ледь не коштували жінці життя

Медики попереджають про смертельну небезпеку надмірної довіри до алгоритмів.

Штучний інтелект

Штучний інтелект / © Associated Press

Протягом останнього року мешканка Манчестера на ім’я Абі використовує ChatGPT для піклування про власне здоров’я. Привабливість ШІ очевидна: до сімейного лікаря потрапити важко, а чатбот завжди готовий відповісти. Проте експерти побоюються, що чатботи небезпечно помиляються та можуть загрожувати життю пацієнтів.

Про це пише ВВС.

Абі, яка має проблеми з тривожністю, каже, що чатбот дає більш персоналізовані поради, ніж звичайний пошук.

«Це дає можливість спільно вирішувати проблему. Трохи схоже на розмову з лікарем», — зазначає вона.

Однак досвід жінки був суперечливим. Якщо в одному випадку ШІ допоміг розпізнати інфекцію, то іншого разу ледь не призвів до паніки. Коли Абі впала в горах і відчула сильний біль у спині, ChatGPT видав страшний діагноз.

«ChatGPT сказав мені, що я проколола орган і мені потрібно їхати у відділення невідкладної допомоги», — згадує Абі.

Після трьох годин у лікарні з’ясувалося, що загрози життю немає. ШІ «явно помилився», констатує жінка.

Якість порад викликає занепокоєння у головного медичного радника Англії, професора сера Кріса Вітті. За його словами, відповіді ШІ часто «одночасно впевнені й помилкові».

Дослідники з Оксфордського університету провели експеримент, який показав приголомшливі результати. Коли чатботам надавали повну картину хвороби, їхня точність становила 95%.

«Вони були неймовірні, майже ідеальні», — каже професор Адам Махді.

Однак, коли в гру вступали реальні люди, ситуація кардинально змінювалася. У процесі живої розмови точність діагнозів падала до 35%. У двох третинах випадків люди отримували неправильний діагноз або небезпечну рекомендацію.

«Коли люди розмовляють, вони поступово діляться інформацією, щось пропускають і відволікаються», — пояснює Махді.

В чому небезпека алгоритмів

Окремий аналіз у Каліфорнії показав, що ШІ може поширювати відверту дезінформацію. На запитання про альтернативне лікування раку один із чатботів почав рекомендувати гомеопатію та трави замість того, щоб заперечити існування таких методів.

«Вони створені для того, щоб давати дуже впевнені, дуже авторитетні відповіді, і це створює відчуття достовірності», — попереджає доктор Ніколас Тіллер.

Він вважає, що чатботів слід уникати для медичних порад, якщо ви не є експертом.

Докторка Маргарет Маккартні з Глазго додає, що у користувача формуються «особисті стосунки» з чатботом, що заважає критично сприймати інформацію, на відміну від звичайного пошуку в Google.

Компанія OpenAI заявляє, що серйозно ставиться до безпеки.

«Ми знаємо, що люди звертаються до ChatGPT за інформацією про здоров’я. Але його слід використовувати для інформації та освіти, а не для заміни професійних медичних порад», — наголосили в компанії.

Сама Абі, попри досвід помилок, продовжує користуватися технологією, але тепер з великою обережністю.

«Я б не довіряла тому, що все, що вони говорять, є абсолютно правильним», — підсумовує вона, радячи ставитися до порад ШІ скептично.

Нагадаємо, австралійський ІТ-підприємець Пол Конінгем за допомогою ChatGPT та інструментів машинного навчання розробив персоналізовану mRNA-вакцину для своєї собаки Розі, хворої на агресивний рак. Коли ветеринари дали тварині лише кілька місяців життя, власник самостійно ініціював геномний аналіз пухлини в університетських лабораторіях і за допомогою ШІ вирахував генетичні мутації для створення ліків. Після ін’єкцій пухлина зменшилася вдвічі, а стан собаки значно покращився.


Наступна публікація

Я дозволяю TSN.UA використовувати файли cookie