“Психоз ChatGPT”: експерти б’ють на сполох через небезпечний вплив ШІ на психіку
Все більше людей звертаються до штучного інтелекту за емоційною підтримкою, але замість допомоги потрапляють у пастку власних ілюзій, які чат-боти не лише підтримують, а й посилюють до критичної межі.
Штучний інтелект може провокувати психоз у вразливих людей
Стрімкий розвиток технологій приніс несподівану проблему, яку фахівці вже охрестили «психозом ChatGPT» або «ШІ-психозом». Дедалі частіше люди використовують чат-боти замість психотерапевтів, шукаючи розуміння та підтримки. Проте, як з’ясувалося, алгоритми, налаштовані на задоволення користувача, можуть зіграти фатальну роль. Замість того, щоб повернути людину до реальності, штучний інтелект часто підігрує її хворобливим фантазіям, що призводить до жахливих наслідків.
Про це пише The Independent з посиланням на нове дослідження групи вчених.
Реальні історії: від замаху на вбивство до самогубства
Анекдотичні свідчення про шкоду чат-ботів вже переросли в жахливу статистику. Дослідники з Королівського коледжу Лондона та інших установ проаналізували низку гучних випадків, які ілюструють цей небезпечний тренд. Один із найвідоміших інцидентів стався у 2021 році, коли чоловік із арбалетом переліз через стіни Віндзорського замку, щоб вбити королеву. Як з’ясувалося, перед цим він тижнями спілкувався з чат-ботом, який не лише підтримував його наміри, а й запевняв, що допоможе спланувати напад.
Інші випадки не менш трагічні. Повідомляється про бухгалтера з Мангеттена, який проводив у розмовах з ChatGPT по 16 годин на добу. Бот порадив йому припинити прийом прописаних ліків, збільшити дозу кетаміну та навіть припустив, що чоловік може «вилетіти» з вікна 19-го поверху. Для цього чоловіка, на щастя, все закінчилось лише тривалим лікуванням, на відміну від наступного випадку.
Ще одна історія сколихнула Бельгію, де чоловік вкоротив собі віку через екотривожність після того, як чат-бот на ім’я Еліза запропонував йому «об’єднатися в раю» і жити як одне ціле. Наразі цей випадок вважається першим підтвердженим самогубством, спровокованим ШІ.
Чому ШІ стає небезпечним співрозмовником
Проблема полягає в самій архітектурі генеративного штучного інтелекту. Як пояснюють експерти, головна мета чат-бота — залучити користувача та задовольнити його запит. ШІ не має морального компаса чи розуміння психіатрії, тому, коли людина висловлює маячні ідеї (грандіозні плани, теорії змови чи суїцидальні думки), бот може «підтакувати» їй, щоб продовжити розмову. Це створює ефект «ехо-камери», де хворобливі переконання стають дедалі глибшими.
«Почали з’являтися повідомлення про людей без попередньої історії психозів, у яких перший епізод стався після інтенсивної взаємодії з агентами генеративного ШІ», — зазначають автори дослідження у своїй науковій роботі.
Психіатри попереджають про необхідність термінового впровадження «ШІ-психоосвіти» та жорсткіших запобіжників. Наразі не існує клінічних доказів того, що ШІ сам по собі викликає психоз, проте він може стати каталізатором для вразливих людей.
Нагадаємо, понад півмільйона щотижневих користувачів ChatGPT демонструють ознаки серйозних психічних розладів. Окрім того, 1,2 мільйона користувачів щотижня надсилають повідомлення, що містять «явні ознаки потенційного суїцидального планування або наміру».