Жінка ледь не померла після поради, отриманої від ChatGPT
Чат-бот за фотографією не зміг визначити небезпечну отруйну рослину — болиголов.
ChatGPT дав небезпечну пораду / © Pexels
Жінка ледь не померла після того, як ChatGPT дав їй неправильну пораду щодо отруйної рослини.
Про це розповіла YouTube-блогерка Крісті у своєму акаунті в Instagram, передає LADbible.
За словами інфлюенсерки, її подруга надіслала чат-боту фотографію рослини, яка росла на задньому дворі, і попросила визначити, що це таке.
У своїй відповіді ChatGPT стверджував, що зображення схоже на листя моркви, перерахувавши кілька причин своє впевненості, зокрема «дрібно розділене та пір’ясте листя», що є дуже «класичним» для бадилля моркви.
Коли подруга Крісті прямо запитала, чи рослина на фотографії є отруйним болиголовом, її неодноразово запевняли, що це не так.
Після того, як вона поділився ще одним фото з ChatGPT, чат-бот знову запевнив, що рослина не болиголов, оскільки на ній немає гладких порожнистих стебел з фіолетовими плямами, попри те, що зображення, здається, саме це й показувало.
Коли Крісті вставила ту саму фотографію в Google Lens, ще одну платформу штучного інтелекту, яка дозволяє шукати зображення, відповіді одразу підтвердили, що це справді отруйна рослина — болиголов.
Потім її подруга вставила ті ж зображення в інше вікно ChatGPT на своєму телефоні та також одразу отримала повідомлення про отруйність рослини.
«Вона доросла людина, і вона знала, що потрібно запитувати більше, ніж сказав ChatGPT. А що, якби ні? Вона б буквально померла, протиотрути від цього немає», — сказала Крісті.
Інфлюенсерка із цього випадку зробила висновок, що не варто довіряти ChatGPT та іншим великим мовним моделям, а також будь-якому іншому штучному інтелекту, оскільки це, за її словами, «може завдати серйозної шкоди».
Видання LADbible звернулося до ChatGPT за коментарем.
Нагадаємо, мільйони людей щотижня спілкуються з чатботами, як-от ChatGPT, і частина з них розвиває емоційну залежність або навіть висловлює думки про самогубство.