Некоторые пользователи воспринимают искусственный интеллект как человека.
OpenAI заявила, что человекообразный голос для чат-бота ChatGPT может соблазнить некоторых пользователей эмоционально привязаться к нему.
Об этом говорится в анализе безопасности компании, пишет Wired.
Компания внесла этот фактор в "системную карту" для GPT-4o как потенциальный риск, связанный с моделью.
Когда OpenAI впервые представила голосовой режим чат-бота, многие отмечали, что на демонстрации он звучал слишком кокетливым. Позже компания столкнулась с критикой со стороны актрисы Скарлетт Йоганссон. Она обвинила разработчиков в копировании ее голоса и манере общения.
Раздел системной карты под названием "Антропоморфизация и эмоциональная зависимость" исследует проблемы, возникающие, когда пользователи воспринимают искусственный интеллект как человека. А голосовой режим, который пытается имитировать разговор с живым человеком, очевидно этому очень способствует.
Например, во время стресс-тестирования GPT-4o исследователи OpenAI заметили случаи, когда пользователи говорили так, будто испытывали эмоциональную связь с моделью. Например, люди использовали такие фразы, как "Это наш последний день вместе".
Антропоморфизм (наделение вещей человеческим признакам) может заставить пользователей больше доверять результатам работы модели. С течением времени это может даже повлиять на отношения пользователей с другими людьми.
"Пользователи могут формировать социальные отношения с искусственным интеллектом, уменьшая свою потребность во взаимодействии с людьми, что потенциально может принести пользу одиноким людям, но может негативно повлиять на здоровые отношения", — говорится в документе.
Среди других проблем, связанных с голосовым режимом, потенциально новые способы "джейлбрейка" модели. К примеру, голосового ассистента можно вынудить сымитировать чей-то голос.
Сломанный голосовой режим можно заставить выдавать себя за другое лицо или даже можно создать подобие полиграфа, попросив модель расшифровать эмоции собеседника. Голосовой режим может также некорректно работать при наличии случайных шумов. А в одном случае тестировщики заметили, что чат-бот начал имитировать голос своего собеседника.
Эта проблема может стать более распространенной, чем кажется. Некоторые пользователи Character AI и Replika сообщают, что стали меньше нуждаться в социальных контактах с людьми после начала пользования чат-ботом. Некоторые пользователи пишут, что им приходится быть наедине, чтобы пользоваться чат-ботом из-за интимности их взаимодействия.
Напомним, киберспециалисты бьют тревогу. Они считают, что чат-боты с искусственным интеллектом являются настоящей находкой для хакеров. Эксперт объяснил, какие данные можно украсть.
Читайте также:
- Редкое космическое явление: вскоре две планеты Солнечной системы "сойдутся" на ночном небе
- В Украине ожидают мощное землетрясение – когда и где именно (карта)
- Астрономы обнаружили новую планету, пригодную для жизни