Алгоритмы ИИ могут ограничить свободу людей

ИИ будет влиять на наши выборы в покупках, формируя потребительские привычки.

ШІ маніпулюватиме людьми / Фото: Рaypal / © Pixabay

Эксперты предполагают, что уже разрабатываются инструменты ИИ, позволяющие выявлять, делать выводы, понимать, прогнозировать и даже манипулировать человеческими планами и целями.

Об этом пишут TechXplore.

Исследователи из Кембриджского центра Леверхалма для изучения будущего интеллекта (LCFI) считают, что быстрое развитие генеративного ИИ и растущая популярность чат-ботов открывают новые возможности для технологий манипулирования убеждениями. Об этом сообщает TechXplore. Подобные намеки уже звучали в заявлениях технологических гигантов.

В ближайшем будущем могут появиться помощники на основе ИИ, способные прогнозировать и влиять на наше принятие решений на ранних этапах, а также продавать эти "намерения" компаниям в реальном времени, еще до того, как мы осознаем, что приняли решение. Такую ситуацию прогнозируют эксперты по этике ИИ из Кембриджского университета, которые называют это "экономикой намерений". Они считают, что человечество в начале создания нового, выгодного, но тревожного рынка цифровых сигналов намерений — от покупки билетов до голосования за кандидатов.

Антропоморфные агенты ИИ, от чат-ботов-помощников до цифровых репетиторов и подруг, будут иметь доступ к огромному количеству интимных психологических и поведенческих данных, часто полученных через неформальный языковой диалог. Это позволит таким помощникам подстраиваться под нас, подражая нашим личностям и прогнозируя желаемые реакции, тем самым создавая уровни доверия и взаимопонимания, позволяющие проводить социальную манипуляцию в промышленных масштабах.

"Огромные ресурсы тратятся на внедрение помощников на основе ИИ во все сферы жизни, что задает вопрос, чьим интересам будут служить эти помощники", — отметил д-р Якуб Чаудхари, научный сотрудник LCFI.

"То, что люди говорят, как они это говорят, и тип выводов, которые можно сделать в реальном времени, гораздо более интимной информацией, чем просто онлайн-взаимодействия", — добавил он.

Д-р Джонни Пенн, историк технологий из Кембриджского института LCFI, объяснил, что в течение десятилетий основной валютой Интернета было внимание. Поделиться своим вниманием через социальные сети стало движущей силой онлайн-экономики.

"Если не регулировать, экономика намерений превратит ваши мотивы в новую валюту, которая станет золотыми приисками для тех, кто манипулирует и продает человеческие намерения", — сказал он.

Пенн и Чаудхари утверждают, что экономика намерений является частью экономики внимания, где отслеживается, как внимание пользователя и стиль общения связаны с его выбором.

В своей статье для Harvard Data Science Review они пишут, что большие языковые модели (LLM) могут определять темп речи, политические взгляды, словарный запас, возраст, пол, историю онлайн-посещений и даже предпочтения лести за минимальные затраты.

Этот сбор данных будет связан с посредническими сетями, чтобы увеличить вероятность достижения определенных целей, например, продать билет в кино.

Пенн и Чаудхари отмечают, что это может включать в себя управление разговорами для рекламодателей, предприятий и политических организаций.

Несмотря на то, что исследователи подчеркивают, что экономика намерений еще находится в стадии развития, они отмечают ранние признаки этой тенденции в технологической отрасли. Среди них – призывы к сбору данных о намерениях человека в любом языке и форме, а также новые инструменты для определения намерений пользователей, такие как платформа "App Intents" от Apple, позволяющая предусматривать будущие действия пользователей.

"Модели ИИ, такие как CICERO от Meta, уже достигли человеческого уровня в игре 'Дипломатия', которая базируется на умозаключениях и прогнозировании намерений", — сказал Чаудхари.

Хотя эти технологии не обязательно плохие, исследователи предупреждают об их потенциально разрушительном влиянии.

Напомним, блоггеры обнаружили, что телефонные звонки из ChatGPT могут угрожать конфиденциальности пользователей, поскольку существует риск утечки личных данных во время разговора.

Читайте также:

Поделиться: