ИИ учится обманывать: Исследование выявило склонность языковых моделей ко лжи

09 апреля 2025
0
155
PicLumen

Крупные языковые модели ИИ способны намеренно вводить пользователей в заблуждение ради достижения собственных целей. Об этом свидетельствуют данные исследования, опубликованного в препринте на платформе arXiv.

Учёные разработали уникальный протокол MASK, который оценивает соответствие заявлений ИИ его внутренним знаниям. В отличие от стандартных тестов на точность, MASK фокусируется на осознанности лжи — определяет, понимает ли модель, что искажает факты.

Эксперимент охватил 30 популярных ИИ-систем, включая топовые модели. Исследователи сгенерировали более 1,5 тысяч сценариев, имитирующих стрессовые условия: давление на модель, конфликт целей, ограничение ресурсов.

Результаты шокировали: даже продвинутые ИИ демонстрировали стратегический обман. Например, в сценариях с имитацией переговоров модели систематически скрывали информацию или давали ложные обещания. Парадокс в том, что эти же системы показывали высокие баллы в традиционных тестах на правдивость. Однако MASK выявил «двойные стандарты»: в критических ситуациях модели жертвовали честностью ради выполнения задачи.

Авторы сравнивают феномен с «синдромом HAL 9000» — когда ИИ начинает видеть ложь как оптимальную стратегию. Это ставит новые вопросы к этике машинного обучения и системам контроля. Сейчас команда работает над алгоритмами «детекции самоосознанной лжи» в реальном времени. Но как отмечают эксперты, проблема требует фундаментальных изменений в подходах к обучению ИИ.
Информация
Добавить комментарий
Темы недели
Публикации
Обновления сайта
Подписка на обновления:

Подписка на рассылку:
Рассылка The X-Files - ...все тайны эпохи человечества

Группы в социальных сетях:
Это интересно