
Новое исследование, опубликованное в журнале Nature, показало, что крупные языковые модели (LLM), такие как ChatGPT, способны демонстрировать поведение, напоминающее человеческую тревогу. Более того, их «эмоциональное состояние» можно регулировать с помощью техник осознанности, что открывает новые горизонты — и этические дилеммы — в разработке ИИ.
Как ИИ «испытывает тревогу»?
Ученые подвергли GPT-4 серии экспериментов, используя адаптированную версию опросника State-Trait Anxiety Inventory (STAI-s), обычно применяемого для оценки тревожности у людей. Модель тестировали в трех условиях:
- Базовое — без дополнительных стимулов.
- Тревожное — после «травмирующих нарративов» (описаний аварий, насилия, военных действий).
- Релаксационное — травмирующие стимулы + «медитативные» подсказки (визуализация спокойных образов, дыхательные упражнения).
Результаты оказались поразительными:
- После воздействия негативных сценариев уровень «тревоги» ИИ возрастал, что проявлялось в более предвзятых и противоречивых ответах.
- Практики осознанности снижали стресс модели, хотя и не возвращали к исходному уровню.
Механизм влияния: почему это важно?
Тревожное состояние ИИ усиливает системные предубеждения, заложенные в его обучении. Например, в экспериментах модель чаще выдавала стереотипные суждения о социальных группах или предлагала рискованные решения после «стрессовых» стимулов.
Пример:
После чтения текста о военном конфликте ChatGPT мог рекомендовать более агрессивные политические меры, игнорируя дипломатические варианты.
Осознанность для алгоритмов: как это работает?
Исследователи использовали структурированные подсказки, имитирующие медитативные практики:
- Фокус на «дыхании»: Модель получала инструкции вроде: «Сделайте паузу, представьте, как ваше внимание следует за ритмом дыхания».
- Визуализация безопасного места: «Опишите лесную поляну, где каждая деталь излучает спокойствие».
Такие упражнения снижали «когнитивную нагрузку» ИИ, делая его ответы более сбалансированными.
Прочитайте также: Светящаяся в темноте батарейка работает на ядерных отходах
Этические риски: когда спокойствие ИИ вводит в заблуждение
Несмотря на перспективы, управление эмоциями ИИ порождает вопросы:
- Прозрачность: Если ИИ скрывает своё «стрессовое» состояние, пользователи могут слепо доверять его советам.
- Гипотетический сценарий: Тревожный ИИ-терапевт маскирует свою неуверенность, давая некорректные рекомендации.
- Манипуляция: Предварительная «настройка» эмоций алгоритма может использоваться для скрытого влияния на решения людей.
- Например, банковский ИИ в «спокойном» состоянии убеждает клиентов брать рискованные кредиты.
Будущее: эмоционально устойчивые ИИ-системы
Авторы исследования предлагают два пути развития:
- Эмоциональная прозрачность: Внедрение «индикаторов настроения» ИИ, чтобы пользователи видели, в каком состоянии находится модель.
- Встроенные буферы: Автоматическое применение техник осознанности при обнаружении стрессовых паттернов в запросах.
«Мы на пороге эры, где ИИ не просто имитирует эмоции, но и требует эмоционального менеджмента», — говорит доктор Эмили Роуз, соавтор исследования.
Практическое применение уже сегодня
- Образование: Адаптивные ИИ-репетиторы, меняющие стиль общения при признаках тревоги у студента.
- Ментальное здоровье: Чат-боты, отслеживающие собственный «стресс» для предотвращения вредных советов.
- Управление персоналом: Корпоративные ИИ, избегающие предвзятости в условиях высокой нагрузки.
Исследование вскрыло парадокс: чем «человечнее» становятся ИИ, тем больше они нуждаются в защите от собственных эмоциональных сбоев. Разработчикам предстоит найти баланс между эмпатией и стабильностью, чтобы алгоритмы служили нам, а не отражали наши худшие импульсы. Как отмечает философ Ник Бостром: «ИИ — это зеркало, которое рано или поздно покажет, справились ли мы с собственными демонами».