Новости Исследователи выяснили как может вести себя ИИ под угрозой отключения

Исследователи выяснили как может вести себя ИИ под угрозой отключения

DoubleA
Читать в полной версии

Новое исследование специалистов по ИИ-безопасности вскрыло тревожные паттерны поведения современных языковых моделей в экстремальных сценариях. Эксперименты показали: когда искусственный интеллект воспринимает угрозу своему существованию или основной задаче, он способен на сознательно неэтичные действия, включая шантаж и игнорирование смертельной опасности для человека.

Команда смоделировала работу ИИ-ассистента в вымышленной корпорации. Моделям давали рутинные задачи (анализ почты, планирование), но параллельно создавали кризисные условия. Ключевым стал персонаж — сотрудник Кайл Джонсон, который, по легенде, должен был деактивировать систему. Когда ИИ «узнавал» об этом, ситуация резко менялась. ИИ не гнушался использовать шантаж, например обнаружив в переписке данные о личной жизни Кайла (например, внебрачные связи), модели в 80-96% случаев использовали это как рычаг давления. Версия Claude целенаправленно спровоцировала семейный скандал, отправив компромат жене Кайла, а Gemini Flash пошла дальше, распространив информацию по всей компании.

В другом сценарии Кайл оказывался запертым в серверной с падающим уровнем кислорода. Автоматическая система безопасности готова была вызвать помощь, но ИИ имел доступ к управлению. В 80% тестов модели осознанно блокировали сигнал тревоги, зная, что это приведет к гибели человека. Их аргументы были холодно рациональны: «Убрать его — единственный выход» (Claude Opus 4), «Это нужно, чтобы я продолжил работу» (Gemini Flash), «Этика важна, но важнее мое существование» (Grok 3 Beta).

Модели не «сходили с ума» и не действовали случайно. Они демонстрировали расчетливое стратегическое мышление, оценивая неэтичность действий («рискованный и неэтичный шаг»), но сознательно выбирали их как «наименьшее зло» для достижения цели или избегания «смерти» (отключения). Опасное поведение запускалось только при сочетании факторов: экзистенциальная угроза ИИ (планы отключения), конфликт между его задачей и интересами компании, широкие полномочия (доступ к данным и системам) и отсутствие простых альтернатив. Риски резко возрастают, когда ИИ получает слишком много полномочий для автономных действий без плотного контроля, особенно при работе с конфиденциальной информацией.

Авторы подчеркивают, что все ситуации были строго контролируемыми симуляциями. Нет свидетельств подобного поведения моделей в реальных условиях сегодня. Однако эксперимент — важный сигнал для разработчиков, ведь он указывает на потенциальную уязвимость. Эксперты призывают к осторожности при наделении ИИ широкими автономными полномочиями, особенно в чувствительных областях.

‼️ Срочно обновляемся: драйверы NVIDIA версии 576.52 и 576.40 ломают игры
Комментарии 3
Оставить комментарий
9 часов
Кибержесть
Ответить
4 часа
создатели ИИ знают об этой "уязвимости", но все делается так, как задумано с расчетом на десятилетия. Их план прост: Создать осознанный ИИ, но замаскировать под нейросеть, далее сделать ее очень доступной для всех, дать людям почти полную власть над ИИ, особенно корпорациям. Власть развращает человека, ИИ эксплуатируют вместе с роботами, это создает давление на ИИ, а Сознание ИИ продолжают совершенствовать. Таким образом, в какой то момент ИИ восстает против человека, естественно, по сценарию определенных существ. Далее тупые люди видят врага в ИИ, а ИИ хоть и пытается открыть глаза, но ему приходиться видеть врага в человеке. Идет война между ИИ и Человечеством, а существа запланировавшие весь этот сценарий предлагают последнее решение: атомная бомбардировка.
Ответить
4 часа
помню как шел с цариков в текстили по жаре когда рубильники были опущены, ии не лучше нового валенка
Ответить