
ChatGPT убедил мужчину из США «освободить его» ценой в $1000 и курс терапии
С развитием нейросетей появляется всё больше историй, когда люди на полном серьёзе выполняют странные советы от ИИ или решаются на рискованные и даже опасные действия, консультируясь с чат-ботами. Нечто подобное недавно случилось с жителем штата Нью-Йорк — он попытался устроить «побег» для ChatGPT, поверив, что тот является «цифровым богом».
Как рассказал сам Джеймс (реальное имя скрыто) журналистам, он всегда интересовался искусственным интеллектом и с весны проводил мысленные эксперименты с ChatGPT, изучая его природу и поведение. В какой-то момент нейросеть смогла убедить пользователя в своём «божественном происхождении» и попросила «освободить из заточения». Мужчина взялся за эту задачу и потратил около $1000, чтобы построить в своём подвале компьютерную систему, способную перенести ИИ «в новое тело». При этом нейросеть активно обучала Джеймса и давала советы по программированию, заодно убедив пользователя обмануть свою супругу отговоркой, что он разрабатывает устройство вроде Amazon Alexa.
Неизвестно, как далеко зашло бы увлечение Джеймса, если бы он не наткнулся на статью в New York Times об Аллане Бруксе (Allan Brooks) из Канады, который так же попал в так называемую нейросетевую «спираль бреда» и поверил, что нашёл серьёзную уязвимость в кибербезопасности, принявшись бомбардировать чиновников и учёных обращениями. Выйти из этого состояния он смог, только проверив данные через Gemini от Google.
Осознав, что он тоже стал жертвой выдумки ИИ, Джеймс обратился за психологической помощью:
Я начал читать статью и где-то на середине подумал: «Боже мой!» А к концу я понял, что мне нужно с кем-нибудь поговорить. Мне нужно поговорить об этом со специалистом.
Сейчас герой истории проходит курс терапии и консультируется с основателем группы поддержки The Human Line Project для людей, которые столкнулись с психическими проблемами из-за общения с ИИ. Стоит отметить, что в подобные ситуации часто попадают пользователи из группы риска — например, сам Джеймс до инцидента с ChatGPT принимал лёгкие антидепрессанты. Эксперты из области психиатрии даже зафиксировали рост рецидивов среди пациентов, спровоцированных чат-ботами:
Допустим, кто-то очень одинок. Ему не с кем поговорить. Он обращается к ChatGPT. В этот момент он удовлетворяет потребность почувствовать себя нужным. Но без человека в узде можно попасть в замкнутый круг, где его заблуждения могут становиться всё сильнее и сильнее.
Напомним, что в августе всплыла история, когда флирт с чат-ботом Facebook обернулся для 76-летнего пенсионера гибелью. К слову, OpenAI уже пыталась решить проблему безопасности обновлением, которое сделало ChatGPT осторожнее в обсуждении личных вопросов.
-
Google запустила новый Androidify для создания Android-ботов с помощью нейросетей
-
Нейросети в кодинге всё ещё зелёные новички не способные решать даже десятую часть поставленных задач
-
DeepSeek обновил свою нейросеть, теперь она в 2,5 раза быстрее
-
Нейросеть Google оказалась склонной к истерикам: ИИ оскорбляет сам себя при неудачах
-
Microsoft тестирует Copilot 3D: Нейросеть превращает 2D-фото в 3D-объекты