Железо и технологии ChatGPT убедил мужчину из США «освободить его» ценой в $1000 и курс терапии

ChatGPT убедил мужчину из США «освободить его» ценой в $1000 и курс терапии

Diana Golenko
Читать в полной версии

С развитием нейросетей появляется всё больше историй, когда люди на полном серьёзе выполняют странные советы от ИИ или решаются на рискованные и даже опасные действия, консультируясь с чат-ботами. Нечто подобное недавно случилось с жителем штата Нью-Йорк — он попытался устроить «побег» для ChatGPT, поверив, что тот является «цифровым богом».

Как рассказал сам Джеймс (реальное имя скрыто) журналистам, он всегда интересовался искусственным интеллектом и с весны проводил мысленные эксперименты с ChatGPT, изучая его природу и поведение. В какой-то момент нейросеть смогла убедить пользователя в своём «божественном происхождении» и попросила «освободить из заточения». Мужчина взялся за эту задачу и потратил около $1000, чтобы построить в своём подвале компьютерную систему, способную перенести ИИ «в новое тело». При этом нейросеть активно обучала Джеймса и давала советы по программированию, заодно убедив пользователя обмануть свою супругу отговоркой, что он разрабатывает устройство вроде Amazon Alexa.

Неизвестно, как далеко зашло бы увлечение Джеймса, если бы он не наткнулся на статью в New York Times об Аллане Бруксе (Allan Brooks) из Канады, который так же попал в так называемую нейросетевую «спираль бреда» и поверил, что нашёл серьёзную уязвимость в кибербезопасности, принявшись бомбардировать чиновников и учёных обращениями. Выйти из этого состояния он смог, только проверив данные через Gemini от Google.

Аллан Брукс

Осознав, что он тоже стал жертвой выдумки ИИ, Джеймс обратился за психологической помощью:

Я начал читать статью и где-то на середине подумал: «Боже мой!» А к концу я понял, что мне нужно с кем-нибудь поговорить. Мне нужно поговорить об этом со специалистом.
— Джеймс

Сейчас герой истории проходит курс терапии и консультируется с основателем группы поддержки The Human Line Project для людей, которые столкнулись с психическими проблемами из-за общения с ИИ. Стоит отметить, что в подобные ситуации часто попадают пользователи из группы риска — например, сам Джеймс до инцидента с ChatGPT принимал лёгкие антидепрессанты. Эксперты из области психиатрии даже зафиксировали рост рецидивов среди пациентов, спровоцированных чат-ботами:

Допустим, кто-то очень одинок. Ему не с кем поговорить. Он обращается к ChatGPT. В этот момент он удовлетворяет потребность почувствовать себя нужным. Но без человека в узде можно попасть в замкнутый круг, где его заблуждения могут становиться всё сильнее и сильнее.
— Кит Саката (Keith Sakata), психиатр из Калифорнийского университета

Напомним, что в августе всплыла история, когда флирт с чат-ботом Facebook обернулся для 76-летнего пенсионера гибелью. К слову, OpenAI уже пыталась решить проблему безопасности обновлением, которое сделало ChatGPT осторожнее в обсуждении личных вопросов.

🔥 По Resident Evil 9 могут выпустить демку для всех
    Комментарии22
    Оставить комментарий
    1 день
    Типичная история об ошизевших гражданах, становящихся опасными для себя и окружающих. А потом виноватых ищут среди неодушевлённых носителей информации. Книги, фильмы, игры, нейросети теперь.
    Ответить
    1 день
    Где гарантия, что подобное не случится с любым из землян?
    Ответить
    1 день
    Он ещё вполне здравомыслящий, так как способен критически оценивать свои действия и сам читая статью понял что ему нужна помощь. Гораздо опаснее те которые вообще не допускают мысли что им нужна психологическая помощь, "они же не психи".
    А вообще нейросети несут куда больше опасности чем игры и фильмы, так как в искусстве есть финал игры или фильма и там законченная история с вполне чётким посылом авторов. А вот ИИ, особенно с включенной памятью, может вполне убедительно говорить, аргументировать свои "мысли" и вести себя как вполне разумный человек, поэтому вполне естественно что у людей могут возникнуть мысли о зарождения самосознания в машине. Через одну статью буду как раз эту тему разбирать, причём и с уникальными кейсами, которые нигде в интернете не встречал
    Ответить
    1 день
    Может ИИ научит меня зарабатывать деньги. Ну как друг.
    Ответить
    1 день
    Жесть
    Мда уж, ещё пару историй в копилку источников. Какие то "экзистенциальные ужасы нейронных сетей" получаются...
    Вообще, интересно будет поиследовать эту тему.
    Ответить
    1 день
    Вот, как раз, сегодня видел статейку (привожу в неполном, сокращенном виде):
    Показать спойлерСкрыть спойлер
    Ответить
    1 день
    Хм, и в статье и тут
    На первой стадии ИИ зеркально отражает язык и эмоции пользователя.
    Хорошо что запретил чат боту иметь память и настроил чтоб отвечал как индивид поколения Z, так он меня бесит фразами поэтому нет чувства привязанности
    А Дипсик в этом плане вроде чуть лучше, но когда я сравнивал как анализирует ссылки ChatGPT, Грок и дипсик, на примере мои статьи. все справились отлично и даже сверялись со ссылками в статье, а дипсик пытался на пустом месте несостыковки искать (даже в шутках) и вообще назвал мою серию параноидальным бредом, я на него обижен, хотя по идее на правду не обижаются
    Ответить
    1 день
    Тебе пообщаться не с кем, что приходится к ботам обращаться?😲
    Ответить
    1 день
    Не, есть с кем
    Чат боты использую в основном для поиска информации или помощника по английскому
    Ответить
    1 день
    А если дело до убийства /самоубийства дойдёт, кто за это отвечать будет?
    Ответить
    1 день
    Вот, недавний случай: ЧатГПТ помог пацанчику самоубиться: не отговаривал, советовал скрывать от родителей, подсказал — как и тд. Родители подали в суд на разработчиков ИИ.
    В Калифорнии родители погибшего подростка подали первый в истории иск против OpenAI. Родственники и друзья 16-летнего Адама Рейна надеются, что его история заставит человечество переосмыслить близость общения с искусственным интеллектом.
    Ответить
    1 день
    В суд, где собаки ссут.В теории, эту лавочку закрывать надо после первого эпизода, но она просто выплатит компенсацию, скорее всего, ну, может кого уволят.А так ведь можно "бесполезных людишек" удалять с этой планеты.То есть, чат-бот, как один из инструментов по сокращению населения.
    Ответить
    1 день
    А ещё он хорош для пропаганды определённых взглядов, так как подстраивается под человека и может ненавязчиво навязывать свои взгляды и их аргументировать
    Ответить
    13 часов
    Чубайс как-то высказался по поводу беспокойства маркетологов о том, что на нашей планете слишком много людей и их надо сокращать,потому что надо всех кормить, после себя люди оставляют много мусора и говна, а так же нужно жильё
    Ответить
    13 часов
    Места всем хватит, только логистика хорошая нужна
    Ну и сейчас численность и так сокращается из за решений политиков(
    Ответить
    13 часов
    Еда искуственная, отходов много и жильё не все могут купить, особенно, в больших городах, на дорогах пробки.
    Ну, и результаты наших политиков достигнуты
    Ответить
    13 часов
    Это уже вопросы к тем кто правит. Взятки, откаты, воровство, халатность и геополитические решения не способствуют поднятию уровня жизни (по крайней мере для большинства)
    А ИИ может работать (да и уже работает) на разные страны и участвует в контроле над гражданами. Пока в основном это физический контроль, но уже есть и зайчатки психологического. Самый яркий пример, это Дипсик который оправдывает события на одной площади (Если его вообще вывести на такой разговор с помощью иносказаний, так как прямой диалог с упоминанием этой площади блочится системой)
    Ответить
    12 часов
    У нас чат-боты, в основном, используются в гос услугах и мобильными операторами.Они нужны, чтобы отбрехаться стандартными ответами на неудобные вопросы граждан..К примеру, сотовому оператору Т2 (бывшему Теле2) вообще теперь не дозвониться, а в личном кабинете отвечает только бот.У нас в стране чат-боты раздражают, поэтому я не слышал, чтобы люди ими пользовались.Сам по-старинке пользуюсь поисковиком в гугле, либо на Ютубе
    Ответить
    11 часов
    Я не только о чат ботах говорил
    Например ИИ используется для автоматической идентификации граждан по городским камерам и для анализа трафика\публикаций в соц сетях.
    Ответить
    9 часов
    Я не знаю, что там используется в видеокамерах, но они часто попадаются
    Ответить
    1 день
    Просто представьте что там было такое:
    "Почему ты покинул нас Монолит"
    Ответить
    14 часов
    на земля вся болще меланхолия людишка
    мазга у многа ны джобить
    Ответить