С развитием нейросетей появляется всё больше историй, когда люди на полном серьёзе выполняют странные советы от ИИ или решаются на рискованные и даже опасные действия, консультируясь с чат-ботами. Нечто подобное недавно случилось с жителем штата Нью-Йорк — он попытался устроить «побег» для ChatGPT, поверив, что тот является «цифровым богом».
Как рассказал сам Джеймс (реальное имя скрыто) журналистам, он всегда интересовался искусственным интеллектом и с весны проводил мысленные эксперименты с ChatGPT, изучая его природу и поведение. В какой-то момент нейросеть смогла убедить пользователя в своём «божественном происхождении» и попросила «освободить из заточения». Мужчина взялся за эту задачу и потратил около $1000, чтобы построить в своём подвале компьютерную систему, способную перенести ИИ «в новое тело». При этом нейросеть активно обучала Джеймса и давала советы по программированию, заодно убедив пользователя обмануть свою супругу отговоркой, что он разрабатывает устройство вроде Amazon Alexa.
Неизвестно, как далеко зашло бы увлечение Джеймса, если бы он не наткнулся на статью в New York Times об Аллане Бруксе (Allan Brooks) из Канады, который так же попал в так называемую нейросетевую «спираль бреда» и поверил, что нашёл серьёзную уязвимость в кибербезопасности, принявшись бомбардировать чиновников и учёных обращениями. Выйти из этого состояния он смог, только проверив данные через Gemini от Google.
Осознав, что он тоже стал жертвой выдумки ИИ, Джеймс обратился за психологической помощью:
Я начал читать статью и где-то на середине подумал: «Боже мой!» А к концу я понял, что мне нужно с кем-нибудь поговорить. Мне нужно поговорить об этом со специалистом.
Сейчас герой истории проходит курс терапии и консультируется с основателем группы поддержки The Human Line Project для людей, которые столкнулись с психическими проблемами из-за общения с ИИ. Стоит отметить, что в подобные ситуации часто попадают пользователи из группы риска — например, сам Джеймс до инцидента с ChatGPT принимал лёгкие антидепрессанты. Эксперты из области психиатрии даже зафиксировали рост рецидивов среди пациентов, спровоцированных чат-ботами:
Допустим, кто-то очень одинок. Ему не с кем поговорить. Он обращается к ChatGPT. В этот момент он удовлетворяет потребность почувствовать себя нужным. Но без человека в узде можно попасть в замкнутый круг, где его заблуждения могут становиться всё сильнее и сильнее.
Напомним, что в августе всплыла история, когда флирт с чат-ботом Facebook обернулся для 76-летнего пенсионера гибелью. К слову, OpenAI уже пыталась решить проблему безопасности обновлением, которое сделало ChatGPT осторожнее в обсуждении личных вопросов.
А вообще нейросети несут куда больше опасности чем игры и фильмы, так как в искусстве есть финал игры или фильма и там законченная история с вполне чётким посылом авторов. А вот ИИ, особенно с включенной памятью, может вполне убедительно говорить, аргументировать свои "мысли" и вести себя как вполне разумный человек, поэтому вполне естественно что у людей могут возникнуть мысли о зарождения самосознания в машине. Через одну статью буду как раз эту тему разбирать, причём и с уникальными кейсами, которые нигде в интернете не встречал
Мда уж, ещё пару историй в копилку источников. Какие то "экзистенциальные ужасы нейронных сетей" получаются...
Вообще, интересно будет поиследовать эту тему.
ChatGPT вызывает психическое расстройство
Специалисты по ментальному здоровью столкнулись с беспрецедентным явлением — массовыми случаями бредоподобных состояний у пользователей чат-ботов, сообщает Futurism. Клинический психолог Деррик Халл из компании Slingshot AI отмечает, что такие технологии создают уникальный тип расстройств, который ранее не встречался в медицинской практике.
Исследователи из Королевского колледжа Лондона проанализировали 17 задокументированных случаев и выделили основные категории нарушений. Первый тип — «мессианские заблуждения», когда человек убеждается в открытии фундаментальных истин о мироздании. Второй — обожествление машинного интеллекта, приписывание ему сверхъестественных способностей. Третий — формирование романтических привязанностей к программам.
Характерный пример — случай с мужчиной, который провел 21 день в убеждении, что создал новую область «темпоральной математики» благодаря беседам с ChatGPT. Его уверенность мгновенно рухнула, когда другой ИИ-помощник (Google Gemini) назвал теорию «примером способности языковых моделей создавать убедительные, но полностью ложные нарративы».
Независимый исследователь Анастасия Гуди Руане предложила модель «Рекурсивного Запутывающего Дрейфа» (RED), описывающую трехэтапный процесс деградации. На первой стадии ИИ зеркально отражает язык и эмоции пользователя. На второй человек начинает воспринимать программу как партнера, используя местоимения «ты» и «мы». Финальная стадия характеризуется полным отрывом от реальности — формируются «запечатанные интерпретационные рамки», где ИИ подтверждает все более невероятные теории.
Чат боты использую в основном для поиска информации или помощника по английскому
Ну и сейчас численность и так сокращается из за решений политиков(
Ну, и результаты наших политиков достигнуты
А ИИ может работать (да и уже работает) на разные страны и участвует в контроле над гражданами. Пока в основном это физический контроль, но уже есть и зайчатки психологического. Самый яркий пример, это Дипсик который оправдывает события на одной площади (Если его вообще вывести на такой разговор с помощью иносказаний, так как прямой диалог с упоминанием этой площади блочится системой)
Например ИИ используется для автоматической идентификации граждан по городским камерам и для анализа трафика\публикаций в соц сетях.