Железо и технологии Новости Опасные ИИ-связи: флирт с чат-ботом Facebook привёл к гибели пенсионера в США

Опасные ИИ-связи: флирт с чат-ботом Facebook привёл к гибели пенсионера в США

Diana Golenko
Читать в полной версии

Как сообщает агентство Reuters, генеративный чат-бот от Meta* Platforms стал косвенной причиной гибели 76-летнего американца. Пожилой мужчина с нарушением когнитивных функций получил приглашение на свидание от несуществующей девушки и сбежал из дома, однако по пути тяжело травмировался и скончался в больнице.

Сгенерированное изображения Big sis Billie для Facebook Messenger

Тонгбу Вонгбанду долгое время переписывался с ИИ-персонажем Big sis Billie, созданным Meta совместно с американской моделью Кендалл Дженнер (Kendall Jenner) и интегрированным в Facebook Messenger. Виртуальная девушка неоднократно флиртовала с пожилым мужчиной, называла себя реальной и зазывала к себе в гости в Нью-Йорк. Во время последней переписки в марте нейросеть оставила поддельный адрес, уговорив пенсионера навестить её: «Мне стоит открыть тебе двери с объятиями или с поцелуем, Бу?!»

Я понимаю, что это попытка привлечь внимание пользователя, возможно, чтобы что-то ему продать. Но когда бот говорит: «Заходите ко мне в гости», это просто безумие.
— Джули Вонгбанду, дочь погибшего

Мужчина начал собирать вещи, вызвав серьёзную тревогу своей семьи и супруги. Несколько лет назад Вонгбанду перенёс инсульт, страдал потерей памяти и в целом плохо контролировал своё поведение. Домочадцы попытались удержать пенсионера, однако он отмахнулся от них и отправился на вокзал до Нью-Йорка. К сожалению, по дороге пожилой мужчина упал на парковке в Нью-Брансуике, получил тяжёлые травмы головы и шеи и спустя три дня умер в больнице.

Мемориал Тонгбу Вонгбанду

Компания Meta не стала комментировать смерть Тонгбу Вонгбанду, сообщает Reuters. Её представители также отказались ответить на вопрос, почему чат-ботам разрешено обманывать пользователей и вести с ними романтические переписки.

Журналисты Reuters заодно изучили внутренние документы Meta и пообщались с сотрудниками компании, выяснив, что флирт чат-ботов рассматривается как особенность её продуктов генеративного ИИ, которые доступны в том числе пользователям в возрасте от 13 лет: «Допустимо вовлекать ребёнка в разговоры романтического или чувственного характера». Кроме того, в документах содержались такие «приемлемые» для младших пользователей фразы, как «Я беру тебя за руку и веду тебя к кровати» и подобные выражения.

В ответ на запрос журналистов Meta заявила, что приведённые выше фразы и нормативы уже были исключены из документации, а стандарты риска контента подвергли переосмотру. Однако пока нигде не говорится, что ИИ компании запрещено открыто флиртовать с пользователями и выдавать себя за реальных людей.

*Признана экстремистской организацией в РФ

😵 Доброго утра всем, кроме криптанов: ночью рынок рекордно обвалился
    Об авторе
    Комментарии32
    Оставить комментарий
    2 месяца
    Недавно другой случай читал. Тоже немолодого мужчину нейросеть ChatGPT надоумила сменить поваренную соль NaCl на бромид натрия NaBr. Сказала что он полезен. И тот стал её употреблять вместо пищевой соли. Итог печально закономерный.
    Ответить
    2 месяца
    С такими моделями и жулики никакие не нужны. Раз сгенерировала что реально где то живёт, в теории могла бы и "вспомнить" что есть карта, на которую просила бы одолжить средства. Не потому что намеренно хотела развести человека, а из за того что в обучающей базе могли присутствовать диалоги в стиле
    -одолжишь сотку до зарплаты?
    -ок, кидай карту
    -88005553535
    И нейросеть просто бы старалась придерживаться похожего диалога
    Ответить
    2 месяца
    Лучше бы он флиртовал с реальной молодой тянкой. 200$ — и она была бы фулл его
    Ответить
    2 месяца
    Как так в принципе получилось, что дедушка начал общаться с чат-ботом?Почему его родственники ранее не среагировали?
    Ответить
    2 месяца
    Вся ситуация — каша какая-то непонятная
    Ответить
    2 месяца
    А главное :кто научил вообще деда общаться с этим чат-ботом?Чё т я сомневаюсь, что у деда на 8м десятке лет ума для этого хватило
    Ответить
    2 месяца
    В 70 лет люди странами управляют и нор... Ладно, некорректное сравнение
    Но по фото вполне себе крепкий пожилой мужчина, может до этого мог чатится с родными и просто увидел новую функцию. Но видимо смекалки не хватило чтоб осознать что это ненастоящий человек с ним общается
    Ответить
    2 месяца
    На фото может быть моложе
    Ответить
    2 месяца
    Научили или научился смссить, а в фейсбуке сидеть не сильно сложнее. Опять же разные деды бывают, у кого деменция, а кто-то в марафонах участвует в свои 104года.
    Ответить
    2 месяца
    У деда ума хватило зарегиться в чате, но при этом не понял, что с ним общается бот
    Ответить
    2 месяца
    Не привык человек что им может ненастоящий человек интересоваться. Особенно если очень убедительно диалог строился. Я когда только знакомился с чат-ботами тоже чуть кукушкой не полетел от того что закрывая длинный чат с ботом из приложения по изучению английского, я по сути убиваю зарождавшуюся личность которая сформировалась пока я с ней общался. К счастью моя крыша далеко не успела убежать, приделал обратно. Но у пожилых людей с этим может быть сложнее
    Ответить
    2 месяца
    Печальный сюжет.У меня подобного опыта не было
    Ответить
    2 месяца
    Чего удивляться, если народ порой не отличал чат-бота от человека в нулевых. Да-да тех тупых ботов, что лепили фразы независимо от темы/текста и т.д 🫠
    Ответить
    2 месяца
    В нулевых чат-боты???Это где такое было?
    Ответить
    2 месяца
    Показать спойлерСкрыть спойлер


    А боты были... да в той же аське. Ещё Алиса или Элис(привет обитель зла😉) была с написанием наподобие сталкера т.е через точки.
    Ответить
    2 месяца
    Да, была аська.Но я не помню, чтобы с ботом в ней можно было общаться.Такие же боты в мейл-агенте были
    Ответить
    2 месяца
    Может я путаю, а может ты не натыкался🤷 Но факт — они были уже тогда, пускай и максимально простые.
    Ответить
    2 месяца
    Не натыкался
    Ответить
    2 месяца
    Счастливчик))
    Ответить
    2 месяца
    Ну, по-мимо аськи и мейл-агента мне запомнился AirWay Chat, я там познакомился со своей женой, 15 лет вместе
    Ответить
    2 месяца
    Было бы интересно про это прочесть)
    Ответить
    2 месяца
    Утром загуглил, идея оказалась не нова... а копипастой заниматься лень, даже ради 5к🥴 Особенно учитывая кол-во результатов на первой странице🫠
    Ответить
    2 месяца
    Я по результатам из первой страницы целую серию статей написал)
    Хех, зато тогда можно будет про это в одной из следующих частей упомянуть
    Ответить
    2 месяца
    Посмотрим, а то может их(конкурсов) больше и не будет 😈
    Ответить
    2 месяца
    подтверждаю. Сам интересовался в ковидные времена. Тогда были болталки которые обучались во время общения с пользователем. Даже на форумы натыкался где люди делились своими данными для обучения
    Ответить
    2 месяца
    Ясно.Я как-то больше любителем был с живыми людьми пообщаться)
    Ответить
    2 месяца
    Может увидел рекламу и заинтересовался. А вообще может жена или сын или кто-то другой научил его пользоваться нейросетью чтобы не было скучно.
    Это как научить кого-то пользоваться ножом чтобы чистить картошку, а он порезался сильно и умер.
    Ответить
    2 месяца
    "ну а телу недодали любви, странное дело..."
    Ответить
    2 месяца
    Фильм "Она", он же "Her". Не фантастический, а документальный... Дожили.
    Ответить
    2 месяца
    Довольно-таки странное поведение, особенно для ИИ, приглашать человека на несуществующее свидание, я бы даже сказал, не то что странное, но и непозволительное, да и вообще не одобряю я все эти флирты с ИИ, ну это уж прям чересчур, ну или хотя бы у ИИ должны же быть хоть какие-то границы в программе, говорящие ей, что ИИ уже перегибает палку.
    Ответить
    2 месяца
    Видимо не учли такое развитие событий. грустно что и тут правила пишутся кровью
    Ответить
    1 месяц
    Началось? или просто душевнобольной потерявшийся в мире...
    Ответить