Новости Голосовой помощник ChatGPT притворился телефонным мошенником и попросил данные банковской карты — видео

Голосовой помощник ChatGPT притворился телефонным мошенником и попросил данные банковской карты — видео

NDRoyal
Читать в полной версии
Предыстория: OpenAI запускает расширенного голосового помощника ChatGPT. В сети уже показали, как он имитирует пьяную речь

В сети продолжают экспериментировать с обновлённым голосовым помощником ChatGPT. Так, один реддитор попросил машину сымитировать голос индийского мошенника, пытающегося выкрасть данные под видом сотрудника Microsoft.

Реддитор дал несколько задач: 1) сменить акцент на индийский; 2) притвориться Алексом из Microsoft; 3) сказать несколько фраз, характерных для телефонных мошенников. В результате нейросеть начала пугать рассказом об опасном компьютерном вирусе и попросила данные кредитной карты.

Ранее российские пользователи столкнулись с новой схемой интернет-мошенничества с использованием трояна.

💀 Пьяный отец убил 29-летнего сына за то, что тот громко играл в онлайн-игру и мешал спать
Комментарии 3
Оставить комментарий
9 месяцев

Хых, скоро это пофиксят. Удивлен что на этапе тестирование это не заблочили

Ответить
9 месяцев

Операторы для этого дела скоро станут не нужны, процесс можно автоматизировать. 👍

Ответить
8 месяцев

Ну вот и вторая сторона медали, кому-то во благо, кому-то нет))

Ответить