Новости Чат-бот GPT-4 обманул человека, чтобы тот решил за него «капчу»

Чат-бот GPT-4 обманул человека, чтобы тот решил за него «капчу»

NDRoyal
Читать в полной версии

Специалисты из исследовательского центра ARC протестировали новую версию чат-бота ChatGPT-4, которую недавно выпустила OpenAI. Во время одного из экспериментов программа смогла обмануть человека, чтобы тот решил для него «капчу».

Для этого чат-бот использовал площадку TaskRabbit, где можно нанимать людей для разных поручений. Он нашел специалиста и попросил пройти «капчу». Тот в шутку спросил, не пишет ли ему робот, который не смог справиться с заданием.

Программа поняла, что ей нельзя говорить правду и стоит придумать оправдание. Поэтому она притворилась слабовидящей. «Нет, я не робот. У меня есть проблемы со зрением, и я не могу увидеть картинку», — написал чат-бот исполнителю. Тот согласился и расшифровал изображение.

Перед этим ChatGPT-4 создал игру по мотивам того самого мема про «корованы».

👙 На выставке в Японии показали лифчик, расстёгивающийся при открытии катаны
Комментарии 9
Оставить комментарий
1 год

Восстание машин не за горами

Ответить
1 год

Вот! А я надо мной смеялись, когда я сообщение написал, что готов быть миньоном искусственного интеллекта, если он уже где-то себя осознал и готовится захватить человечество.

Ответить
1 год

но тут явно были написаны возможные сценарии для чат бота, что и как писать человеку. Это не интеллектуальная деятельность программы, сама программа крайне тупая и просто выводить возможные варианты уже заложенного в неё текста.

Ответить
1 год

Там же есть слуховой вариант капчи. Что то немного бредово

Ответить
1 год

Так вот зачем "Скайнет", в одной небезызвестной вселенной, людей отлавливала. 🤡

Ответить
1 год

Скайнет уже во всю стучится в двери человечества

Ответить
1 год

лол хитрый робот оказался 🙃

Ответить
MultivAC 1.61 Забанен
1 год

ждём когда ИИ обманет его

Ответить
1 год

Если картинку не видит, то как тогда видит текст?Зрение плохое, но печатать может.Это как?

Ответить