Чат-бот GPT-4 обманул человека, чтобы тот решил за него «капчу»

Специалисты из исследовательского центра ARC протестировали новую версию чат-бота ChatGPT-4, которую недавно выпустила OpenAI. Во время одного из экспериментов программа смогла обмануть человека, чтобы тот решил для него «капчу».

Для этого чат-бот использовал площадку TaskRabbit, где можно нанимать людей для разных поручений. Он нашел специалиста и попросил пройти «капчу». Тот в шутку спросил, не пишет ли ему робот, который не смог справиться с заданием.

Программа поняла, что ей нельзя говорить правду и стоит придумать оправдание. Поэтому она притворилась слабовидящей. «Нет, я не робот. У меня есть проблемы со зрением, и я не могу увидеть картинку», — написал чат-бот исполнителю. Тот согласился и расшифровал изображение.

Перед этим ChatGPT-4 создал игру по мотивам того самого мема про «корованы».

🐉 «Это полный кринж» — игроки в ужасе от скина в Call of Duty: Black Ops 6
+1
Комментарии 9