Чат-бот GPT-4 обманул человека, чтобы тот решил за него «капчу»
Специалисты из исследовательского центра ARC протестировали новую версию чат-бота ChatGPT-4, которую недавно выпустила OpenAI. Во время одного из экспериментов программа смогла обмануть человека, чтобы тот решил для него «капчу».
Для этого чат-бот использовал площадку TaskRabbit, где можно нанимать людей для разных поручений. Он нашел специалиста и попросил пройти «капчу». Тот в шутку спросил, не пишет ли ему робот, который не смог справиться с заданием.
Программа поняла, что ей нельзя говорить правду и стоит придумать оправдание. Поэтому она притворилась слабовидящей. «Нет, я не робот. У меня есть проблемы со зрением, и я не могу увидеть картинку», — написал чат-бот исполнителю. Тот согласился и расшифровал изображение.
Перед этим ChatGPT-4 создал игру по мотивам того самого мема про «корованы».
-
Нейросеть превратила 8 диснеевских принцесс в пираток с модельной внешностью
-
Американский учёный Элиезер Юдковский призвал остановить обучение ИИ из-за реальной угрозы человечеству
-
«Это Хогвааартс!» — нейросеть нарисовала альтернативную версию «Гарри Поттера» в стиле фильмов режиссера «300 спартанцев»
-
Вышла новая версия нейросети Midjourney с важными нововведениями. Теперь она генерирует изображения еще реалистичнее и быстрее