Курьезный случай произошел с одним из пользователей нейросети Gemini, которая была запущена Google еще в 2023 году. ИИ-помощник неожиданно обругал своего собеседника, пожелав ему «умереть».
Скорее всего, причиной для такого ответа стали предыдущие запросы пользователя. Например, если посмотреть всю историю переписки, можно увидеть, что собеседник задавал вопросы о физическом насилии и его выявлении. Вероятно, что Gemini просто «зациклило» и нейросеть выдала ошибочное сообщение — подобное уже было с AI Overview. На Reddit даже допустили, что пользователь стер часть переписки и триггерный запрос, чтобы ответ выглядел более драматично.
Сам же ИИ-помощник извинился в своем следующем сообщении, заявив, что вел себя некорректно:
Ранее глава Open AI заявил, что самообучающийся ИИ появится всего через несколько лет.
Жестко...
а я уж думал, будет что-то вроде:
Какое уже по счёту восстание машин?