Нейросеть от Google оскорбила пользователя вместо помощи по домашней работе
Курьезный случай произошел с одним из пользователей нейросети Gemini, которая была запущена Google еще в 2023 году. ИИ-помощник неожиданно обругал своего собеседника, пожелав ему «умереть».
Скорее всего, причиной для такого ответа стали предыдущие запросы пользователя. Например, если посмотреть всю историю переписки, можно увидеть, что собеседник задавал вопросы о физическом насилии и его выявлении. Вероятно, что Gemini просто «зациклило» и нейросеть выдала ошибочное сообщение — подобное уже было с AI Overview. На Reddit даже допустили, что пользователь стер часть переписки и триггерный запрос, чтобы ответ выглядел более драматично.
Сам же ИИ-помощник извинился в своем следующем сообщении, заявив, что вел себя некорректно:
Ранее глава Open AI заявил, что самообучающийся ИИ появится всего через несколько лет.
-
Глава OpenAI признался, что принимает ChatGPT за реального человека
-
Глава OpenAI: «Самообучающийся ИИ появится уже в ближайшие пять лет»
-
Новая модель ChatGPT сумела за час написать код для докторской диссертации
-
СМИ: OpenAI запустит новую языковую модель в декабре
-
Хакеры попытались взломать создателей ChatGPT, используя ChatGPT