Недавно нейросеть ChatGPT от OpenAI обзавелась голосовым режимом с невероятно реалистичными интонациями. Глава компании Сэм Альтман (Sam Altman) признался, что и сам путает бота с настоящим человеком.
Сэм Альтман пояснил, что это является примером общей проблемы, с которой вскоре столкнутся люди по мере улучшения ИИ. Ранее он утверждал, что до появления «сверхразума» на основе нейросетей осталось всего «несколько тысяч дней».
К слову, недавно пользователи проверили широкие возможности голосового режима ChatGPT. Один реддитор попросил чат-бота сымитировать индийского мошенника, притворяющегося сотрудником техподдержки Microsoft. Получилось правдоподобно.
Ключевое слово " Я почти поверил, что это может быть реальный человек ". Т.е. он не перепутал, а почти поверил что голосом общается реальный человек. Тем более изменения голоса ещё со времён кота Тома доступно абсолютно всем, поэтому синтезированный голос не означает что общается не реальный человек (это не про эту ситуацию, а вообще)
Я тоже иногда путаю письменную форму ЧатГПТ с человеком и хочется написать "Какой же ты тупой!!"
Оно и понятно, оно доаольно хорошо синтезирует речь, из за чего у человека, какой бы он гений ни был, может возникнуть ощущение общения с живым человеком. Потому что мы привыкли что раз что то с нами ведёт диалог, то оно живое