С помощью роликов с геймплеем специалисты из компании Open AI научили искусственный интеллект играть в Minecraft. Нейросети просто показывали видео, в результате она смогла изготовить алмазную кирку, а для этого сначала собрала нужные ресурсы.
В ходе игры нейросеть использовала эмуляторы мыши и клавиатуры для игры. Как ожидают эксперты, в будущем это позволит обучать нейросеть пользоваться компьютером просто по видео.
На первом этапе ИИ «посмотрел» 2 тысячи часов геймплея, научившись обрабатывать видеоролики, угадывать нажатия кнопок и записывать их. Затем сети «скормили» ещё 70 тысяч часов геймплея из открытых источников.
В итоге система научилась добывать ресурсы, искать пищу и охотиться, утолять голод, крафтить предметы, бегать и плавать, а также подниматься на возвышенности.
На следующем этапе исследователи подключили к работе пользователей, которых попросили создать новый мир в игре, собрать необходимые ресурсы и изготовить из них предметы первой необходимости. Эти данные записали на видео и показали нейросети. После этого она уже смогла сделать верстак.
Более того, некоторые геймеры создавали базовые убежища, а ИИ перенял этот навык. Таким образом, по мнению учёных, нейросети могут обучаться довольно сложным задачам.
Да все мы ждём, с нетерпением, этого момента. Но ближайшие два-три века сомневаюсь, что будут какие-то подвижки(тем паче — скачки) в этом направлении🥱
Жду в открытом доступе, а ток ещё с блицкрига 3 слышу про эти супер нейронки, а по итогу имеем максимум надстройки над баритоном
Потом научат её составлять из блоков буквы, затем слова и предложение, а после построит предложение "Hello. I'm Skynet" и вырежет ближайшую деревню с жителями