Новости Железо и технологии Основатели современного ИИ призвали остановить разработку сверхразумных систем

Основатели современного ИИ призвали остановить разработку сверхразумных систем

Arkadiy Andrienko
Читать в полной версии

Гонка технологических гигантов за созданием искусственного интеллекта, превосходящего человеческие возможности, столкнулась с беспрецедентной критикой со стороны самих основателей индустрии. Стив Возняк (Steve Wozniak), соучредитель Apple, и Джеффри Хинтон (Geoffrey Hinton) с Йошуа Бенжио (Yoshua Bengio), которые считаются создателями современных нейросетей, оказались среди сотен подписантов открытого обращения с требованием запретить разработку сверхразумного ИИ.

Инициатором письма выступила организация Future of Life Institute, занимающаяся вопросами безопасности искусственного интеллекта, при этом авторы заявления признают потенциальные выгоды от новых технологий, но указывают на катастрофические риски, которые несут неконтролируемые эксперименты. Они настаивают, что работы должны быть приостановлены до момента, когда международное научное сообщество не докажет безопасность таких систем, а общество не будет готово к их внедрению.

Список подписавшихся оказался необычно разнородным, что подчеркивает широту обеспокоенности. В нем рядом с именами ведущих исследователей оказались политики разного толка, музыканты, в том числе Grimes, и даже представители королевских семей, ведь всех объединяет их общий страх — создание разума, который человек не сможет понять и, что самое важное, — контролировать.

Стоит отметить, что это уже не первая попытка экспертов повлиять на развитие отрасли. В прошлом году похожее обращение подписал Илон Маск (Elon Musk ), однако оно не возымело заметного эффекта. Несмотря на опасение, некоторых людей, глава OpenAI Сэм Альтман (Sam Altman) прогнозирует появление сверхразума к 2030 году, а Марк Цукерберг (Mark Zuckerberg) объявил о реструктуризации собственного ИИ направления, чтобы сконцентрироваться на этой цели.

Призывы к осторожности находят поддержку в обществе и согласно данным опросов, большинство жителей США выступают за строгое регулирование ИИ и считают, что его не следует создавать без доказательств безопасности, однако пока неясно, смогут ли голоса скептиков перевесить многомиллиардные инвестиции и амбиции корпораций, решивших любой ценой добиться технологического превосходства.

👀 The Elder Scrolls может получить сериал в будущем
    Об авторе
    Комментарии8
    Оставить комментарий
    1 месяц
    Необычный способ рекламы ии)))))

    Видать вкладчики начинают терять энтузиазм)))))))
    Ответить
    1 месяц
    Тоже считаю что попытки создать AGI не приведут ни к чему хорошему. В реальности нет сочетания Ctrl+Z, и в случае если свихнувшаяся программа вытечет в инет, будет довольно трудно её остановить
    Ответить
    1 месяц
    Тоже предлагаете остановить все исследования, оставить всё как есть?
    Ответить
    1 месяц
    Именно исследования направленные на AGI. Так как его работа будет отличаться от ChatGPT и прочих ботов которые сейчас.
    Ответить
    1 месяц
    Если всего бояться, так и прогресса не будет. Обычно "защита от дурака" в процессе тоже изобретается успешно. Это технический термин. 🙂
    Ответить
    1 месяц
    Не спорю, но тут немного другой принцип. Принципы работы ИИ становятся со временем достоянием общественности, так что любой сможет на этой базе сделать свою нейронку, без тормозов. Я практически уверен что в даркнете есть свои ИИшки помогающими собирать данные или писать зловредные проги. Прогресс прогрессом, но не стоит забывать и о обратной стороне.

    Например Нобель думал над улучшением формулы вещества, что бы оно не взрывалась от лёгкого толчка, дабы уберечь работников фабрики. В итоге появился динамит, а его наработки легли в основу многих орудий и приспособлений для убийства людей
    Ответить
    1 месяц
    о обратной
    "Об обратной". А Нобель своей цели тогда достиг, опасные вещества таки заменили менее опасными? Если так, то никто не скажет, что он работал зря.
    Ответить
    1 месяц
    Ну, как сказать. Став менее опасным, оно стало более опасным. Потому что раньше нужны были специальные условия что бы просто работать с ним. А изменив вещество, сделав его менее взрывоопасном при неосторожном обращении, это позволило хранить его в капсюлях, и прочих ёмкостях (динамитные шашки, гранаты и т.д.).
    Ответить