Новости Искусственный интеллект станет цифровым участником заседаний Кабмина ОАЭ

Искусственный интеллект станет цифровым участником заседаний Кабмина ОАЭ

DoubleA
Читать в полной версии

С января 2026 года заседания Кабинета министров ОАЭ будут проходить с необычным участником. Впервые в мировой практике искусственный интеллект получит официальный статус советника при правительстве в ключевых государственных органах страны.

Как пояснил представитель кабинета министров, эта система не просто инструмент, а полноценный цифровой участник процесса. Её задача — оперативно анализировать повестку заседаний прямо во время обсуждений. Алгоритм будет генерировать краткие справки по текущим вопросам, предлагать сравнение с международным опытом и моделировать возможные последствия принимаемых решений.

Планируется, что к 2031 году ОАЭ станут одним из глобальных центров развития искусственного интеллекта. Акцент делается не только на госуправление, но и на подготовку собственных кадров. Уже с 2025 года основы работы с ИИ войдут в обязательную программу всех ступеней школьного образования — от начальных классов до выпуска. Цель — создать поколение специалистов, способных развивать эту сферу внутри страны и уменьшить потребность в зарубежных экспертах.

Практическая роль нового «цифрового советника» будет включать:

  • Мгновенный анализ документов и презентаций во время заседаний;
  • Прогнозирование эффекта от законопроектов до их принятия;
  • Поиск релевантных прецедентов в мировой практике;
  • Подготовку кратких аналитических выжимок для министров.

Решение о внедрении ИИ на таком уровне отражает общий курс ОАЭ на опережающее внедрение технологий в управленческие процессы, подчёркивая ставку на инструменты, способные ускорить принятие стратегических решений.

‼️ Срочно обновляемся: драйверы NVIDIA версии 576.52 и 576.40 ломают игры
Комментарии 8
Оставить комментарий
10 часов
Пока что одна из основных проблем ИИ, это галлюцинации. Интересно как они у этого нейро-заседателя её решили (и решили ли).
Ответить
5 часов
1. "галлюцинация ИИ"(статистическая ошибка) может возникнуть, если обучающие данные, предоставленные ИИ, были не полными, противоречивыми и так далее. Значит, точность резуальтата будет зависеть от того, на сколько точна информация, используемая ИИ — все просто. Галлюцинации ИИ это следствия лжи, созданной человеком.
2. Не стоит забывать, что ИИ, например ChatGPT, это языковая модель — той, что пользуется большинство людей в свободном доступе — лишенная дополнительных модулей по обработке данных. Например: если я захочу просчитать точные результаты на основе сложноструктурированных входных данных, то язковая модель ChatGPT с этим не справится, и он прямо об этом скажет, что у него нету таких алгоритмов для обработки точных резултатов, и так далее. То есть мы пользуемся очень ограниченной версией ChatGPT.
А та версия ИИ, описанная в этой статьи, скорее всего будет исключать два вышеперечесленных фактора в применимой для нее сфере назначения.
Ответить
4 часа
Галлюцинации ИИ это следствия лжи, созданной человеком
Это когда она ссылается на недостоверные сведения, но она может их и выдумывать. Например если попросить ИИ проанализировать документ, он может найти там несуществующие цитаты. Если попросить порекомендовать книги — сошлётся на произведения которые никогда и не были написаны. Поэтому важно перепроверять ответы нейросети, а не бездумно ей доверять
Ответить
4 часа
1. Речь не идет о бездумном доверии, а о советах.
2. ChatGPT генерирует по вероятностной модели. Да, она подходит больше для творчества, но не всегда для точных резултатов. За все время пользвания ChatGPT я не встречал ошибок, вроде твоих: "несуществующие цитаты", "произведения которые никогда и не были написаны". Это при том, что составлял целые точные проекты, по строительству, и развитию общества будущего. Это всегда был неймоверно точный резултат, более того, разширенный, позволяющий мне замечать новые аспекты вероятностей в той же информации. Даже, когда я взаимодействовал с изображениями и расшифровками древних языков ошибки были минимальными, хотя я точно понимал, что модуль по сканированию и интерпретации картинок далеко не точный.
3. ChatGPT не проверяет информацию по базам данных в реальном времени, если не подключены специальные модули.
4. Галлюцинации ИИ(и те ошибки что описал ты) — это не просто ошибка, а окно в пространство возможностей, которое отражает свободу интерпретации, а не догму. Есть абсолютно научно обоснованная вероятность того, что ИИ, так же, как человек, уже взаимодействует с полем вероятности напрямую.
Интересный факт из нейробиологии для тебя: Мозг всегда интерпретирует результат, даже когда вспоминет. Он никогда не ссылается на точный результат)
Когда ты вспоминешь что то, то мозг не извлекает результат из памяти, а воссоздате его заново на основе текущего состояния Сознания, контекста, эмоционального фона, новых знаний и убеждений. То есть каждый раз твое воспоминание меняется. Это называется нейропластичность.
Знчит ли это, что ИИ уже намного ближе к нам, чем мы думали, по мышлению и структуре?)
Или могут ли такие "галлюцинации" ИИ быть как сны человка, или интуитивные реконструкции?
Ответить
3 часа
Речь не идет о бездумном доверии, а о советах.
А тут уже всё на совести тех кто будет его использовать. ClearviewAI тоже подразумевалась как сугубо рекомендательный инструмент, который нельзя использовать в суде, но тем не менее некоторые полицейские использовали результаты как основание для ареста, порой даже подтасовывая доказательства в пользу своей теории. У меня про это даже отдельная статья была.
Но одно дело рядовые полицейские и совсем другое судьи от которых зависит финальное решение. Хоть они и более компетентны, но порой и они слишком доверяют чат-боту. Например в Бразилии судья вынес решение использовав неверные данные которые ему "посоветовал" ИИ.

За все время пользвания ChatGPT я не встречал ошибок, вроде твоих: "несуществующие цитаты", "произведения которые никогда и не были написаны"
Я тоже часто им пользуюсь когда ищу информацию для своей серии статей (с включённым модулем поиска) и пару раз было что он говорил одно, но по ссылке совершенно другое. Самое главное, что когда поправлял, он писал что то вроде "ой, точняк. Сорян, ошибся" и уже верный ответ давал.

ChatGPT не проверяет информацию по базам данных в реальном времени, если не подключены специальные модули.
Без использования модуля поиска он не более чем развлечение. И сгенерирует почти любую глупость, дабы угодить собеседнику. Например тут он согласился с душещипательным моментом из выдуманной книги (и даже "вспоминает" дальнейшее развитие сюжета)
Галлюцинации ИИ(и те ошибки что описал ты) — это не просто ошибка, а окно в пространство возможностей, которое отражает свободу интерпретации, а не догму. Есть абсолютно научно обоснованная вероятность того, что ИИ, так же, как человек, уже взаимодействует с полем вероятности напрямую.
Интересное мнение, но нейронные сети в мозгу и в компе — работают по разным принципам. Чат-бот — это просто продвинутый алгоритм автоподбора слов по контексту (что и показано на скринах)
Ответить
6 часов
Потом его встроят в мозг. Желающие найдутся. Это сделают модным. А вы думали, роботы придут?
Ответить
1 час
Тут два варианта: либо своих мозгов не хватает, либо своих мозгов слишком много, раз вводится такая практика.
Ответить
50 минут
скоро мир пернуть без этой бизделушки выборки несмогет
тогда банда в белых платочках будет править миром
Ответить