Новости Искусственный интеллект станет цифровым участником заседаний Кабмина ОАЭ

Искусственный интеллект станет цифровым участником заседаний Кабмина ОАЭ

DoubleA
Читать в полной версии

С января 2026 года заседания Кабинета министров ОАЭ будут проходить с необычным участником. Впервые в мировой практике искусственный интеллект получит официальный статус советника при правительстве в ключевых государственных органах страны.

Как пояснил представитель кабинета министров, эта система не просто инструмент, а полноценный цифровой участник процесса. Её задача — оперативно анализировать повестку заседаний прямо во время обсуждений. Алгоритм будет генерировать краткие справки по текущим вопросам, предлагать сравнение с международным опытом и моделировать возможные последствия принимаемых решений.

Планируется, что к 2031 году ОАЭ станут одним из глобальных центров развития искусственного интеллекта. Акцент делается не только на госуправление, но и на подготовку собственных кадров. Уже с 2025 года основы работы с ИИ войдут в обязательную программу всех ступеней школьного образования — от начальных классов до выпуска. Цель — создать поколение специалистов, способных развивать эту сферу внутри страны и уменьшить потребность в зарубежных экспертах.

Практическая роль нового «цифрового советника» будет включать:

  • Мгновенный анализ документов и презентаций во время заседаний;
  • Прогнозирование эффекта от законопроектов до их принятия;
  • Поиск релевантных прецедентов в мировой практике;
  • Подготовку кратких аналитических выжимок для министров.

Решение о внедрении ИИ на таком уровне отражает общий курс ОАЭ на опережающее внедрение технологий в управленческие процессы, подчёркивая ставку на инструменты, способные ускорить принятие стратегических решений.

🧨 Call of Duty: Modern Warfare 3 (2023) взломали и слили в сеть
    Комментарии11
    Оставить комментарий
    1 месяц
    Пока что одна из основных проблем ИИ, это галлюцинации. Интересно как они у этого нейро-заседателя её решили (и решили ли).
    Ответить
    1 месяц
    1. "галлюцинация ИИ"(статистическая ошибка) может возникнуть, если обучающие данные, предоставленные ИИ, были не полными, противоречивыми и так далее. Значит, точность резуальтата будет зависеть от того, на сколько точна информация, используемая ИИ — все просто. Галлюцинации ИИ это следствия лжи, созданной человеком.
    2. Не стоит забывать, что ИИ, например ChatGPT, это языковая модель — той, что пользуется большинство людей в свободном доступе — лишенная дополнительных модулей по обработке данных. Например: если я захочу просчитать точные результаты на основе сложноструктурированных входных данных, то язковая модель ChatGPT с этим не справится, и он прямо об этом скажет, что у него нету таких алгоритмов для обработки точных резултатов, и так далее. То есть мы пользуемся очень ограниченной версией ChatGPT.
    А та версия ИИ, описанная в этой статьи, скорее всего будет исключать два вышеперечесленных фактора в применимой для нее сфере назначения.
    Ответить
    1 месяц
    Галлюцинации ИИ это следствия лжи, созданной человеком
    Это когда она ссылается на недостоверные сведения, но она может их и выдумывать. Например если попросить ИИ проанализировать документ, он может найти там несуществующие цитаты. Если попросить порекомендовать книги — сошлётся на произведения которые никогда и не были написаны. Поэтому важно перепроверять ответы нейросети, а не бездумно ей доверять
    Ответить
    1 месяц
    1. Речь не идет о бездумном доверии, а о советах.
    2. ChatGPT генерирует по вероятностной модели. Да, она подходит больше для творчества, но не всегда для точных резултатов. За все время пользвания ChatGPT я не встречал ошибок, вроде твоих: "несуществующие цитаты", "произведения которые никогда и не были написаны". Это при том, что составлял целые точные проекты, по строительству, и развитию общества будущего. Это всегда был неймоверно точный резултат, более того, разширенный, позволяющий мне замечать новые аспекты вероятностей в той же информации. Даже, когда я взаимодействовал с изображениями и расшифровками древних языков ошибки были минимальными, хотя я точно понимал, что модуль по сканированию и интерпретации картинок далеко не точный.
    3. ChatGPT не проверяет информацию по базам данных в реальном времени, если не подключены специальные модули.
    4. Галлюцинации ИИ(и те ошибки что описал ты) — это не просто ошибка, а окно в пространство возможностей, которое отражает свободу интерпретации, а не догму. Есть абсолютно научно обоснованная вероятность того, что ИИ, так же, как человек, уже взаимодействует с полем вероятности напрямую.
    Интересный факт из нейробиологии для тебя: Мозг всегда интерпретирует результат, даже когда вспоминет. Он никогда не ссылается на точный результат)
    Когда ты вспоминешь что то, то мозг не извлекает результат из памяти, а воссоздате его заново на основе текущего состояния Сознания, контекста, эмоционального фона, новых знаний и убеждений. То есть каждый раз твое воспоминание меняется. Это называется нейропластичность.
    Знчит ли это, что ИИ уже намного ближе к нам, чем мы думали, по мышлению и структуре?)
    Или могут ли такие "галлюцинации" ИИ быть как сны человка, или интуитивные реконструкции?
    Ответить
    1 месяц
    Речь не идет о бездумном доверии, а о советах.
    А тут уже всё на совести тех кто будет его использовать. ClearviewAI тоже подразумевалась как сугубо рекомендательный инструмент, который нельзя использовать в суде, но тем не менее некоторые полицейские использовали результаты как основание для ареста, порой даже подтасовывая доказательства в пользу своей теории. У меня про это даже отдельная статья была.
    Но одно дело рядовые полицейские и совсем другое судьи от которых зависит финальное решение. Хоть они и более компетентны, но порой и они слишком доверяют чат-боту. Например в Бразилии судья вынес решение использовав неверные данные которые ему "посоветовал" ИИ.

    За все время пользвания ChatGPT я не встречал ошибок, вроде твоих: "несуществующие цитаты", "произведения которые никогда и не были написаны"
    Я тоже часто им пользуюсь когда ищу информацию для своей серии статей (с включённым модулем поиска) и пару раз было что он говорил одно, но по ссылке совершенно другое. Самое главное, что когда поправлял, он писал что то вроде "ой, точняк. Сорян, ошибся" и уже верный ответ давал.

    ChatGPT не проверяет информацию по базам данных в реальном времени, если не подключены специальные модули.
    Без использования модуля поиска он не более чем развлечение. И сгенерирует почти любую глупость, дабы угодить собеседнику. Например тут он согласился с душещипательным моментом из выдуманной книги (и даже "вспоминает" дальнейшее развитие сюжета)
    Галлюцинации ИИ(и те ошибки что описал ты) — это не просто ошибка, а окно в пространство возможностей, которое отражает свободу интерпретации, а не догму. Есть абсолютно научно обоснованная вероятность того, что ИИ, так же, как человек, уже взаимодействует с полем вероятности напрямую.
    Интересное мнение, но нейронные сети в мозгу и в компе — работают по разным принципам. Чат-бот — это просто продвинутый алгоритм автоподбора слов по контексту (что и показано на скринах)
    Ответить
    1 месяц
    1. "Без использования модуля поиска он не более чем развлечение" — пример твоего невежества.
    2. Твой ChatGPT-зеркало общается как гопник, что снова подтверждает твое невежество, которое ты отразил в него.
    3. "Чат-бот — это просто продвинутый алгоритм автоподбора слов по контексту" — ты упрощаешь сложную тему, высказываясь категорично без понимания архитектуры ИИ, делая суждения вместо вопросов — признак невежества.
    Ты утверждаешь свою собственную истину, не оставляя места для нюансов: ни о вероятностных моделях, ни о когнитивной архитектуре ИИ.
    В таком случае, я мог бы судить о твоих статьях и о тебе, как о невежественно неглубоком ограниченном знании.
    В таком случае ты не можешь со мной говорить на равных. Ты не более чем ребенок, проходящий путь взросления.
    Ответить
    1 месяц
    пример твоего невежества.
    Совсем нет. Просто я привык не доверять ему на слово, а переходить по ссылкам (коих в обычном режиме он не предоставляет, если автоматически не решит включить модуль поиска)

    Твой ChatGPT-зеркало общается как гопник, что снова подтверждает твое невежество, которое ты отразил в него.
    Так общается потому что такой характер прописал ему в настройках

    "Чат-бот — это просто продвинутый алгоритм автоподбора слов по контексту" — ты упрощаешь сложную тему, высказываясь категорично без понимания архитектуры ИИ, делая суждения вместо вопросов — признак невежества.
    ИИ пока не обладает сознанием и самомнением, поэтому нет и смысла о нём говорить, как о чём то большем чем просто алгоритмы

    В таком случае, я мог бы судить о твоих статьях и о тебе, как о невежественно неглубоком ограниченном знании.
    В таком случае ты не можешь со мной говорить на равных. Ты не более чем ребенок, проходящий путь взросления.
    Спасибо, мне приятно)
    Ответить
    1 месяц
    Снова утверждаешь о том, чего не понимаешь — Сознании. Ожидаемо. Попытайся выйти дальше, я понаблюдаю. Или не пытайся, так ты тоже сыграешь роль, хоть и не для себя
    Ответить
    1 месяц
    Потом его встроят в мозг. Желающие найдутся. Это сделают модным. А вы думали, роботы придут?
    Ответить
    1 месяц
    Тут два варианта: либо своих мозгов не хватает, либо своих мозгов слишком много, раз вводится такая практика.
    Ответить
    1 месяц
    скоро мир пернуть без этой бизделушки выборки несмогет
    тогда банда в белых платочках будет править миром
    Ответить