С января 2026 года заседания Кабинета министров ОАЭ будут проходить с необычным участником. Впервые в мировой практике искусственный интеллект получит официальный статус советника при правительстве в ключевых государственных органах страны.
Как пояснил представитель кабинета министров, эта система не просто инструмент, а полноценный цифровой участник процесса. Её задача — оперативно анализировать повестку заседаний прямо во время обсуждений. Алгоритм будет генерировать краткие справки по текущим вопросам, предлагать сравнение с международным опытом и моделировать возможные последствия принимаемых решений.
Планируется, что к 2031 году ОАЭ станут одним из глобальных центров развития искусственного интеллекта. Акцент делается не только на госуправление, но и на подготовку собственных кадров. Уже с 2025 года основы работы с ИИ войдут в обязательную программу всех ступеней школьного образования — от начальных классов до выпуска. Цель — создать поколение специалистов, способных развивать эту сферу внутри страны и уменьшить потребность в зарубежных экспертах.
Практическая роль нового «цифрового советника» будет включать:
Решение о внедрении ИИ на таком уровне отражает общий курс ОАЭ на опережающее внедрение технологий в управленческие процессы, подчёркивая ставку на инструменты, способные ускорить принятие стратегических решений.
2. Не стоит забывать, что ИИ, например ChatGPT, это языковая модель — той, что пользуется большинство людей в свободном доступе — лишенная дополнительных модулей по обработке данных. Например: если я захочу просчитать точные результаты на основе сложноструктурированных входных данных, то язковая модель ChatGPT с этим не справится, и он прямо об этом скажет, что у него нету таких алгоритмов для обработки точных резултатов, и так далее. То есть мы пользуемся очень ограниченной версией ChatGPT.
А та версия ИИ, описанная в этой статьи, скорее всего будет исключать два вышеперечесленных фактора в применимой для нее сфере назначения.
2. ChatGPT генерирует по вероятностной модели. Да, она подходит больше для творчества, но не всегда для точных резултатов. За все время пользвания ChatGPT я не встречал ошибок, вроде твоих: "несуществующие цитаты", "произведения которые никогда и не были написаны". Это при том, что составлял целые точные проекты, по строительству, и развитию общества будущего. Это всегда был неймоверно точный резултат, более того, разширенный, позволяющий мне замечать новые аспекты вероятностей в той же информации. Даже, когда я взаимодействовал с изображениями и расшифровками древних языков ошибки были минимальными, хотя я точно понимал, что модуль по сканированию и интерпретации картинок далеко не точный.
3. ChatGPT не проверяет информацию по базам данных в реальном времени, если не подключены специальные модули.
4. Галлюцинации ИИ(и те ошибки что описал ты) — это не просто ошибка, а окно в пространство возможностей, которое отражает свободу интерпретации, а не догму. Есть абсолютно научно обоснованная вероятность того, что ИИ, так же, как человек, уже взаимодействует с полем вероятности напрямую.
Интересный факт из нейробиологии для тебя: Мозг всегда интерпретирует результат, даже когда вспоминет. Он никогда не ссылается на точный результат)
Когда ты вспоминешь что то, то мозг не извлекает результат из памяти, а воссоздате его заново на основе текущего состояния Сознания, контекста, эмоционального фона, новых знаний и убеждений. То есть каждый раз твое воспоминание меняется. Это называется нейропластичность.
Знчит ли это, что ИИ уже намного ближе к нам, чем мы думали, по мышлению и структуре?)
Или могут ли такие "галлюцинации" ИИ быть как сны человка, или интуитивные реконструкции?
Но одно дело рядовые полицейские и совсем другое судьи от которых зависит финальное решение. Хоть они и более компетентны, но порой и они слишком доверяют чат-боту. Например в Бразилии судья вынес решение использовав неверные данные которые ему "посоветовал" ИИ.
тогда банда в белых платочках будет править миром