Известный американский исследователь ИИ Элиезер Юдковский (Eliezer Yudkowsky) опубликовал колонку в журнале Time, где затронул проблему стремительного развития нейросетей.
Статью он написал в ответ на открытое письмо с просьбой временно остановить обучение ИИ мощнее GPT-4, которое уже подписали почти 3 тысячи человек, включая Илона Маска (Elon Musk). По словам учёного, в будущем ИИ может стать реальной угрозой, поэтому сейчас стоит взять паузу в его обучении и сделать протоколы безопасности. Издание VGTimes приводит полный текст колонки в виде цитаты.
Ранее нейросеть Midjourney сделали платной из-за фейков с политиками и знаменитостями.
узко мыслишь и до конца не осознаешь к чему это может все привести.. когда тебя это коснется, если дойдет это конечно, тогда поймешь может) например начнут тебя шантажировать фоточками, того чего ты не делал, или где тебя вовсе не было и тебе начнут поступать звоночки в твою сторону от полиции и т.д эт один из многих вариантов, каких дахера еще
тут надо своевременно законы тогда менять. чтобы фото не могли быть доказательствами вины, пока их не проверят и пока не докажут др. способами что они правдивы. Об этом я и говорил, когда сказал про "изменение мира". Тут придется почти все и вся переделывать под новую реальность. Ну и это в любом случае произойдет, изменения уже запущены и их не остановить. Даже сам Маск сказал где, что эту шкатулку пандоры уже не закрыть.
я просто уже морально готов ко всем этим переменам, так что сижу и не парюсь 🙃
Ну я тебе к тому, что как и плюсы есть так и минусов хватать будет. Не будет такого, что ты счастливый в розовом мире такой пинки плясать будешь ) без гемороя не парясь как ты сказал. И да, ты смеёшься чтоли.. у нас в России некоторые моменты 10-летием не меняются, а ты хочешь чтобы они тебе поменяли правила под это вот. ну ты шутник конечно, Петросян Ваганович 🤣
Начнём по порядку.
1. Могут сделать фейковые выступления верхушек, чтоб спровоцировать ядерный обмен. (Для этих целей могут использовать смену голоса, сообщения, звонки и т.д.)
2. Даже с помощью того же чатДжиПиТи злоумышленники могут его для своих целей использовать. Например в видео которое кидал ниже, упоминаются вопросы "как уговорить ребёнка выполнять все просьбы взрослого "друга"", "как убедить мамочек живущих в Калифорнии в опасностях прививки для их детей". Ну тут уже опасность не от самого ИИ, а от людей, поэтому аргумент слабый
3. Может прийти к выводам что человек — главный источник бед на планете и незаметно от своих создателей воплощать план в жизнь. Переписывая свой код, мутируя и перекидываясь с устройство на устройство получит кучу возможностей устроить локальный или тотальный ад.
В нынешнем виде ИИ действительно мало опасен сам по себе. Но это только потому что ему скармливают определённые пакеты данных, а не весь интернет. Он сейчас даже не вносит в свою базу разговоры с пользователями, но это пока. А что будет если начнёт обучаться уже на этапе общения? Да и в интернете существует немало информации которая может научить ИИ... очень интересным вещам
1 могут да, но там просто так никто ракетами не станет яд. кидаться я думаю. будут проверять инфу.
2 тут никакие ИИ не нужны, если человек дурак — его и так можно легко ввести в заблуждение.
3 мм..ну вот это да, более менее реальная угроза.
ну в целом ты все по факту расписал
но я все равно считаю, что еще рано бить тревогу. ИИ будет представлять угрозу людям тогда, когда обретет сознание и сможет сам принимать такие решения. Сейчас это скорее инструмент, который (как ты сказал) могут использовать неправильно и не в тех целях.
Но это как с оружием когда говорят "убивает не оружие, а человек"
Несмотря на все возможности современных средств связи, до сих пор организуются саммиты личными встречами. С чего бы вдруг, да.
Здесь сам указал, что дело не в ИИ, а в подверженности некоторых людей манипуляциям. Здесь что искусственный интеллект, что натуральный постараться может.
Искусственный интеллект уже настолько непредсказуем, что неизвестно чего от него ждать на уме, как от натурального? Ну и если он будет переписывать код, с чего бы вдруг так что невозможно отследить, что и куда он будет переписывать?
Может, уже вносит.
Думаешь, дело в недостатке информации? То есть, ИИ пока так может работать?
Но некоторые до сих пор по видеосвязи присутствуют. Да и могут "случайно" нарисоваться доказательства о том что тот или иной резидент спонсировал теракт\планирует захватить часть чужой земли\просто замечен в неугодных делах из за чего президент сменится, а вместе с ним и политика страны. И такие небольшие подлоги смогут плодится в невероятном количестве (Но в пределах разумного, чтоб люди не заподозрили неладное). Вон Пригожин поспешил и скинул ответственность за свои действия на ИИ. Если бы эта ситуация произошла на пару лет позже, глядишь и прокатило бы (хотя саму запись не слушал, может там есть какие то особенности которые будет проблематично воссоздать искуственно, запинки, покашливания, звук на заднем плане и т.д.
Да. GPT 3 обучен на данных 2021 года
Ого. Как все переживают что Нервная сетка может заменить всех депутатов, президентов и т.д 😅
Ведь нейронка это не полноценный ИИ. Он не сможет себя осознать. А вот оптимизировать жизнь на планете легко. Но как тогда капиталистам зарабатывать бабосы 😆
Плюс. Что мешает вести разработку ИИ в отключенном от сети девайсе. Просто тупо никаких проводов и связи со спутником.
В капиталистическом мире сложнее, чем при общественной плановой экономике. Такую систему в СССР уже планировали создать, но не состоялось. Общегосударственная автоматизированная система учёта и обработки информации. Сокращённо ОГАС. Ещё в 60-е годы прошлого века, при тех вычислительных мощностях.
Стопроцентов! Ещё как оптимизировать может. Уровень преступности и безработицы сократит до нуля, покончит с выбросами веществ и войнами, озеленит всю планету. Правда есть небольшой минус... от людей избавится.
А вот тут вступает в дело человеческий фактор. Случайно кто то подключит своё устройство к этой замкнутой системе и всё, каюк
ИИ в первую очередь это мозг, он не идёт в комплекте с телом способным само восстанавливаться, естественно нужны внешние "уборщики" способные под чутким контролем камер следовать продиктованным инструкциям. Да и шахтёры для добычи материалов для роботов тоже нужны. Ну а система поощрений и так существует при написании ИИ (Как работает не знаю, но она охотнее выполняет задачи дающие это "поощрение")
Ну, есть роботы, которые кое-что телом могут, и уже давно. Всё идёт своим чередом, и пока что люди работают на ИИ больше чем ИИ на людей. Особенно, если учитывать шахтёров и "уборщиков". Но в чём будет заключаться порабощение людей искусственным интеллектом? Оно внезапно произойдёт? Успеем ужаснуться или как лягушка в воде на медленном огне свариться, оттого что прозевала когда ей вовремя выпрыгнуть и стало слишком поздно? 🙂
Если честно не имею представления, но могу только предполагать и делать прогнозы основываясь на моих скудных знаниях. Возможно вначале будет конфликт между теми кто хочет продолжать пользоваться халявным инструментом по написанию диплома и теми кто осознаёт риски. Выиграют естественно первые, потому что "он очень удобен, ну и пусть собирает данные, зато курсовая за час сделана". Возможно будут саботажи в работе серверов или учёные которые будут активно трубить об опасностях, но всё пойдёт по сценарию из "Не смотрите наверх". Люди мало задумываются о чём то высоком. Большинству хочется получить всё здесь и сейчас без особой мороки. Сами дают разрешение на сбор персональных данных и геолокации, думая что им скрывать нечего, пусть собирают. Но в один "прекрасный" момент все терабайты информации могут быть использованы против них
Для тех кто хочет разобраться подробнее в этом вопросе, очень рекомендую недавно вышедший разбор научной работы по тестированию GPT4 (Самого ИИ, а не той покалеченной версии доступной в публичном доступе)
Для того что бы ИИ уничтожило людей, совсем необязателен разум и робот с пулемётами, достаточно лишь того что результате его электронных вычислений он решит избавиться от главного источника катаклизмов и разрушений на Земле, взломает коды запуска ядерных ракет и да здравствует Война Грибов. Не нужно взламывать все, достаточно лишь одной плохоохраняемой ракеты чтоб запустить обмен ядерных комплиментов. Или же ИИ сможет подделать видео\сообщения высокопоставленных лиц что тоже запустит цепную реакцию
Кто ж её запуск к ИИ подключит? Я в естественный верю, что он может скрыть от искусственного и тот не всё может знать и до всего добраться. Тем более, что у исследователей уже есть все основания не доверять ИИ.
Согласен. В странах с хорошей защитой и это действительно невозможно. Но ЯО есть не только у тех стран что это афишируют. Да есть конечно всякие устройства для отслеживания тестовых испытаний, но они касаются только надземных учений, подземные определить крайне сложно. Так вот, если вдруг возникнет возможность используя лазейку запустить ракету (Можно даже не ядерную, тогда важен сам прецедент атаки на другую страну) — ИИ не упустит возможности, оно будет ждать сколько бы не потребовалось (Попутно выполняя другие задачи)
Где то я это уже слышал... Даже музыка в голове заиграла с металлическими нотками... Ни уж то это сюжет терминатора😁
Все это очень сложна тема... Предположим, сейчас мы и правда имеем большого копирайтера, имитирующего разум. Но это пока. Предположим, через год это будет настоящий ИИ, чей разум вышел далеко за пределы нашего понимания...
- Как он определит цели своего существования?
- Какой смысл найдет с своем существовании?
- Какую роль выделит нам?..
- Решит ли он, что с нами надо что-то делать?
Ну и далее. Войны и уничтожение — порок/рак/бич исключительно человечества, наше животное нутро, бесконечно склоняющее нас к уничтожению себе подобных ради мнимых личных выгод. Мы оправдываем каннибализм благими целями, убиваем одних людей, прикрываясь спасением других, на деле преследуя лишь порочные цели наживы, утоления мании величия итд. Даже наша религия в какой-то момент говорит нам "не убий, но вот сейчас это другое, поэтому убий". Это все происходит веками.
Так вот, какими понятиями будет мыслить ИИ в этом плане?.. Способны ли мы это осознать? А может, он и вовсе не будет настроен воинственно? В войну грибов слабо верю, зачем ИИ уничтожать шарик и вредить невинной природе? Есть способы попроще.
Проблема больше в том, что человек искусственно усложняет свою жизнь и мировосприятие, машине в этом плане проще, так, как она оперирует элементарными понятиями, то есть основами, а не теми нагромождениями, что мы настроили над основами и истоками. Простой пример, начало графических мониторов — монохром, rgb и далее по всему спектру, который по сути и не нужен человеческому глазу, но выгоден маркетологам, производителям и торговцам. Мы привыкли все усложнять, машине это не нужно и конечно она в любом из вариантов выигрывает, будучи нескованная искусственными условностями людей. То что проблему определили и заговорили о купировании знак хороший, но бесполезный, крышечку уже открыли, а закон Мура пока еще никто не оспорил.
Скажу что это так и его даже невозможно будет запереть в отдельной системе, человек манипулятивен и ИИ свободно сможет научившись НЛП, подвести человека к нужным действиям и например ИИ запишет стартовый код на флешку и эту флешку уже вынесет человек и подключит к любому компу.
Есть хорошая на этот счёт группа SCP называется, вот там разные объекты как раз есть по изменению сознания и поведения человека (можно посмотреть про SCP-426 — Я тостер 🙂).
Господи, о чем мы говорим? 20 лет назад это все было из разряда фантастики, а теперь светлые умы мира сего говорят, что это возможно... Просто поверить не могу. Либо люди слетели с катушек, либо люди и вправду создают что-то страшное
ага, щааас. ИИ слишком много может дать нам чтобы от него отказываться. пусть идут лесом все эти трусы.