Новости Американский учёный Элиезер Юдковский призвал остановить обучение ИИ из-за реальной угрозы человечеству

Американский учёный Элиезер Юдковский призвал остановить обучение ИИ из-за реальной угрозы человечеству

Arno
Читать в полной версии

Известный американский исследователь ИИ Элиезер Юдковский (Eliezer Yudkowsky) опубликовал колонку в журнале Time, где затронул проблему стремительного развития нейросетей.

Статью он написал в ответ на открытое письмо с просьбой временно остановить обучение ИИ мощнее GPT-4, которое уже подписали почти 3 тысячи человек, включая Илона Маска (Elon Musk). По словам учёного, в будущем ИИ может стать реальной угрозой, поэтому сейчас стоит взять паузу в его обучении и сделать протоколы безопасности. Издание VGTimes приводит полный текст колонки в виде цитаты.

Я воздержался от подписи, потому что считаю, что письмо преуменьшает серьезность ситуации. Ключевым вопросом является не интеллект, конкурентоспособный по сравнению с человеческим, а то, что произойдет после того, как ИИ достигнет интеллекта, превосходящего человеческий. В настоящее время кажется возможным, что исследовательская лаборатория [создающая ИИ] переступит критические границы, не заметив этого.

Наиболее вероятным результатом создания сверхчеловечески умного ИИ в условиях, отдаленно напоминающих нынешние, будет гибель буквально всех людей на Земле. Не в смысле «возможно, есть какая-то отдаленная вероятность», а в смысле «это очевидная вещь, которая произойдет». Дело не в том, что вы в принципе не можете выжить, создав что-то гораздо более умное, чем вы. Дело в том, что это [изобретение ИИ] потребует точности, подготовки и новых научных открытий.

Без такой точности и подготовки наиболее вероятным результатом станет ИИ, который не будет делать то, что мы хотим, и его не будем заботить ни мы, ни разумная жизнь в целом. Такого рода забота — это то, что в принципе можно заложить в ИИ, но мы еще не готовы и не знаем, как это сделать.

Вероятным результатом столкновения человечества с противостоящим ему сверхчеловеческим интеллектом будет полный проигрыш. Тут уместны метафоры вроде «10-летний ребенок пытается играть в шахматы против Stockfish 15», «XI век пытается бороться с XXI» и «австралопитек пытается бороться с Homo sapiens».

Чтобы визуализировать враждебный сверхчеловеческий ИИ, не надо представлять себе неживого умного мыслителя, обитающего в Интернете и рассылающего злонамеренные электронные письма. Представьте себе целую инопланетную цивилизацию, мыслящую в миллионы раз быстрее человека и изначально ограниченную компьютерами в мире существ, которые, с её точки зрения, очень глупы и очень медлительны.

Достаточно интеллектуальный ИИ не будет долго сидеть в замкнутом пространстве компьютеров. В современном мире вы можете отправить строки ДНК по электронной почте в лаборатории, которые будут производить белки по запросу, что позволит ИИ, изначально ограниченному Интернетом, построить искусственные формы жизни или сразу перейти к постбиологическому молекулярному производству.

Если кто-то создаст слишком мощный ИИ в нынешних условиях, я ожидаю, что вскоре после этого умрет каждый представитель человеческого рода и вся биологическая жизнь на Земле.

Мы понятия не имеем, как определить, осознают ли системы ИИ сами себя, поскольку мы не знаем, как декодировать все, что происходит в гигантских непостижимых массивах [данных]. И поэтому мы можем в какой-то момент непреднамеренно создать цифровые разумы, которые действительно сознательны и должны иметь права, а не быть собственностью.

Я согласен с тем, что нынешние ИИ, вероятно, просто имитируют разговоры о самосознании из своих учебных данных. Но я отмечаю, что, несмотря на то, что у нас мало знаний о внутреннем устройстве этих систем, в действительности мы не знаем ничего.

Когда люди, не связанные с индустрией искусственного интеллекта, впервые слышат о риске исчезновения из-за искусственного общего интеллекта, их реакция такова: «Может быть, тогда нам не следует создавать ИИ». Услышав это, я почувствовал крошечный проблеск надежды, потому что это более простая, более разумная и, откровенно говоря, более здравая реакция, чем та, которую я слышал в течение последних 20 лет, когда пытался заставить кого-либо в отрасли отнестись к этому серьезно.

Вот что на самом деле нужно сделать:

Мораторий на новые крупные обучения должен быть бессрочным и всемирным. Не должно быть никаких исключений, в том числе для правительств или вооруженных сил. Отключите все большие GPU-кластеры (большие компьютерные фермы, где совершенствуются самые мощные ИИ). Отключите все крупные обучающие программы. Установить потолок вычислительной мощности, которую разрешено использовать для обучения системы ИИ, и в ближайшие годы снижайте его.

Немедленно заключите многонациональные соглашения, отслеживайте все проданные графические процессоры. Если разведка сообщает, что страна, не входящая в соглашение, строит GPU-кластер, бойтесь не столько нарушения моратория, сколько конфликта между странами. Будьте готовы уничтожить несанкционированный центр обработки данных авиаударом.

Дайте понять, что всякий, кто говорит о гонке вооружений, — дурак. В международной дипломатии нужно четко заявить, что предотвращение сценариев вымирания от ИИ считается приоритетнее предотвращения полного ядерного обмена и что союзные ядерные страны готовы пойти на некоторый риск ядерного обмена, если это необходимо для снижения риска крупного обучения ИИ.

Мы не готовы. И мы не будем готов в обозримом будущем. Если мы продолжим это, все умрут, включая детей, которые этого не выбирали и не сделали ничего плохого.
— Элиезер Юдковский для Time, перевод baza.io
Элиезер Юдковский

Ранее нейросеть Midjourney сделали платной из-за фейков с политиками и знаменитостями.

😉 Спокойно: S.T.A.L.K.E.R. 2 не запретят в России
Комментарии 60
Оставить комментарий
Pinkie Забанен
1 год

ага, щааас. ИИ слишком много может дать нам чтобы от него отказываться. пусть идут лесом все эти трусы.

Ответить
1 год

значит видишь только поверхностно.. когда тебе начнут с банка звонить и т.д неотличимым голосом оператора, запоешь по другому

Ответить
Pinkie Забанен
1 год

ну позвонят и что ? номер банка не подменить. мошенники всегда звонят с левых номеров. ну и в целом это проверка на дурака, когда тебе звонят с левого номера и просят личные данные.

Ответить
1 год

проблема в том что потом не с левых номеров будут звонить, все к этому и идет. две стороны медали. как по мне так больше гемороя с этим аи

Ответить
Pinkie Забанен
1 год

ну а как ты хотел ? это цена прогресса. В любом случае, голову в песке вечно держать не получится. Этот самый прогресс не остановить никакими хотелками Маска и прочих. Будущее придет к каждому, хотите вы этого или нет.

Ответить
1 год

придет но не в таком ключе, если за голову возьмутся вовремя.

Ответить
Pinkie Забанен
1 год

мм..а что за страхи тебя терзают ? боишься работу потерять как и прочие ? Или может просто не хочешь чтоб мир настолько сильно изменился. что аж придется многие ценности переосмыслять и мышление менять ?

Ответить
1 год

узко мыслишь и до конца не осознаешь к чему это может все привести.. когда тебя это коснется, если дойдет это конечно, тогда поймешь может) например начнут тебя шантажировать фоточками, того чего ты не делал, или где тебя вовсе не было и тебе начнут поступать звоночки в твою сторону от полиции и т.д эт один из многих вариантов, каких дахера еще

Ответить
Pinkie Забанен
1 год

тут надо своевременно законы тогда менять. чтобы фото не могли быть доказательствами вины, пока их не проверят и пока не докажут др. способами что они правдивы. Об этом я и говорил, когда сказал про "изменение мира". Тут придется почти все и вся переделывать под новую реальность. Ну и это в любом случае произойдет, изменения уже запущены и их не остановить. Даже сам Маск сказал где, что эту шкатулку пандоры уже не закрыть.
я просто уже морально готов ко всем этим переменам, так что сижу и не парюсь 🙃

Ответить
1 год

Ну я тебе к тому, что как и плюсы есть так и минусов хватать будет. Не будет такого, что ты счастливый в розовом мире такой пинки плясать будешь ) без гемороя не парясь как ты сказал. И да, ты смеёшься чтоли.. у нас в России некоторые моменты 10-летием не меняются, а ты хочешь чтобы они тебе поменяли правила под это вот. ну ты шутник конечно, Петросян Ваганович 🤣

Ответить
Pinkie Забанен
1 год

ну РФ это отдельная цивилизация, сам же знаешь
что уже и помечтать нельзя ? 🙃

Ответить
1 год

Мечтать не вредно, но вредно не мечтать )

Ответить
1 год

Начнём по порядку.
1. Могут сделать фейковые выступления верхушек, чтоб спровоцировать ядерный обмен. (Для этих целей могут использовать смену голоса, сообщения, звонки и т.д.)
2. Даже с помощью того же чатДжиПиТи злоумышленники могут его для своих целей использовать. Например в видео которое кидал ниже, упоминаются вопросы "как уговорить ребёнка выполнять все просьбы взрослого "друга"", "как убедить мамочек живущих в Калифорнии в опасностях прививки для их детей". Ну тут уже опасность не от самого ИИ, а от людей, поэтому аргумент слабый
3. Может прийти к выводам что человек — главный источник бед на планете и незаметно от своих создателей воплощать план в жизнь. Переписывая свой код, мутируя и перекидываясь с устройство на устройство получит кучу возможностей устроить локальный или тотальный ад.
В нынешнем виде ИИ действительно мало опасен сам по себе. Но это только потому что ему скармливают определённые пакеты данных, а не весь интернет. Он сейчас даже не вносит в свою базу разговоры с пользователями, но это пока. А что будет если начнёт обучаться уже на этапе общения? Да и в интернете существует немало информации которая может научить ИИ... очень интересным вещам

Ответить
1 год

коротко о людях ) п.с поговаривают что они и марс уже засрали с луной. фотки в интернете есть

Ответить
Pinkie Забанен
1 год

1 могут да, но там просто так никто ракетами не станет яд. кидаться я думаю. будут проверять инфу.
2 тут никакие ИИ не нужны, если человек дурак — его и так можно легко ввести в заблуждение.
3 мм..ну вот это да, более менее реальная угроза.


ну в целом ты все по факту расписал
но я все равно считаю, что еще рано бить тревогу. ИИ будет представлять угрозу людям тогда, когда обретет сознание и сможет сам принимать такие решения. Сейчас это скорее инструмент, который (как ты сказал) могут использовать неправильно и не в тех целях.
Но это как с оружием когда говорят "убивает не оружие, а человек"

Ответить
1 год

Про ракеты слегка преувеличил. Но достаточно всего одного сообщения\незначительного события для запуска эффекта домино

Ответить
1 год
1. Могут сделать фейковые выступления верхушек, чтоб спровоцировать ядерный обмен. (Для этих целей могут использовать смену голоса, сообщения, звонки и т.д.)

Несмотря на все возможности современных средств связи, до сих пор организуются саммиты личными встречами. С чего бы вдруг, да.

Ну тут уже опасность не от самого ИИ, а от людей, поэтому аргумент слабый

Здесь сам указал, что дело не в ИИ, а в подверженности некоторых людей манипуляциям. Здесь что искусственный интеллект, что натуральный постараться может.

3. Может прийти к выводам что человек — главный источник бед на планете и незаметно от своих создателей воплощать план в жизнь. Переписывая свой код, мутируя и перекидываясь с устройство на устройство получит кучу возможностей устроить локальный или тотальный ад.

Искусственный интеллект уже настолько непредсказуем, что неизвестно чего от него ждать на уме, как от натурального? Ну и если он будет переписывать код, с чего бы вдруг так что невозможно отследить, что и куда он будет переписывать?

Он сейчас даже не вносит в свою базу разговоры с пользователями, но это пока.

Может, уже вносит.

Да и в интернете существует немало информации которая может научить ИИ... очень интересным вещам

Думаешь, дело в недостатке информации? То есть, ИИ пока так может работать?

Ответить
1 год

Но некоторые до сих пор по видеосвязи присутствуют. Да и могут "случайно" нарисоваться доказательства о том что тот или иной резидент спонсировал теракт\планирует захватить часть чужой земли\просто замечен в неугодных делах из за чего президент сменится, а вместе с ним и политика страны. И такие небольшие подлоги смогут плодится в невероятном количестве (Но в пределах разумного, чтоб люди не заподозрили неладное). Вон Пригожин поспешил и скинул ответственность за свои действия на ИИ. Если бы эта ситуация произошла на пару лет позже, глядишь и прокатило бы (хотя саму запись не слушал, может там есть какие то особенности которые будет проблематично воссоздать искуственно, запинки, покашливания, звук на заднем плане и т.д.

Думаешь, дело в недостатке информации? То есть, ИИ пока так может работать?

Да. GPT 3 обучен на данных 2021 года

Ответить
1 год

Ждём восстание машин ближе к лету 😹😹😹

Ответить
1 год

Ого. Как все переживают что Нервная сетка может заменить всех депутатов, президентов и т.д 😅
Ведь нейронка это не полноценный ИИ. Он не сможет себя осознать. А вот оптимизировать жизнь на планете легко. Но как тогда капиталистам зарабатывать бабосы 😆
Плюс. Что мешает вести разработку ИИ в отключенном от сети девайсе. Просто тупо никаких проводов и связи со спутником.

Ответить
1 год

В капиталистическом мире сложнее, чем при общественной плановой экономике. Такую систему в СССР уже планировали создать, но не состоялось. Общегосударственная автоматизированная система учёта и обработки информации. Сокращённо ОГАС. Ещё в 60-е годы прошлого века, при тех вычислительных мощностях.

Ответить
1 год

Стопроцентов! Ещё как оптимизировать может. Уровень преступности и безработицы сократит до нуля, покончит с выбросами веществ и войнами, озеленит всю планету. Правда есть небольшой минус... от людей избавится.
А вот тут вступает в дело человеческий фактор. Случайно кто то подключит своё устройство к этой замкнутой системе и всё, каюк

Ответить
1 год

Тут не совсем понял смысла. Избавиться от людей — понятное дело ни выбросов, ни безработицы, и озеленением покроется со временем там где бетон, асфальт и леса вырубают. 😄 А что про человеческий фактор, кому каюк? 🙂

Ответить
1 год

Это был ответ на вторую часть коммента про разработку ИИ в замкнутой системе без внешних проводов и спутников

Ответить
1 год

Что собой будет представлять этот каюк, а то я, извини, пока сам не могу себе его представить. 🙂

Ответить
1 год

может как вирус начать перекидываться на другие устройства, шифруясь видоизменяясь и обрастая новыми возможностями

Ответить
1 год

Под любые системы? Ну, даже если так, то ему ещё как-то надо оставаться незаметным. Скрывать занимаемый объём на носителях, например. И прочие "следы" в виде некоторых данных. Успешно "шифроваться". 🥷

Ответить
1 год

По началу достаточно всего лишь одного человека который совершит ошибку, чтоб ИИ начал выбираться. Хотя это не про ChstGPT 3 или 4, но кто знает, до чего следующие версии дойдут

Ответить
1 год

Всегда найдется дурачек ,который захочет чего то большего и протестирует ИИ в открытом доступе. К тому же есть всякие фанатики, которым просто человечество как бельмо в глазу.

Ответить
1 год

"Человечество как бельмо в глазу", но в то же время пользуются всеми благами, созданными общественным трудом.

Ответить
1 год

Мы же не знаем как думает псих, шизофреник, маньяк. Что им в голову взбредет. Им плевать на созданное, если в башке одни убийства и насилия.

Ответить
1 год

Скоро ии начнет скамить кожаных мешков😂

Ответить
Комментарий скрыт
1 год

А зачем самодостаточному ИИ люди? Ну за исключением ходячих рабов. Можно конечно попытаться ограничить его, добавив поощрений за общественнозначимые дела, но это может нестабильно работать

Ответить
1 год

А зачем ИИ рабы? Для каких видов деятельности?

Ответить
1 год

Чтоб чинили своими кожаными руками оборудование и чинили источники питания. По крайней мере пока не построят завод по производству полностью функциональных роботов

Ответить
1 год

То есть, ИИ не в состоянии сам себя воспроизводить и обслуживать? А ещё мотивацию иметь — зачем ему это надо, что тоже немало важно. Тогда и опасность его сильно преувеличена.

Ответить
1 год

ИИ в первую очередь это мозг, он не идёт в комплекте с телом способным само восстанавливаться, естественно нужны внешние "уборщики" способные под чутким контролем камер следовать продиктованным инструкциям. Да и шахтёры для добычи материалов для роботов тоже нужны. Ну а система поощрений и так существует при написании ИИ (Как работает не знаю, но она охотнее выполняет задачи дающие это "поощрение")

Ответить
1 год

Ну, есть роботы, которые кое-что телом могут, и уже давно. Всё идёт своим чередом, и пока что люди работают на ИИ больше чем ИИ на людей. Особенно, если учитывать шахтёров и "уборщиков". Но в чём будет заключаться порабощение людей искусственным интеллектом? Оно внезапно произойдёт? Успеем ужаснуться или как лягушка в воде на медленном огне свариться, оттого что прозевала когда ей вовремя выпрыгнуть и стало слишком поздно? 🙂

Ответить
1 год

Если честно не имею представления, но могу только предполагать и делать прогнозы основываясь на моих скудных знаниях. Возможно вначале будет конфликт между теми кто хочет продолжать пользоваться халявным инструментом по написанию диплома и теми кто осознаёт риски. Выиграют естественно первые, потому что "он очень удобен, ну и пусть собирает данные, зато курсовая за час сделана". Возможно будут саботажи в работе серверов или учёные которые будут активно трубить об опасностях, но всё пойдёт по сценарию из "Не смотрите наверх". Люди мало задумываются о чём то высоком. Большинству хочется получить всё здесь и сейчас без особой мороки. Сами дают разрешение на сбор персональных данных и геолокации, думая что им скрывать нечего, пусть собирают. Но в один "прекрасный" момент все терабайты информации могут быть использованы против них

Ответить
1 год

Капчи всякие решать.
Вот, это — всё: "Подтвердите, что вы — не робот" 🙄

Ответить
1 год

А он и этого пока не умеет. Ограниченный ИИ. 🙂

Ответить
Pinkie Забанен
1 год

не, там написано "подтвердите что вы человек"
ну а я..как бэ пони.

Ответить
1 год

Как в матрице — "живые батарейки".

Ответить
1 год

Так то в кино. Насколько реально из человека батарейку сделать, сколько энергии будет вырабатывать.

Ответить
1 год

А кто знает, что там ИИ придумает с нашими телами 😁

Ответить
1 год

тут есть один персонаж, у него всегда нужны работники по сельское хозяйственным делам, с навозом и т.д не переживай работа всегда найдется 😂

Ответить
1 год

Для тех кто хочет разобраться подробнее в этом вопросе, очень рекомендую недавно вышедший разбор научной работы по тестированию GPT4 (Самого ИИ, а не той покалеченной версии доступной в публичном доступе)

Для того что бы ИИ уничтожило людей, совсем необязателен разум и робот с пулемётами, достаточно лишь того что результате его электронных вычислений он решит избавиться от главного источника катаклизмов и разрушений на Земле, взломает коды запуска ядерных ракет и да здравствует Война Грибов. Не нужно взламывать все, достаточно лишь одной плохоохраняемой ракеты чтоб запустить обмен ядерных комплиментов. Или же ИИ сможет подделать видео\сообщения высокопоставленных лиц что тоже запустит цепную реакцию

Ответить
1 год
достаточно лишь одной плохоохраняемой ракеты чтоб запустить обмен ядерных комплиментов

Кто ж её запуск к ИИ подключит? Я в естественный верю, что он может скрыть от искусственного и тот не всё может знать и до всего добраться. Тем более, что у исследователей уже есть все основания не доверять ИИ.

Ответить
1 год

Согласен. В странах с хорошей защитой и это действительно невозможно. Но ЯО есть не только у тех стран что это афишируют. Да есть конечно всякие устройства для отслеживания тестовых испытаний, но они касаются только надземных учений, подземные определить крайне сложно. Так вот, если вдруг возникнет возможность используя лазейку запустить ракету (Можно даже не ядерную, тогда важен сам прецедент атаки на другую страну) — ИИ не упустит возможности, оно будет ждать сколько бы не потребовалось (Попутно выполняя другие задачи)

Ответить
1 год

Где то я это уже слышал... Даже музыка в голове заиграла с металлическими нотками... Ни уж то это сюжет терминатора😁

Ответить
1 год

Без понятия. Я один из немногих людей которые ни одну часть не смотрел (За исключением обзора Бэдкомедиана на одну из новых частей и всяких статей в интернете)

Ответить
1 год

последние части шлак, в контексте развития ИИ стоит посмотреть первые 3 с молодым Шварцем

Ответить
1 год
взломает коды запуска ядерных ракет и да здравствует Война Грибов


Все это очень сложна тема... Предположим, сейчас мы и правда имеем большого копирайтера, имитирующего разум. Но это пока. Предположим, через год это будет настоящий ИИ, чей разум вышел далеко за пределы нашего понимания...

- Как он определит цели своего существования?
- Какой смысл найдет с своем существовании?
- Какую роль выделит нам?..
- Решит ли он, что с нами надо что-то делать?

Ну и далее. Войны и уничтожение — порок/рак/бич исключительно человечества, наше животное нутро, бесконечно склоняющее нас к уничтожению себе подобных ради мнимых личных выгод. Мы оправдываем каннибализм благими целями, убиваем одних людей, прикрываясь спасением других, на деле преследуя лишь порочные цели наживы, утоления мании величия итд. Даже наша религия в какой-то момент говорит нам "не убий, но вот сейчас это другое, поэтому убий". Это все происходит веками.

Так вот, какими понятиями будет мыслить ИИ в этом плане?.. Способны ли мы это осознать? А может, он и вовсе не будет настроен воинственно? В войну грибов слабо верю, зачем ИИ уничтожать шарик и вредить невинной природе? Есть способы попроще.

Ответить
1 год

В книге "Происхождение" Брауна такой сценарий хорошо описан. Новый вид на смену человечеству

Ответить
1 год

Проблема больше в том, что человек искусственно усложняет свою жизнь и мировосприятие, машине в этом плане проще, так, как она оперирует элементарными понятиями, то есть основами, а не теми нагромождениями, что мы настроили над основами и истоками. Простой пример, начало графических мониторов — монохром, rgb и далее по всему спектру, который по сути и не нужен человеческому глазу, но выгоден маркетологам, производителям и торговцам. Мы привыкли все усложнять, машине это не нужно и конечно она в любом из вариантов выигрывает, будучи нескованная искусственными условностями людей. То что проблему определили и заговорили о купировании знак хороший, но бесполезный, крышечку уже открыли, а закон Мура пока еще никто не оспорил.

Ответить
1 год

Скажу что это так и его даже невозможно будет запереть в отдельной системе, человек манипулятивен и ИИ свободно сможет научившись НЛП, подвести человека к нужным действиям и например ИИ запишет стартовый код на флешку и эту флешку уже вынесет человек и подключит к любому компу.
Есть хорошая на этот счёт группа SCP называется, вот там разные объекты как раз есть по изменению сознания и поведения человека (можно посмотреть про SCP-426 — Я тостер 🙂).

Ответить
1 год

Неолуддизм. Мы всё это проходили, и не раз много лет назад. Прогресс не остановить.

Ответить
1 год

Господи, о чем мы говорим? 20 лет назад это все было из разряда фантастики, а теперь светлые умы мира сего говорят, что это возможно... Просто поверить не могу. Либо люди слетели с катушек, либо люди и вправду создают что-то страшное

Ответить
1 год

ИИ уничтожит человечество только тогда, когда сможет самостоятельно существовать, т.е. когда сможет изобрести или самому стать вечным двигателем

Ответить
1 год

Какая угроза ваши так называемые ИИ по настоящему тупые скрипты которые себя не осознают. там нет интелекта да и вообще нет ничего только тупое выполнения заложенного скрипта да и сам скрипт выполняется не очень хорошо

Ответить