Новости Китайский ИИ DeepSeek попал под подозрением Microsoft и OpenAI из-за возможного обучения на ChatGPT

Китайский ИИ DeepSeek попал под подозрением Microsoft и OpenAI из-за возможного обучения на ChatGPT

DoubleA
Читать в полной версии

Компании Microsoft и OpenAI инициировали внутреннюю проверку в связи с подозрениями в нелегальном использовании данных американского разработчика ИИ китайской компанией DeepSeek. Инцидент, ставший достоянием общественности благодаря анонимным источникам Bloomberg, может перевернуть представление о конкурентной борьбе в сфере искусственного интеллекта.

Осенью 2023 года специалисты Microsoft зафиксировали аномальную активность: через API OpenAI — инструмент для интеграции ИИ-моделей в сторонние приложения — осуществлялись масштабные запросы данных. Следы, по версии Microsoft, вели к DeepSeek, чья недавно представленная модель R1 шокировала рынок, заявив о превосходстве над продуктами OpenAI и Meta в решении математических задач и анализе данных. Вероятнее всего DeepSeek применяла метод «дистилляции» — обучения собственного ИИ на выводах чужих моделей, что резко снижает затраты на разработку.

Релиз «думающей модели» спровоцировал обвал акций американских гигантов, а совокупные потери Microsoft, NVIDIA, Oracle и Alphabet за день превысили $950 млрд. Причина — заявления DeepSeek о создании модели, конкурирующей с ChatGPT, но в 10 раз дешевле. Однако эксперты сомневаются в «чистоте» достижений: в OpenAI подтвердили, что китайские компании «систематически пытаются копировать их технологии», усиливая сотрудничество с правительством для защиты интеллектуальной собственности.

😂 В сети бурно обсуждают коронный приём Ясукэ из Assassins Creed: Shadows
Комментарии 18
Оставить комментарий
1 день

Но разве в таком случае ответы модели не должны быть хуже чем ответы моделей на которых она обучалась?

Ответить
1 день

Нет, наоборот, ведь весь мусор из ответов другой нейросети отсеивается и остается самый сок

Ответить
1 день

Т.е скопировали и плюс улучшили, ну молодцы, что ещё добавить.

Показать спойлерСкрыть спойлер
Ответить
1 день

Что-то вроде того, это как склепать мод для игры на основе родных текстур и кода, но при этом сделать лучше чем оригинальная игра)

Ответить
1 день

А как же галлюцинации нейронки? Или не только на запросах тренировали? Просто если нейронка ответит бред, то у DeepSeek не будет с чем сверять... Хотя если несколько раз задать вопрос, то можно оставить вариант который будет большее количество раз выдаваться...

Ответить
1 день

Так и эта тоже галлюцинирует, это проблема абсолютно всех

Ответить
1 день

Но вопрос в количестве. Если ЧатGPT обучалась на обычных материалах и галлюционирует, но иногда выдаёт истину, т.е. материал на котором обучалась. А DeepSeek может посчитать за истину — галлюцинацию, из за чего даже когда она будет выдавать ответ прям из материалов на которых обучалась — этот ответ будет хоть и "истиной", но галлюцинацией
Галлюцинация в квадрате

Ответить
1 день

Вот для, что бы этого избежать и применялся так называемый метод «дистилляции». Как я подозреваю нейронка училась и на галлюцинациях в том числе чтобы их не плодить в таком же объеме как условный первоисточник.

Ответить
1 день

Теперь понятно. Спасибо.
Ну эта нейронка уже выигрывает у Чата хотя бы в том что может запускаться локально и у неё (по словам некоторых кто уже к ней прикоснулся), можно выключить цензуру (хотя это и минус, так как много вариантов как её использовать во вред)

Ответить
1 день

У пиндосов, как обычно, фантомные боли на тему "у нас украли наши лучшие в мире технологии". То Обэма недосмотрел за чертежами гиперзвука, то мусорософт недосмотрели за коварными китайцами. 😂

Ответить
1 день

Ну а как ещё они могут попробовать устранить внезапно появившегося конкурента. Суммы освоены уже астрономические на разработку, а выхлопа будет ноль, если пендосы, не смогут впаривать хомякам втридорога свой продукт. Поэтому, будут искать возможности, ЛЮБЫЕ, чтобы не дать занять рынок конкурентам. Ничего же личного, это просто бизнес!"(С)

Просто даже такая претензия, что нейросеть обучается на других нейросетях "эта жи ни ни", и нарушает какие-то там права.

Ага, Китайцы так прям и признаются, что они там использовали для создания и обучения своей нейронки.

Ответить
1 день

Посмотрим что смогут ли доказать связь

Ответить
1 день

Джентльменам надо на слово верить.

Ответить
1 день

А-ха-ха. Типа ученик превзошел ученика?

Ответить
1 день

Чего же они тогда не прервали эти "масштабные запросы данных" ещё осенью 23-го?)))))

Ответить
1 день

судя по тексту в дс встроили оаи,и вытягивали за счет нее инфу . что тут сказать разраб дс просто красава

Ответить
1 день

Неудивительно если это правдой окажется. Китайцы любят "одалживать" технологии. 😀

Ответить
15 часов

Чтобы показаться умными, нужны промолчать, но нет, мелкомягкие и опенсы выглядят дураками.

Ответить