Компанії Microsoft та OpenAI ініціювали внутрішню перевірку у зв'язку з підозрами в незаконному використанні даних американського розробника ШІ китайською компанією DeepSeek. Інцидент, що став відомим завдяки анонімним джерелам Bloomberg, може перевернути уявлення про конкурентну боротьбу у сфері штучного інтелекту.
Восени 2023 року спеціалісти Microsoft зафіксували аномальну активність: через API OpenAI — інструмент для інтеграції ШІ-моделей у сторонні додатки — здійснювались масштабні запити даних. Сліди, на думку Microsoft, вели до DeepSeek, чия нещодавно представлена модель R1 шокувала ринок, заявивши про перевагу над продуктами OpenAI та Meta у вирішенні математичних задач та аналізі даних. Ймовірно, DeepSeek застосовувала метод «дистиляції» — навчання власного ШІ на висновках чужих моделей, що різко знижує витрати на розробку.
Випуск «думаючої моделі» спровокував обвал акцій американських гігантів, а сукупні втрати Microsoft, NVIDIA, Oracle та Alphabet за день перевищили $950 млрд. Причина — заяви DeepSeek про створення моделі, що конкурує з ChatGPT, але в 10 разів дешевше. Проте експерти сумніваються в «чистоті» досягнень: в OpenAI підтвердили, що китайські компанії «систематично намагаються копіювати їх технології», посилюючи співпрацю з урядом для захисту інтелектуальної власності.
Нет, наоборот, ведь весь мусор из ответов другой нейросети отсеивается и остается самый сок
Т.е скопировали и плюс улучшили, ну молодцы, что ещё добавить.
Что-то вроде того, это как склепать мод для игры на основе родных текстур и кода, но при этом сделать лучше чем оригинальная игра)
А как же галлюцинации нейронки? Или не только на запросах тренировали? Просто если нейронка ответит бред, то у DeepSeek не будет с чем сверять... Хотя если несколько раз задать вопрос, то можно оставить вариант который будет большее количество раз выдаваться...
Но вопрос в количестве. Если ЧатGPT обучалась на обычных материалах и галлюционирует, но иногда выдаёт истину, т.е. материал на котором обучалась. А DeepSeek может посчитать за истину — галлюцинацию, из за чего даже когда она будет выдавать ответ прям из материалов на которых обучалась — этот ответ будет хоть и "истиной", но галлюцинацией
Галлюцинация в квадрате
Вот для, что бы этого избежать и применялся так называемый метод «дистилляции». Как я подозреваю нейронка училась и на галлюцинациях в том числе чтобы их не плодить в таком же объеме как условный первоисточник.
Теперь понятно. Спасибо.
Ну эта нейронка уже выигрывает у Чата хотя бы в том что может запускаться локально и у неё (по словам некоторых кто уже к ней прикоснулся), можно выключить цензуру (хотя это и минус, так как много вариантов как её использовать во вред)
У пиндосов, как обычно, фантомные боли на тему "у нас украли наши лучшие в мире технологии". То Обэма недосмотрел за чертежами гиперзвука, то мусорософт недосмотрели за коварными китайцами. 😂
Ну а как ещё они могут попробовать устранить внезапно появившегося конкурента. Суммы освоены уже астрономические на разработку, а выхлопа будет ноль, если пендосы, не смогут впаривать хомякам втридорога свой продукт. Поэтому, будут искать возможности, ЛЮБЫЕ, чтобы не дать занять рынок конкурентам. Ничего же личного, это просто бизнес!"(С)
Просто даже такая претензия, что нейросеть обучается на других нейросетях "эта жи ни ни", и нарушает какие-то там права.
Ага, Китайцы так прям и признаются, что они там использовали для создания и обучения своей нейронки.
Чего же они тогда не прервали эти "масштабные запросы данных" ещё осенью 23-го?)))))
судя по тексту в дс встроили оаи,и вытягивали за счет нее инфу . что тут сказать разраб дс просто красава
Неудивительно если это правдой окажется. Китайцы любят "одалживать" технологии. 😀
Чтобы показаться умными, нужны промолчать, но нет, мелкомягкие и опенсы выглядят дураками.
Но разве в таком случае ответы модели не должны быть хуже чем ответы моделей на которых она обучалась?