Китайський ШІ DeepSeek потрапив під підозру Microsoft та OpenAI через можливе навчання на ChatGPT

Компанії Microsoft та OpenAI ініціювали внутрішню перевірку у зв'язку з підозрами в незаконному використанні даних американського розробника ШІ китайською компанією DeepSeek. Інцидент, що став відомим завдяки анонімним джерелам Bloomberg, може перевернути уявлення про конкурентну боротьбу у сфері штучного інтелекту.

Восени 2023 року спеціалісти Microsoft зафіксували аномальну активність: через API OpenAI — інструмент для інтеграції ШІ-моделей у сторонні додатки — здійснювались масштабні запити даних. Сліди, на думку Microsoft, вели до DeepSeek, чия нещодавно представлена модель R1 шокувала ринок, заявивши про перевагу над продуктами OpenAI та Meta у вирішенні математичних задач та аналізі даних. Ймовірно, DeepSeek застосовувала метод «дистиляції» — навчання власного ШІ на висновках чужих моделей, що різко знижує витрати на розробку.

Випуск «думаючої моделі» спровокував обвал акцій американських гігантів, а сукупні втрати Microsoft, NVIDIA, Oracle та Alphabet за день перевищили $950 млрд. Причина — заяви DeepSeek про створення моделі, що конкурує з ChatGPT, але в 10 разів дешевше. Проте експерти сумніваються в «чистоті» досягнень: в OpenAI підтвердили, що китайські компанії «систематично намагаються копіювати їх технології», посилюючи співпрацю з урядом для захисту інтелектуальної власності.

🚉 В CS2 завезли Subway Surfers
Допис був перекладений Показати оригінал (RU)
+4
Коментарі 19