Anthropic обвинила DeepSeek в обучении нейросети на ИИ Claude
Китайские лаборатории получили доступ к Claude, несмотря на запрет
По данным Business Insider, в Anthropic сообщили, что попытки дистилляции носили характер «кампаний промышленного масштаба». Claude официально недоступен для коммерческого использования в Китае, однако, по данным компании, конкуренты нашли способы обхода региональных ограничений.
Дистилляция — это обучение менее мощной модели на результатах более мощной. Такая практика легально применяется многими американскими компаниями при подготовке моделей к публичному запуску. В Anthropic заявили, что в данном случае её системы использовались в нарушение условий обслуживания.
Компания также заявила, что во время одной из кампаний MiniMax в течение суток перенаправила почти половину своих запросов на новую версию Claude сразу после её релиза, чтобы использовать возможности последней модели. DeepSeek пыталась создавать версии ответов, которые обходили цензурные ограничения для политически чувствительных запросов.
OpenAI также заявила о нарушениях со стороны DeepSeek
Ранее OpenAI сообщила американским законодателям, что DeepSeek могла обучать свои модели на ответах ChatGPT.
Также в OpenAI сообщили о новых способах обхода ограничений доступа к ИИ-модели. По данным внутренней проверки, аккаунты, связанные с сотрудниками DeepSeek, подключались через сторонние маршрутизаторы. Это позволяло скрывать источник запросов и снижало эффективность защитных механизмов.
В компании отметили, что масштабная дистилляция может угрожать коммерческой модели разработчиков ИИ, которые инвестируют миллиарды долларов в инфраструктуру и зарабатывают на подписках. Многие китайские модели, включая DeepSeek, не требуют ежемесячной оплаты, что, по данным OpenAI, усиливает конкуренцию на рынке.
Anthropic выступила за экспортный контроль
В Anthropic заявили, что подобные кампании становятся всё более интенсивными и изощрёнными, а окно для действий сужается. Компания отметила, что атаки дистилляции усиливают аргументы в пользу экспортного контроля: ограниченный доступ к чипам, по её оценке, снижает как прямое обучение моделей, так и масштаб незаконной дистилляции.
Генеральный директор Anthropic Дарио Амодеи ранее писал, что ведущие модели приближаются к уровню, при котором без надлежащих защитных механизмов они могут помочь человеку в создании биологического оружия.
Anthropic ранее обвиняли в нарушении авторских прав
Anthropic ранее сталкивалась с обвинениями в использовании материалов, защищённых авторским правом. В январе The Washington Post сообщила о проекте Project Panama, который, по данным издания, описывался как попытка «деструктивно отсканировать все книги в мире». В прошлом году компания урегулировала коллективный иск авторов и издателей некоторых книг на сумму $1,5 млрд и не признала своей вины.
DeepSeek — самая популярная нейросеть в России
По данным исследования МТС AdTech и «Медиалогии», в 2025 году DeepSeek стала самой популярной нейросетью в России по фактическому использованию.
53% пользователей генеративного ИИ в России — женщины, 47% — мужчины. Чаще всего нейросетями пользуются россияне до 24 лет — это 25% аудитории. Каждый десятый пользователь — предприниматель, самозанятый или инвестор. По данным исследования, 42% обращаются к ИИ ежедневно, а 59% начали пользоваться нейросетями менее года назад.
