Anthropic AI призывает принять меры против «атак дистилляции» после того, как обвинил три компании, занимающиеся искусственным интеллектом, в неправомерном использовании своих облачных чат-ботов. На своем веб-сайте Anthropic заявила, что DeepSeek, Moonshot и MiniMax «проводят кампанию промышленного масштаба по незаконному извлечению возможностей облака для улучшения своих собственных моделей».
Дистилляция в мире ИИ означает, что менее способные модели полагаются на обратную связь от более мощных для обучения. Хотя дистилляция не так уж и плоха, Антропик утверждает, что подобные атаки можно использовать и более гнусными способами. По данным Anthropic, эти три китайские компании, занимающиеся искусственным интеллектом, несут ответственность за «более 16 миллионов обменов с облаком через примерно 24 000 мошеннических учетных записей». С точки зрения Anthropic, эти конкурирующие компании использовали облако как ярлык для разработки более продвинутых моделей искусственного интеллекта, что также позволяло им обходить некоторые меры безопасности.
В своем сообщении Anthropic сообщила, что ей удалось с «высокой степенью достоверности» связать каждую из этих кампаний по атаке с конкретными компаниями на основе корреляции IP-адресов, запросов метаданных и показателей инфраструктуры, а также на основе подтверждения другими представителями отрасли искусственного интеллекта, которые наблюдали подобное поведение.
В начале прошлого года OpenAI столкнулась с аналогичными заявлениями о том, что конкурирующие компании подделывают ее модели, и в ответ заблокировала подозрительные аккаунты. Что касается Anthropic, компания, создавшая облако, заявила, что обновит свои системы, чтобы сделать атаки методом дистилляции более трудными и легкими для обнаружения. Хотя Anthropic указывает пальцем на эти другие компании, ей также грозит иск со стороны музыкальных издателей, которые обвинили компанию, занимающуюся искусственным интеллектом, в использовании незаконных копий песен для обучения своего облачного чат-бота.