Информационные технологииStfw.Ru 🔍
🕛

OpenAI, Anthropic и Google объединились для борьбы с копированием ИИ-моделей китайцами

Solen Feyissa unsplash.com Для обмена информацией три компании решили использовать некоммерческую организацию Frontier Model Forum, созданную ..., Solen Feyissa unsplash.com Для
OpenAI, Anthropic и Google объединились для борьбы с копированием ИИ-моделей китайцами


Solen Feyissa / unsplash.com
Для обмена информацией три компании решили использовать некоммерческую организацию Frontier Model Forum, созданную в 2023 году совместно с Microsoft. OpenAI подтвердила своё участие в проекте обмена информацией о дистилляции моделей ИИ и напомнила, что ранее направила в американский конгресс записку, в которой обвинила китайскую DeepSeek в попытке «бесплатно использовать возможности, разработанные OpenAI и другими передовыми американскими лабораториями».
Дистилляция — метод, при котором существующая ИИ-модель используется для обучения новой, способной воспроизводить возможности старшей, часто с гораздо меньшими затратами, чем создание модели с нуля. Некоторые формы этого процесса широко распространены и даже поощряются для разработки более компактных и эффективных моделей; разработчики позволяют его применять и своим клиентам, но только для целей, не связанных с конкуренцией.


OpenAI, Anthropic и Google объединились для борьбы с копированием ИИ-моделей китайцами


Levart_Photographer / unsplash.com

Большинство китайских ИИ-моделей издаются с открытыми лицензиями, позволяя пользователям свободно запускать их на своих платформах и неограниченно видоизменять. Это оборачивается проблемами для американских компаний, которые выпускают закрытые модели, предоставляя к ним платный доступ, в том числе чтобы компенсировать собственные затраты. OpenAI настаивает, что китайская DeepSeek продолжает использовать дистилляцию американских моделей для создания новой версии своего чат-бота.
Обмен информацией между американскими разработчиками ИИ повторяет стандартную практику в области кибербезопасности — здесь компании регулярно публикуют сведения об атаках и особенностях тактики злоумышленников, чтобы укрепить работу ресурсов. Работая вместе, создатели ИИ стремятся более эффективно выявлять практику дистилляции, определять ответственных лиц и пытаться предотвратить неавторизованный доступ. Пока эта процедура ограничена: участники проекта не уверены, в какой мере могут передавать друг другу данные в соответствии с действующими антимонопольными нормами, направленными на борьбу с китайской угрозой.
Помимо OpenAI, вопросы о проблеме дистилляции поднимали Anthropic и Google. Первая указывала на китайские стартапы DeepSeek, Moonshot и MiniMax; вторая сообщала, что попытки дистилляции её моделей в последнее время участились. Три компании не представили доказательств, подтверждающих меру зависимости китайской отрасли ИИ от этого процесса, но отметили, что степень его распространения можно измерить на основе объёмов крупномасштабных запросов данных.

Также по теме:
Stfw.Ru
Вне компьютерной темы.