AI Lawsuits

Маск признал, что xAI использовал модели OpenAI для обучения

Илон Маск вышел и признался, что его ИИ-стартап xAI «заимствовал» мозговую силу у OpenAI, чтобы довести свой собственный чат-бот Grok до ума. Похоже, некая «дистилляция моделей» — это грязный секрет.

{# Always render the hero — falls back to the theme OG image when article.image_url is empty (e.g. after the audit's repair_hero_images cleared a blocked Unsplash hot-link). Without this fallback, evergreens with cleared image_url render no hero at all → the JSON-LD ImageObject loses its visual counterpart and LCP attrs go missing. #}
Илон Маск дает показания в зале суда.

Key Takeaways

  • Илон Маск подтвердил, что его ИИ-стартап xAI использовал модели OpenAI для обучения своего чат-бота Grok.
  • Практика включала «дистилляцию моделей» — технику, при которой большая ИИ-модель обучает меньшую.
  • Это признание происходит на фоне текущих судебных разбирательств между Маском и OpenAI касательно интеллектуальной собственности и направления развития компании.

Зал суда. Место, где громкие заявления встречаются с холодными, твёрдыми фактами. На этой неделе на трибуне оказался Илон Маск, признав, что его процветающая ИИ-компания xAI занималась… скажем так, внеклассным обучением у «больших псов» из OpenAI. Похоже, Grok, чат-бот, которым он так гордится, получил толчок, по сути «дистиллируя» знания из существующих моделей OpenAI. Кто бы мог подумать?

Что это за «дистилляционная» канитель?

Смотрите, в мире ИИ «дистилляция моделей» — это не какое-то экзотическое новое зелье. Это довольно стандартный кухонный инструмент. Вы берёте большую, громоздкую ИИ-модель — «учителя» — и используете её, чтобы передать мудрость меньшей, более гибкой модели — «студенту». Представьте себе опытного профессора, читающего лекцию восторженному студенту. Обычно компании делают это, чтобы создавать более лёгкие, более «злые» версии своей собственной технологии. Удобно для эффективности, не так ли? Но вот где всё становится запутанным и почему признание Маска вызывает волны.

Это также способ для более «подпольных» компаний или тех, кто ищет короткий путь, получить некоторые с трудом заработанные возможности своих более устоявшихся конкурентов. Платить за годы НИОКР? Нет, пусть большой игрок сделает домашнее задание за вас. OpenAI и Anthropic жаловались на эту практику со стороны некоторых компаний — особенно китайских, таких как DeepSeek — которые якобы воруют проприетарные ИИ-«мозги», не прилагая при этом серьёзных усилий. Google даже придумал для этого название: «атаки дистилляции», что является вежливым способом сказать кража интеллектуальной собственности.

Маск, когда его напрямую спросили, дистиллировала ли xAI технологии OpenAI, дал ответ, который заставляет журналистское чутье зазвенеть. Он уклонился, вроде как. «В целом, все ИИ-компании» так делают, сказал он. Когда его подтолкнули, он выдал «Отчасти». А затем — самое главное: «Это стандартная практика — использовать другие ИИ для проверки своих ИИ». Проверки. Верно. Потому что именно это подразумевает «дистилляция моделей», не так ли?

«Дистилляция — широко используемый и законный метод обучения. Например, передовые ИИ-лаборатории регулярно дистиллируют свои собственные модели, чтобы создавать для своих клиентов меньшие, более дешёвые версии. Но дистилляция также может использоваться в незаконных целях: конкуренты могут использовать её для приобретения мощных возможностей от других лабораторий за долю времени и долю стоимости, которые потребовались бы для их самостоятельной разработки».

Эта цитата из Anthropic идеально суммирует хождение по канату. Сама по себе дистилляция легитимна. Важны как и почему. Когда вы используете работу конкурента, особенно когда вы должны прокладывать свой собственный путь, это начинает пахнуть меньше «проверкой», а больше… ну, лёгким путём.

Кто на самом деле зарабатывает здесь деньги?

Весь этот переполох возвращает нас к извечному вопросу Кремниевой долины: кто на самом деле получает прибыль? OpenAI ведёт затяжную судебную тяжбу с собственной компанией Маска Tesla по поводу их первоначального соглашения. OpenAI утверждает, что влияние Маска уводит компанию от её первоначальной некоммерческой миссии к ориентированной на получение прибыли структуре, и ключевым элементом их аргумента является именно этот вопрос интеллектуальной собственности и её использования. Тем временем Маск управляет собственной ИИ-компанией xAI, и теперь подтверждено, что он использовал интеллектуальную собственность OpenAI. Это классический маневр в стиле Маска — подразнить медведя, а затем одолжить его мёд.

Он фактически пытается построить конкурирующую ИИ-державу на основе того, что, возможно, является фундаментальной работой другой компании, на которую он также подаёт в суд. Это смелая стратегия. Будет ли это умная стратегия в долгосрочной перспективе, учитывая юридический и этический водоворот, в который он погружается, ещё предстоит увидеть. Но пока? Он получает обученный Grok. OpenAI получает… иск и неприятное осознание того, что их тщательно созданные модели используются в качестве учебных пособий для их конкурентов.

Это просто зависть OpenAI?

Легко отмахнуться от этих обвинений как от зависти, особенно когда они исходят от технологических гигантов с глубокими карманами. Но последствия дистилляции моделей, особенно когда они включают использование основного продукта другой компании без явного разрешения, выходят за рамки простого несогласия по поводу лицензионных платежей. Это затрагивает самую суть инноваций. Если компании смогут просто дистиллировать выходные данные своих конкурентов, стимул инвестировать миллиарды в фундаментальные исследования и разработки сократится. Зачем строить Эйфелеву башню, когда можно просто купить чертёж и строительную бригаду?

Защита Маска — что это «стандартная практика» — это классический ход индустрии. Все так делают, так почему бы и нам? Но «стандартная практика» в быстро развивающейся, часто нерегулируемой области, такой как ИИ, не означает автоматически этичную или законную практику. Это просто означает, что границы ещё не были чётко определены или применены. Его подтверждение, вероятно, подстегнёт дальнейшее изучение со стороны регуляторов и юридических команд по всему ландшафту ИИ. Речь идёт не только о Grok; речь идет о «предохранителях» для всей отрасли.


🧬 Связанные аналитические материалы

Часто задаваемые вопросы

Чем занимается xAI Илона Маска?

xAI — это компания Илона Маска в области искусственного интеллекта, специализирующаяся на разработке ИИ-моделей, включая чат-бот Grok, с целью конкуренции с другими ведущими разработчиками ИИ.

Почему использование моделей OpenAI для обучения других ИИ-моделей является спорным?

Это спорно, поскольку может рассматриваться как кража интеллектуальной собственности или нарушение условий использования, позволяющее более мелким лабораториям получить возможности без дорогостоящих НИОКР, в которые инвестировали их конкуренты, даже если сама практика может быть законной при использовании внутри компании.

Повлияет ли это на производительность Grok?

Признание Маска предполагает, что дистилляция использовалась для улучшения производительности Grok. Спор вызывает то, как эти знания были получены, а не сам технический результат.

Written by
Legal AI Beat Editorial Team

Curated insights, explainers, and analysis from the editorial team.

Worth sharing?

Get the best Legal Tech stories of the week in your inbox — no noise, no spam.

Originally reported by The Verge - Policy