GPT-OSS: как выглядит модель OpenAI с открытым весом (но не с открытым исходным кодом)

5 августа 2025 года OpenAI выпустила две версии GPT-OSS , которые в блоге OpenAI описываются как обеспечивающие действительно конкурентоспособную производительность по сравнению с конкурентами, при низких затратах и с результатами, почти соответствующими результатам некоторых предыдущих моделей.
«Эти модели, доступные по гибкой лицензии Apache 2.0, — говорится в сообщении блога, — превосходят открытые модели аналогичного размера при решении задач логического вывода, демонстрируют мощные инструментальные возможности и оптимизированы для эффективного развертывания на потребительском оборудовании».
Итак, маркетинг OpenAi, а отсюда — более подробный анализ того, что на самом деле представляет собой GPT-OSS.
Открытый исходный код или открытый вес?Несмотря на только что процитированное утверждение, согласно которому модели будут «доступны по гибкой лицензии Apache 2.0…», GPT-OSS вовсе не является, как можно было бы подумать, открытым исходным кодом, а лишь «открытой версией», что является совершенно разными вещами.
Фактически, OpenAI применила лицензию Apache 2.0 GPT-OSS только к весам, а не ко всему остальному. Другими словами, OpenAI решила сделать параметры, определяющие реакцию нейронной сети после обучения (точнее, веса), общедоступными и пригодными для повторного использования , но не сделала того же самого с программными компонентами, используемыми, например, для обучения.
Этот выбор вполне законен и понятен с коммерческой точки зрения, но он не позволяет исказить смысл слов, подразумевая, что пользователи имеют доступ ко всему, что включено в модель. Поэтому было бы точнее написать: « С весами, доступными по гибкой лицензии Apache 2.0, эти модели...» — три слова, которые радикально меняют форму предложения и его смысловую нагрузку.
Что означает, что GPT-OSS не имеет открытого исходного кода?В целом GPT-OSS не является ни «открытым исходным кодом», ни « свободным » в юридическом смысле, определяемом Free Software Foundation , то есть он полностью свободен, даже в части своих программных компонентов. Что касается самого программного обеспечения, GPT-OSS представляет собой «проприетарную» модель в том смысле, что OpenAI сохраняет контроль и секретность над тем, как оно было создано и управляется.
Фактически, платформа ИИ состоит из множества компонентов, таких как, если говорить очень грубо и крайне (и даже чрезмерно) упрощённо: исходные данные , организованные в набор данных , программное обеспечение, используемое для создания и управления набором данных, на основе которого работает модель, и, собственно, « веса ». Только последние, как уже упоминалось, выпускаются по лицензии Apache 2.0, которая позволяет «воспроизводить, создавать производные работы , публично демонстрировать, публично исполнять, сублицензировать и распространять работу и такие производные работы в исходном коде или объектной форме».
Тот факт, что «гибкость» касается только повторного использования весов, имеет решающее значение, поскольку, если только они будут пригодны для повторного использования и модификации, то любой сможет «настроить» работу модели, пусть и лишь частично . Это создаёт серьёзную проблему, которая может побудить нас дважды подумать, прежде чем создавать «тонко настроенные» модели GPT-OSS и использовать их для предложения продуктов и услуг.
Открытый вес, проверка безопасности и побег из тюрьмыПомимо создания (частично) специализированных версий GPT-OSS, работа над весами теоретически позволила бы нам исключить или, по крайней мере, снизить эффективность проверок безопасности, встроенных в модель, которые должны предотвращать генерацию ответов, которые проектировщики посчитают неприемлемыми — согласно субъективным стандартам, а не обязательно предписанным законом.
Введение к карте модели GPT-OSS , а затем более подробное её описание, обращают особое внимание на фильтрацию данных, например, по химическим, биологическим, радиологическим и ядерным областям . Это необходимо для того, чтобы модель не достигла высокой способности к выдаче опасных ответов в этих областях даже при выполнении «злонамеренного» уточнения.
Из этого, по-видимому, вытекают два гипотетических следствия и одно несомненное.
Во-первых, в любом случае (чрезвычайно сложно, но) возможно сделать GPT-OSS более точной для незаконных целей (если, например, не будут внедрены системы, которые «ломают» модель в случае нежелательного изменения точности).
Второе предположение, основанное на предыдущем, заключается в том, что не уточняется, какой вред могут нанести эти менее эффективные и мощные незаконные модели, которые все еще функционируют на «темной стороне».
Какими бы ни были ответы на эти два вопроса, при отсутствии экспериментальных данных любое утверждение было бы чисто спекулятивным; напротив, несомненно, что по тем же причинам не все точности GPT-OSS были бы возможны. Следовательно, юридическая квалификация модели потребует дальнейшего уточнения, включая разъяснение того, что веса могут быть изменены в узких пределах, независимо установленных OpenAI, и что, следовательно, модель является «частично открытыми весами» или что лицензия Apache 2.0 не применима в полной мере.
(Почти) все так делают.В заключение следует отметить, что ясно (и в некотором смысле очевидно), что GPT-OSS, как и ее фирменные версии и версии (почти) всех ее конкурентов, допускает очень широкое использование, но в любом случае ограничено выбором дизайна тех, кто его создал, что неприемлемо.
Не имеет значения, делается ли это для того, чтобы избежать судебного преследования , ограничить распространение информации, нежелательной для руководителей ( как в случае с DeepSeek ), или чтобы избежать неизбежных волн общественного возмущения, которые возникают всякий раз, когда кто-то обвиняет инструмент (а не человека, который его использует) в том, что он использовался незаконным или вызывающим беспокойство образом .
Ограничение — цензура — использования степени магистра права заранее из-за того, что кто-то может злоупотребить ею для совершения незаконных действий, означает отношение ко всем пользователям как к потенциальной опасности, за которой, следовательно, необходимо вести наблюдение в любом случае, причем наблюдение должно осуществляться частной организацией в соответствии с ее собственными правилами.
Совершенно справедливо, что такой подход вызвал споры и протесты, когда Apple и Европейская комиссия начали обсуждать сканирование на стороне клиента (превентивный и автоматический поиск на всех устройствах пользователей противозаконного контента перед его отправкой).
Если это так, то неясно, почему OpenAI и всем другим компаниям в сфере ИИ должно быть разрешено делать то, что мы просим других запретить.
С другой стороны, если существуют обоснованные опасения, что модель без контроля безопасности слишком опасна, то государства должны взять на себя ответственность за определение сферы действия этого контроля, а не делегировать это частным организациям, чьи цели не обязательно совпадают с защитой общественных интересов (граждан, которые не обязательно являются гражданами США).
repubblica