top of page

Генеративный ИИ в аутсорсинге программного обеспечения: авторское право и контракт с клиентом, юридические риски и практические решения.

  • 16 авг. 2025 г.
  • 9 мин. чтения

Обновлено: 15 мар.

Как соответствовать ожиданиям клиента, условиям использования инструментов genAI и быть уверенным в завтрашним дне.


Генеративный ИИ быстро стал частью рабочего процесса разработки программного обеспечения. Такие инструменты, как GitHub Copilot, ChatGPT от OpenAI и Claude от Anthropic, могут ускорить кодинг, автоматизировать процесс создания документации и даже предлагать архитектурные решения. Однако для разработчиков, работающих в аутсорсинговых компаниях, использование этих инструментов поднимает важный юридический вопрос:


Что происходит с интеллектуальной собственностью (ИС), созданной с помощью ИИ, когда конечный клиент ожидает полного и беспрепятственного владения ею?

Большинство договоров на аутсорсинг строятся на простом принципе: всё, что предоставляется, будет принадлежать исключительно клиенту. Большинство генеральных соглашений об оказании услуг (MSA) требуют от компании-разработчика гарантий того, что они владеют созданным ими кодом , что он не нарушает права третьих лиц и что его можно свободно передать клиенту. Обещание «чистой интеллектуальной собственности» имеет центральное значение для доверия в отношениях аутсорсинга. Но когда часть кода поступает из генеративной модели, обученной на огромных массивах общедоступных и открытых данных, возможность давать такие обещания без оговорок становится гораздо менее надежной.


В то же время, основные поставщики ИИ придерживаются разных подходов к условиям использования, когда речь идет о правах собственности на результаты, ответственности за нарушения и использовании пользовательских данных. Эти различия и общая неопределенность в авторском праве создают растущее напряжение между эффективностью инструментов ИИ и договорными обязательствами поставщиков услуг аутсорсинга .


В этой статье проблема рассматривается с трех сторон. Во-первых, мы проанализируем текущие условия использования наиболее популярных инструментов genAI для программирования, выделяя то, что в них говорится (и не говорится) о правах собственности, нарушении авторских прав и конфиденциальности. Во-вторых, мы рассмотрим, как эти вопросы противоречат стандартным соглашениям об аутсорсинге , которые почти всегда требуют чистой и необременённой ИС. Наконец, мы опишем практические шаги для разработчиком: согласование специальных положений об GenAI с клиентами и внедрение внутренних политик использования ИИ, способствующих безопасной и ответственной разработки с помощью ИИ.


Риски в области интеллектуальной собственности и правовые риски для разработчиков программного обеспечения, использующих инструменты генеративного искусственного интеллекта.
Может ли авторское право защищать произведения, созданные не людьми?

Споры об интеллектуальной собственности: кому принадлежит код, сгенерированный искусственным интеллектом?


В основе дискуссии о генеративном искусственном интеллекте в разработке программного обеспечения лежит обманчиво простой вопрос: кому принадлежит код, созданный ИИ?


В традиционной разработке программного обеспечения ответ очевиден. Код пишет человек, и согласно закону об авторском праве этот человек (или его работодатель, в соответствии с правилами «работы по найму» или уступки/передачи прав) владеет правами. Но в случае с результатами, генерируемыми искусственным интеллектом, правовая основа гораздо менее ясна.


Авторское право и авторство, принадлежащее человеку


В большинстве систем авторского права защита связана с человеческим творчеством. Суды в Соединенных Штатах, Европейском Союзе и других юрисдикциях неизменно придерживаются позиции, что произведения, созданные без участия человека, не подлежат защите авторским правом. Это означает, что если блок кода был полностью создан системой искусственного интеллекта без существенного вмешательства человека, он может вообще не подпадать под действие авторского права. Если авторского права нет, то разработчику нечего владеть и нечего передавать клиенту.


Обещания поставщика услуг в отношении «собственности»


Ситуацию усугубляет то, что поставщики ИИ часто заявляют пользователям, что они «владеют» результатами, сгенерированными их запросами. GitHub, OpenAI и Anthropic включают подобные декларации в свои условия предоставления услуг. Однако эти договорные гарантии не могут изменить лежащее в их основе законодательство. Если авторское право отказывает в защите, то обещание платформы передать право собственности на результат может быть скорее символическим, чем реальным. На практике это создает разрыв между договорными обязательствами и юридической реальностью.


Неочевидные нарушения


Ещё один аспект спора — нарушение авторских прав. Модели генеративного ИИ обучаются на огромных объёмах кода, взятого из репозиториев с открытым исходным кодом, документации и других общедоступных источников. Хотя поставщики применяют фильтрацию и меры по предотвращению нарушений, они не могут гарантировать, что сгенерированный код будет свободен от фрагментов, напоминающих защищённые авторские права произведения. Поэтому разработчики могут непреднамеренно использовать код, нарушающий права третьих лиц или имеющий ограничительные лицензии с открытым исходным кодом. Когда договор аутсорсинга требует гарантии «отсутствия обременений», этот риск напрямую противоречит обязательствам разработчика.


Практические последствия


Для аутсорсинговых компаний этот спор не является теоретическим. Если клиент впоследствии обнаружит, что результат работы включает в себя сгенерированный ИИ код, не защищенный авторским правом или потенциально нарушающий его, поставщик может нарушить свои гарантийные и компенсационные обязательства. Даже если юридического спора не возникает, сама неопределенность подрывает ожидания клиента относительно получения безупречной, полностью передаваемой интеллектуальной собственности.


Что говорят основные платформы GenAI в своих условиях?


Три наиболее широко используемых инструмента генеративного ИИ для программирования: GitHub Copilot, ChatGPT от OpenAI и Claude от Anthropic — все пытаются убедить пользователей в возможности коммерческого использования результатов. Однако мелкий шрифт показывает существенные различия в подходах к вопросам собственности, риска нарушения авторских прав и конфиденциальности .


GitHub Copilot


GitHub ясно даёт понять, что не претендует на право собственности на результаты работы Copilot, которые он называет «Предложениями». Как указано в условиях:


«GitHub не владеет Предложениями».

Это звучит обнадеживающе, но загвоздка в ответственности: пользователь сам решает, принимать ли Предложение, и берет на себя все связанные с этим риски. GitHub прямо не гарантирует, что результаты не защищены правами третьих лиц. Это означает, что если Copilot предлагает код, похожий на библиотеку с открытым исходным кодом, под ограничительной лицензией, ответственность лежит на разработчике, а не на GitHub. Для аутсорсинговых компаний, которые пообещали клиенту «чистую ИС», это создает прямое противоречие с их договорными гарантиями.


OpenAI (ChatGPT и API)


Условия OpenAI также внушают пользователям уверенность с первого взгляда. Например, платформа сообщает клиентам:


«Вы… являетесь владельцем Выходных данных. Настоящим мы передаем вам все наши права, титулы и интересы, если таковые имеются, в отношении Выходных данных».

Это более строгая формулировка, чем у GitHub, поскольку она включает явное указание на право собственности. Но оговорка скрыта в словах «если таковые имеются». Если закон об авторском праве не признает авторство в результате или если материал слишком похож на уже существующие произведения, то у OpenAI может и не быть прав на передачу прав.


Что касается данных, OpenAI различает потребительский ChatGPT и корпоративные/API-сервисы. Данные API и корпоративных сервисов по умолчанию не используются для обучения моделей, что делает его более подходящим для профессионального использования. Тем не менее, отсутствие каких-либо гарантий отсутствия нарушений означает, что поставщики услуг аутсорсинга не могут полагаться только на OpenAI для выполнения обязательств по соглашениям о предоставлении услуг.


Anthropic (Claude)


Компания Anthropic придерживается несколько иного подхода. Ее коммерческие условия подтверждают, что пользователи сохраняют право собственности на результаты, и обеспечивают значительную защиту, привлекательную для бизнеса:


«Мы будем защищать наших клиентов от любых претензий по поводу нарушения авторских прав… и выплатим компенсации по любым утвержденным мировым соглашениям или судебным решениям».

Так называемая «защита авторских прав» отличает Anthropic от других компаний, поскольку она разделяет часть юридических рисков с клиентами. Однако защита распространяется только на разрешенное коммерческое использование/использование API и не превращает результаты в гарантированно оригинальные произведения. Поставщикам по-прежнему необходимо контролировать, какая информация используется в запросах, и обеспечивать проверку результатов человеком перед их предоставлением.


Главный вывод


На данный момент все три поставщика позволяют разработчикам заявлять о правах на результаты своей работы, но ни один из них не предоставляет четкой гарантии того, что результаты полностью защищены или не нарушают авторские права. Для аутсорсинговых компаний это означает, что условия использования инструментов genAI сами по себе не могут восполнить пробел между неопределенностью результатов работы ИИ и определенностью, требуемой соглашениями с клиентами.


Проблема аутсорсинговых контрактов


Для компаний, занимающихся аутсорсингом программного обеспечения, успокаивающие формулировки в условиях поставщиков ИИ не решают основные юридические риски. Клиенты, как правило, ожидают и требуют по договору, чтобы все результаты работы были свободны от претензий третьих лиц и полностью передаваемы третьим лицам. Когда в дело вступает генеративный ИИ, это ожидание вступает в противоречие как с неопределенностью в отношении авторских прав, так и с оговорками поставщиков, изложенными выше.


«Чистая ИС» против неопределенности в сфере ИИ


Генеральные соглашения об оказании услуг (MSA) и технические задания (SOW) часто содержат строгие гарантии: поставщик должен гарантировать, что все поставляемое программное обеспечение является оригинальным, не нарушает авторские права и не обременено ограничениями лицензий с открытым исходным кодом, если иное не указано. Эти положения стали стандартом задолго до появления ИИ, где человеческое авторство и отслеживаемые цепочки интеллектуальной собственности делали такие гарантии реалистичными. Однако в случае с кодом, сгенерированным ИИ, ни один поставщик не может гарантировать, что выходные данные защищены авторским правом или не содержат встроенного контента третьих лиц.


Это создает разрыв: разработчик берет на себя больше обязательств, чем поставщики ИИ решений готовы или способны обеспечить.

Риски ответственности и возмещения убытков


Поскольку соглашения о предоставлении услуг обычно возлагают риски, связанные с интеллектуальной собственностью, на компанию-разработчика, любой спор о праве собственности на код или нарушении авторских прав может перерасти в претензию о нарушении гарантий или возмещении убытков. Клиент, обнаруживший, что в предоставленном продукте содержится код, скопированный (даже непреднамеренно) из ограниченного проекта с открытым исходным кодом, может потребовать возмещения убытков и/или расторжения соглашения. Для разработчиков, использующих ИИ в больших масштабах, этот риск не является теоретическим — он напрямую угрожает прибыли и отношениям с клиентами.


Проблемы, связанные с конфиденциальностью


Ещё один уровень риска связан с использованием данных. Если разработчики вводят конфиденциальную информацию клиента в общедоступные инструменты ИИ, эта информация может быть сохранена, зарегистрирована или использована для обучения модели. Хотя корпоративные версии некоторых платформ (например, OpenAI API, Anthropic Claude для бизнеса) снижают этот риск, многие аутсорсинговые команды полагаются на инструменты, ориентированные на потребителя. Это может легко нарушить строгие положения о конфиденциальности, которые являются стандартными в соглашениях об аутсорсинге.


Фундаментальное несоответствие


В основе проблемы аутсорсинговых контрактов лежит несоответствие: клиенты требуют определенности, а генеративный ИИ в настоящее время предлагает лишь вероятность. Поставщики ИИ обещают гибкость, но отказываются от ответственности. Разработчики, оказавшись в затруднительном положении, вынуждены исполнять обязательства, которые они, возможно, больше не смогут выполнить без пересмотра своих договорных условий.


Стратегии смягчения последствий


Хотя генеративный ИИ сопряжен с юридическими и договорными трудностями, аутсорсинговые компании могут предпринять конкретные шаги для ответственного использования ИИ и управления рисками. Для достижения баланса между повышением эффективности и выполнением обязательств перед клиентами крайне важно сочетание договорных гарантий и внутренних политик.


1. Включите в контракт положение о целенаправленном использовании GenAI


Вместо того чтобы оставлять использование ИИ без внимания, поставщики могут включить в генеральное соглашение об оказании услуг (MSA) или техническое задание (SOW) специальное разрешение. Такое положение может прозначно уточнять, какие инструменты ИИ разрешены, как можно использовать результаты и какие меры защиты необходимы для обеспечения ИС и конфиденциальности. Например, пункт может включать такие утверждения, как:


«Разработчик может… использовать GitHub Copilot, ChatGPT от OpenAI и Claude от Anthropic;… но должен обеспечить, чтобы любые материалы, созданные GenAI, могли быть законно переданы Клиенту».

«Разработчик обязуется воздерживаться от передачи данных Клиента, интеллектуальной собственности или конфиденциальной информации к любой системе GenAI… за исключением случаев, когда это сопровождается принятием надлежащих мер безопасности».

Эти выдержки иллюстрируют принцип: признать использование ИИ, ограничить его согласованными инструментами и соблюдать соответствующие меры безопасности. Полный текст пункта может быть длиннее и адаптирован к конкретным потребностям разработчика или клиента.


2. Внедрите комплексную политику использования ИИ


Внутренние политики обеспечивают операционную основу для договорных положений. Хорошо разработанная политика использования ИИ должна ограничивать команду разработчиков использованием предварительно одобренных инструментов genAI и четко контролировать обработку информации о клиентах, гарантируя, что конфиденциальные данные или проприетарный код не будут переданы без надлежащих мер защиты, таких как анонимизация или защищенные API. Человеческий контроль имеет решающее значение: разработчики должны активно проверять, адаптировать и подтверждать все результаты работы ИИ, прежде чем интегрировать их в конечные продукты.


Ведение подробной документации по запросам (промптам), проверкам и правкам не только обеспечивает подотчетность, но и демонстрирует значимый вклад человека, что укрепляет претензии на право собственности на ИС.

Сочетая эти оперативные механизмы контроля с защитами в договоре, аутсорсинговые компании могут создать многоуровневый подход, в котором работа с использованием ИИ прозрачна, поддается аудиту и соответствует ожиданиям клиента. Эта структура также подчеркивает важность человеческого творчества как основы работы, обеспечивая соблюдение гарантий и снижая риски, связанные как с авторским правом, так и с конфиденциальностью.


3. Используйте корпоративные подписки на ИИ тулзы


Поставщикам аутсорсинговых услуг следует всерьез рассмотреть возможность использования корпоративных или коммерческих уровней платформ ИИ, а не инструментов потребительского уровня. Корпоративные планы, такие как Claude for business от Anthropic или ChatGPT Enterprise от OpenAI, часто предоставляют высокоуровневую защиту, включая гарантии от претензий третьих лиц по поводу авторских прав, гарантии того, что данные клиентов не будут использоваться для обучения моделей, а также расширенные административные средства контроля для обеспечения безопасности и конфиденциальности.


Внедрение корпоративных решений помогает поставщикам согласовывать использование ИИ с договорными обязательствами. Эти планы обеспечивают дополнительные правовые и операционные гарантии, упрощая внедрение внутренних политик в области ИИ, документирование проверки человеком и демонстрацию того, что результаты, полученные с помощью ИИ, контролируются и подлежат аудиту. Выбирая подходящие корпоративные инструменты, поставщики могут в некоторой степени снизить риски, связанные с интеллектуальной собственностью и конфиденциальностью, при этом получая выгоду от повышения производительности, которое предлагает генеративный ИИ.



Заключение


Генеративный ИИ предлагает мощные инструменты для разработки программного обеспечения, но его использование в ИТ-аутсорсинге сопряжено с серьезными юридическими и договорными проблемами. Право собственности на сгенерированный ИИ код остается неопределенным, а условия поставщиков ИИ, хотя, как правило, и предоставляют пользователям права на результаты — не гарантируют защиту авторским правом или свободу от претензий третьих лиц. В то же время стандартные соглашения об аутсорсинге требуют «чистой интеллектуальной собственности», которая полностью подлежит передаче, является оригинальной и не нарушает авторские права, что создает противоречие между ожиданиями клиента и реальностью ИИ.


Для компаний-разработчиков дальнейший путь ясен: необходимо применять проактивный, многоуровневый подход. Сочетая прозрачность договорных отношений, операционную дисциплину и тщательный выбор платформы, аутсорсинговые компании могут извлечь выгоду из повышения эффективности ИИ, минимизируя при этом риски, связанные с интеллектуальной собственностью, нарушениями авторских прав и конфиденциальностью. В конечном итоге, ответственное внедрение ИИ — это не только мера соблюдения нормативных требований, но и способ сохранить доверие клиентов и предоставлять высококачественное, доступное для заказа программное обеспечение в быстро меняющемся технологическом ландшафте.


Если ваша компания рассматривает возможность внедрения ИИ в разработку программного обеспечения или обновления контрактов и политик для устранения этих рисков, свяжитесь с нами для консультации, чтобы убедиться в юридической обоснованности ваших методов работы и готовности к взаимодействию с клиентами.


Узнайте больше о наших услугах

Связаться с нами

Чтобы задать юридический вопрос или записаться на консультацию, заполните форму ниже. Мы свяжемся с вами в ближайшее время.

bottom of page