Frederico Cattani

Advogado com experiência em aconselhamento de gestores e empresários | Atua em matérias complexas que exigem conhecimento, estratégia e senioridade | Conselhos Consultivos e de Administração | Direito Penal Econômico e Crimes Empresariais | Direito Eleitoral e Assessoria de Pessoas Públicas | Sucessão Familiar e Societária

12/29/25

Contratos com desenvolvedores de IA: as 10 perguntas que todo empreendedor precisa saber responder (ou já está em risco)

A contratação de desenvolvedores de soluções com uso de inteligência artificial virou moda — e, em muitos casos, armadilha. A promessa é eficiência, escala e inovação. O risco oculto é jurídico, autoral e estratégico. Diferentemente do software tradicional, projetos de IA não se resumem a linhas de código. Eles envolvem dados, modelos, pesos, decisões técnicas e uma cadeia de direitos que poucos contratos enfrentam de forma honesta.

O discurso do “é tudo open source” costuma tranquilizar o empreendedor. Mas open source não significa ausência de risco, tampouco liberdade irrestrita de exploração econômica. Em IA, a omissão contratual não é neutra: ela quase sempre beneficia quem desenvolve, não quem paga.

Abaixo estão dez perguntas que todo empreendedor precisa conseguir responder, com base no contrato. Se alguma delas não tiver resposta clara, escrita e objetiva, o problema já existe — ainda que silencioso.

A primeira pergunta é básica, mas raramente bem resolvida: quem é o titular jurídico do código-fonte, dos modelos treinados e dos pesos do modelo ao final do projeto? Muitos contratos falam em “licença de uso” quando o que o negócio exige é cessão plena. Código, modelo e pesos são ativos distintos. Tratar tudo como “software” é juridicamente ingênuo.

A segunda pergunta envolve um dos maiores riscos invisíveis: quais componentes da solução utilizam software open source e sob quais licenças específicas? Não basta saber que se usa TensorFlow ou PyTorch. É preciso identificar bibliotecas acessórias, APIs, plugins e frameworks, bem como as licenças que os regem. Licenças como GPL ou AGPL podem impor obrigações incompatíveis com modelos comerciais, contaminar o core da solução e gerar passivos futuros.

A terceira questão é onde o debate autoral realmente começa: os dados usados para treino, teste e validação são lícitos, rastreáveis e autorizados para uso comercial? “Dados públicos” não é sinônimo de “dados livres”. Scraping indiscriminado, uso de bases protegidas por direito autoral ou dados pessoais sem base legal são bombas-relógio jurídicas. Se alguém questionar a origem dos dados daqui a três anos, o contrato deixa claro quem responde?

A quarta pergunta revela o grau de dependência criado: você pode continuar usando, evoluindo ou migrando a solução sem o desenvolvedor original? Muitos contratos criam um lock-in técnico e jurídico disfarçado. Sem acesso a código, documentação e artefatos críticos, a IA vira um ativo que só funciona enquanto o fornecedor quiser.

A quinta questão costuma ser esquecida, mas é central: quem é titular dos outputs gerados pela IA? Você pode explorá-los livremente, com exclusividade, inclusive para fins comerciais e estratégicos? Ou o desenvolvedor se reserva o direito de reutilizar, treinar outros modelos ou revender resultados semelhantes?

A sexta pergunta separa parceria de ingenuidade: o desenvolvedor pode reutilizar partes essenciais da arquitetura ou da lógica da solução para concorrentes? Know-how genérico é uma coisa. O núcleo estratégico do seu projeto é outra. Se essa fronteira não estiver clara, você pode estar financiando a solução do seu próprio competidor.

A sétima pergunta é desconfortável, mas necessária: existe alguma cláusula que permita ao desenvolvedor revogar, suspender ou limitar o uso da solução no futuro? Mudança de licença, disputa autoral, inadimplência pontual ou simples divergência contratual podem, mal reguladas, interromper um ativo crítico do negócio.

A oitava questão trata de responsabilidade: quem assume o risco jurídico por violação de direitos autorais, uso indevido de dados ou infração regulatória relacionada à IA? Sem cláusulas claras de responsabilidade e indenização, o risco é empurrado integralmente para quem explora economicamente a solução — ou seja, você.

A nona pergunta é técnica, mas com impacto jurídico direto: você tem acesso efetivo à documentação, ao código e aos artefatos necessários para auditoria, governança e continuidade do projeto? IA sem documentação não é inovação; é dependência travestida de tecnologia.

Por fim, a décima pergunta olha para frente: o contrato prevê adaptação a mudanças regulatórias e tecnológicas envolvendo IA? O direito da inteligência artificial está em construção. Quem não aloca esse risco desde já pode descobrir, tarde demais, que assumiu um passivo que nem existia quando assinou o contrato.

Contratar soluções de IA sem responder a essas perguntas é como adquirir um ativo estratégico sem due diligence. O problema não aparece no onboarding, nem no MVP. Ele surge quando o negócio cresce, quando entra investimento, quando surge um concorrente ou quando o regulador bate à porta.

Em inteligência artificial, o contrato não é um detalhe operacional, mas parte do ativo. Ele é parte do próprio modelo de negócio. E, como regra, tudo aquilo que não está escrito de forma clara tende a operar contra o empreendedor.