O Fedora Project, uma das comunidades mais influentes do ecossistema Linux, deu um passo importante na discussão global sobre o papel da inteligência artificial no desenvolvimento open source. Em setembro de 2025, o Fedora Council apresentou um projeto de política oficial para contribuições assistidas por IA, abrindo uma consulta pública para ouvir a comunidade antes de implementar as novas regras.

A proposta, resultado de um ano de debates e pesquisas, busca equilibrar inovação tecnológica com responsabilidade ética e técnica, reconhecendo que a IA pode ser uma aliada poderosa, mas também uma fonte potencial de riscos à qualidade e à integridade do código aberto.

Diretrizes para o uso de IA em contribuições

Segundo o documento, a responsabilidade final sempre é humana. Ferramentas de IA, como assistentes de código e geradores de texto, podem ser usadas para acelerar o trabalho, mas o desenvolvedor continua sendo o autor legítimo e responsável por revisar, testar e compreender cada linha enviada.

O Fedora enfatiza que o uso descuidado de IA pode gerar o que chama de AI slop, um conteúdo automatizado de baixa qualidade que sobrecarrega os revisores e prejudica a colaboração.

Se uma contribuição tiver participação significativa de IA, o projeto recomenda transparência: o colaborador deve indicar isso no commit ou na descrição do pull request, usando uma tag como Assisted-by: para documentar o uso da ferramenta.

Revisores também podem utilizar IA para auxiliar na análise de código, mas a decisão final precisa ser humana. Nenhum sistema automatizado poderá aprovar contribuições sem revisão manual.

Limites e garantias éticas

A política estabelece zonas de proibição específicas: ferramentas de IA não podem ser usadas para avaliar questões de conduta, aprovar pedidos de financiamento, selecionar palestras de conferências ou decidir posições de liderança.

Além disso, a implementação de qualquer recurso de IA voltado ao público deve ser opt-in, ou seja, só pode ser ativado com o consentimento explícito do usuário, especialmente se envolver o envio de dados a serviços externos.

O Fedora também incentiva o uso da IA em áreas de acessibilidade, como tradução automática, transcrição e leitura de texto, desde que respeite privacidade e segurança.

Por outro lado, o projeto reforça que coletas agressivas de dados (scraping) em sua infraestrutura são proibidas. Qualquer uso de informações da comunidade Fedora em treinamentos de modelos deve seguir as licenças e princípios de atribuição de código aberto.

Um debate aberto sobre o futuro do open source

A proposta, publicada por Jason Brooks, com apoio do conselho do Fedora, está em fase de revisão comunitária de duas semanas. Após esse período, haverá uma votação formal para decidir sua adoção.

Os debates já mostram a complexidade do tema. Enquanto alguns desenvolvedores pedem regras mais flexíveis para melhor viabilizar a experimentação, outros defendem barreiras éticas rigorosas até que haja mais clareza sobre o impacto da IA em comunidades abertas.

Independentemente do resultado, o Fedora busca, mais uma vez, ser o primeiro a testar o futuro.

Contribua para o Diolinux se manter independente e crescente: seja membro Diolinux Play!Contribua para o Diolinux se manter independente e crescente: seja membro Diolinux Play!