A fronteira entre tecnologia e ética é colocada à prova no desenvolvimento de modelos de linguagem
IA em Debate: Empresa por trás do Claude é acusada de destruir milhões de livros para treinar inteligência artificial

A ascensão das inteligências artificiais generativas trouxe consigo uma corrida tecnológica silenciosa, mas feroz. Grandes empresas disputam não só usuários, mas principalmente dados — o verdadeiro combustível que alimenta os algoritmos. E agora, uma revelação está movimentando os bastidores do setor: a Anthropic, empresa por trás do chatbot Claude, está sendo acusada de destruir milhões de livros digitalizados, muitos deles protegidos por direitos autorais, para treinar sua IA.
A denúncia veio à tona após uma investigação que apontou o uso do chamado Books3, um dataset informal amplamente criticado por conter cópias digitais não autorizadas de obras literárias. O escândalo, que já envolveu outras gigantes como Meta e OpenAI, agora respinga em Claude, que até então era visto como uma alternativa ética e segura no mercado de IA.
Qual a origem do problema?
Para que uma IA como o Claude ou o ChatGPT funcione bem, ela precisa ser “alimentada” com uma quantidade massiva de textos. Isso inclui artigos, sites, publicações e livros. O problema está justamente nos livros: enquanto alguns são de domínio público, milhares ainda estão protegidos por copyright.
A base Books3, usada para treinar diversos modelos de IA, é composta por uma ampla gama de obras literárias escaneadas, muitas delas obtidas de forma ilegal. A Anthropic teria feito uso desse material sem o devido licenciamento, e mais grave ainda: segundo fontes ligadas ao caso, os arquivos originais foram destruídos após o treinamento do modelo. A justificativa seria que os dados “já cumpriram sua função”.
Essa destruição de arquivos, em vez de minimizar o impacto, levantou ainda mais críticas. Muitos especialistas consideram o ato como uma forma de apagar rastros, dificultando futuras auditorias sobre o que exatamente foi usado no treinamento da IA.
A fronteira ética da inteligência artificial
O avanço da inteligência artificial esbarra, com cada vez mais frequência, em questões morais e jurídicas. Afinal, pode uma empresa usar obras protegidas sem pagar por isso, mesmo que os dados sejam apagados depois? O conhecimento da humanidade está acessível digitalmente, mas isso não significa que seja gratuito ou de uso livre.
Autores e editoras estão reagindo. Diversas associações internacionais estão processando empresas de tecnologia por violações de direitos autorais em treinamentos de IA. No Brasil, o tema ainda engatinha, mas especialistas apontam que essa discussão logo chegará por aqui, à medida que as ferramentas ganham espaço e influência em diversos setores — da educação à publicidade.
Claude e a disputa com o ChatGPT
Claude é um dos principais concorrentes do ChatGPT, da OpenAI, e seu diferencial tem sido justamente uma postura mais transparente e “amigável”. A empresa Anthropic é formada por ex-funcionários da própria OpenAI e se posiciona como defensora da IA ética. A notícia de que teria utilizado e descartado dados protegidos por direitos autorais para treinar seu modelo representa um golpe não só à imagem da companhia, mas à confiança em torno do futuro da IA.
Mesmo que o Claude seja, na prática, um dos modelos mais eficientes e cautelosos do mercado, a revelação pode colocar em xeque sua adoção por instituições públicas, educacionais e empresas que prezam pela integridade dos dados.
E agora?
A controvérsia serve como alerta para o setor: é urgente regulamentar o uso de dados em treinamentos de IA. O uso de obras com copyright não pode ser tratado como detalhe técnico, e sim como questão de direitos fundamentais. Propriedade intelectual, remuneração justa e transparência devem ser pilares da revolução digital — e não obstáculos ignorados.
No fim das contas, o desenvolvimento de IA precisa ser tão ético quanto poderoso. Do contrário, corremos o risco de construir ferramentas brilhantes à base de violações e silêncios.
Por Redação Diário do Norte — Tecnologia
Para mais artigos sobre IA, cultura digital e o impacto da tecnologia na sociedade, siga acompanhando nosso portal.