🤖 Large Language Models

A Gafe Épica da Anthropic: 512 Mil Linhas do Código do Claude Vazadas na Web

512 mil linhas. Foi o que a Anthropic deixou pendurado na internet do Claude Code, sua galinha dos ovos de ouro em IA. Um errozinho no config — e bum, as entranhas do modelo viraram domínio público.

Screenshot do repositório vazado de código do Claude da Anthropic com 512 mil linhas expostas

⚡ Key Takeaways

  • Um erro no config expôs 512 mil linhas dos prompts e lógica centrais do Claude Code.
  • Revela os segredos da Anthropic, de ajustes em RLHF a tokenizers específicos pra código.
  • Abala a imagem de 'segurança em primeiro' deles; rivais vão explorar e reguladores investigar.
Published by

theAIcatchup

AI news that actually matters.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Towards AI

Stay in the loop

The week's most important stories from theAIcatchup, delivered once a week.