La bourde monumentale d'Anthropic : 512 000 lignes de code Claude déversées en ligne
512 000 lignes. Voilà ce qu'Anthropic a laissé pendre en ligne, extrait de Claude Code, leur vache à lait en IA. Un cafouillage de config — et paf, les tripes du modèle sont du domaine public.
⚡ Key Takeaways
- Un cafouillage dans un fichier de config expose 512 000 lignes des prompts et de la logique centrale de Claude Code.
- Ça dévoile les rouages d'Anthropic, des tweaks RLHF aux tokenizers taillés pour le code.
- Ça torpille leur image 'safety-first' ; les rivaux vont en profiter et les régulateurs fouiller.
Worth sharing?
Get the best AI stories of the week in your inbox — no noise, no spam.
Originally reported by Towards AI