🤖 Large Language Models

La bourde monumentale d'Anthropic : 512 000 lignes de code Claude déversées en ligne

512 000 lignes. Voilà ce qu'Anthropic a laissé pendre en ligne, extrait de Claude Code, leur vache à lait en IA. Un cafouillage de config — et paf, les tripes du modèle sont du domaine public.

Capture d'écran du dépôt de code Claude d'Anthropic fuité, avec 512 000 lignes exposées

⚡ Key Takeaways

  • Un cafouillage dans un fichier de config expose 512 000 lignes des prompts et de la logique centrale de Claude Code.
  • Ça dévoile les rouages d'Anthropic, des tweaks RLHF aux tokenizers taillés pour le code.
  • Ça torpille leur image 'safety-first' ; les rivaux vont en profiter et les régulateurs fouiller.
Published by

theAIcatchup

AI news that actually matters.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Towards AI

Stay in the loop

The week's most important stories from theAIcatchup, delivered once a week.