Anthropics Patzer: 512.000 Zeilen Claude-Code liegen offen rum
512.000 Zeilen. Das hat Anthropic von Claude Code, ihrem Geldautomaten-KI, online baumeln lassen. Ein Config-Fehler – zack, die Modelle-Innereien sind öffentlich.
⚡ Key Takeaways
- Config-Fehler legt 512.000 Zeilen Kernprompts und Logik von Claude Code offen.
- Zeigt Anthropics Insider: Von RLHF-Anpassungen bis code-spezifische Tokenizer.
- Untergräbt ihr Safety-Image – Konkurrenz nutzt's aus, Regulatoren rücken nach.
Worth sharing?
Get the best AI stories of the week in your inbox — no noise, no spam.
Originally reported by Towards AI