🤖 Large Language Models

El Patinazo de Anthropic: 512.000 líneas de código de Claude filtradas en la red

512.000 líneas de código. Eso dejó el código de Claude Code de Anthropic —su gallina de los huevos de oro en IA— colgando en internet. Un fallo en la config —¡y zas!—, las entrañas del modelo pasan a ser de todos.

Captura de pantalla del repositorio filtrado de código de Anthropic Claude con 512.000 líneas expuestas

⚡ Key Takeaways

  • Un fallo en el archivo de config dejó al aire 512.000 líneas de prompts y lógica central de Claude Code.
  • Revela los entresijos de Anthropic, desde ajustes de RLHF hasta tokenizadores para código.
  • Echa por tierra su imagen de 'seguridad primero'; rivales lo explotarán y reguladores investigarán.
Published by

theAIcatchup

AI news that actually matters.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Towards AI

Stay in the loop

The week's most important stories from theAIcatchup, delivered once a week.