🤖 Large Language Models

Прокол Anthropic: 512 тысяч строк кода Claude Code утекли в сеть

512 тысяч строк. Столько Anthropic оставил болтаться в открытом доступе из Claude Code — своей кормилицы в мире ИИ. Одна ошибка в конфиге — и привет, внутренности модели на всеобщем обозрении.

Скриншот утекшего репозитория Anthropic Claude Code с 512 тысячами строк кода

⚡ Key Takeaways

  • Ошибка в конфиге обнажила 512 тысяч строк промптов и логики Claude Code.
  • Раскрывает внутреннюю кухню Anthropic — от твиков RLHF до токенизаторов под код.
  • Подрывает бренд 'безопасность превыше всего'; конкуренты воспользуются, регуляторы полезут копать.
Published by

theAIcatchup

AI news that actually matters.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Towards AI

Stay in the loop

The week's most important stories from theAIcatchup, delivered once a week.