🤖 Large Language Models

Anthropic'in Hatası: Claude Code'un 512 Bin Satırı İnternete Döküldü

512 bin satır. Anthropic bunları Claude Code'dan, yani para basan makinelerinden internete döktü. Tek config hatası — puf, modelin iç kodları halkın eline geçti.

Sızan Anthropic Claude Code deposunun 512 bin satır içerdiği ekran görüntüsü

⚡ Key Takeaways

  • Config dosyası hatası Claude Code'un çekirdek prompt'larını ve mantığını 512 bin satır olarak açığa vurdu.
  • Anthropic'in iç işlerini ifşa ediyor: RLHF ince ayarlarından kod odaklı tokenizer'lara kadar.
  • Güvenlik önceliği imajını sarsıyor; rakipler sömürecek, düzenleyiciler soruşturacak.
Published by

theAIcatchup

AI news that actually matters.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Towards AI

Stay in the loop

The week's most important stories from theAIcatchup, delivered once a week.