🤖 Large Language Models

TII의 Falcon Perception: 레이어 0부터 시각·언어 융합하는 6억 Transformer

첫 레이어에서 이미지 패치와 텍스트 토큰이 강렬 융합—레고 블록 비전 모델 시대 끝. TII의 Falcon Perception, 단일 스택으로 모듈러 거인들 제침 증명.

Falcon Perception의 통합 Transformer 다이어그램: grounding과 세그멘테이션을 위한 이미지 패치와 텍스트 토큰 융합

⚡ Key Takeaways

  • Falcon Perception의 초기 융합 Transformer, 레이어 0부터 비전-언어 처리 통합, 모듈러 병목 버림.
  • PBench 벤치마크서 의미 복잡도 극적 우위 SAM 3 제침(예: 공간 +21.9포인트).
  • Muon·FlexAttention·685GT 훈련 등 최적화로 덴스 실세계 퍼셉션 효율 스케일링.
Published by

theAIcatchup

AI news that actually matters.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by MarkTechPost

Stay in the loop

The week's most important stories from theAIcatchup, delivered once a week.