Alibaba announced the open-source release of 'Qwen3-Coder', its most agentic code generation AI model to date. The flagship variant 'Qwen3-Coder-480B-A35B-Instruct' is a 480B-parameter Mixture-of-Experts model with 35B active parameters, supporting 256K tokens natively and up to 1M tokens with extrapolation methods. The model achieves state-of-the-art results among open models on Agentic Coding, Browser-Use, and Tool-Use tasks, with performance comparable to Claude Sonnet 4. Pre-trained on 7.5T tokens with 70% code ratio, the model leverages large-scale reinforcement learning to excel in real-world software engineering tasks. Alongside the model, Alibaba released 'Qwen Code', an open-source command-line tool for agentic coding that seamlessly integrates with existing developer tools. The company emphasized achieving state-of-the-art performance among open-source models on SWE-Bench Verified benchmark. The model is currently available via API, with additional model sizes planned for future release to reduce deployment costs.
알리바바가 가장 에이전틱한 코드 생성 AI 모델 'Qwen3-Coder'를 오픈소스로 공개했다고 발표했다. 이 모델의 최고 성능 버전인 'Qwen3-Coder-480B-A35B-Instruct'는 4800억 개 파라미터를 가진 혼합전문가(MoE) 모델로, 350억 개의 활성 파라미터를 사용하며 기본적으로 25만 6천 토큰의 컨텍스트 길이를 지원한다. 확장 방법을 통해 최대 100만 토큰까지 처리 가능하며, 에이전틱 코딩, 브라우저 사용, 도구 사용 분야에서 오픈소스 모델 중 최고 성능을 기록했고 클로드 소넷 4와 비교할 만한 수준이라고 밝혔다. 7조 5천억 개 토큰(코드 비율 70%)으로 사전 훈련되었으며, 대규모 강화학습을 통해 실제 소프트웨어 엔지니어링 작업에서 뛰어난 성능을 보인다. 모델과 함께 에이전틱 코딩을 위한 명령줄 도구 'Qwen Code'도 오픈소스로 공개되었으며, 기존 개발자 도구들과 원활하게 연동된다. 알리바바는 SWE-Bench Verified에서 오픈소스 모델 중 최고 성능을 달성했다고 강조했다. 현재 API를 통해 이용 가능하며, 향후 다양한 모델 크기 버전을 출시할 예정이라고 밝혔다.
