알리바바가 노트북에서 바로 실행되고 OpenAI의 유사 모델을 능가하는 Qwen 3.5 소형 모델을 출시합니다

알리바바가 노트북에서 바로 실행되고 OpenAI의 유사 모델을 능가하는 Qwen 3.5 소형 모델을 출시합니다

7 hardware

알리바바 Qwen 3.5 — 새로운 소형 AI 모델 시리즈

인공지능 부서에서 알리바바는 “작은 크기 + 높은 효율성”을 약속하는 Qwen 3.5 모델 라인을 출시했다고 발표했습니다. 미국 동급과 비교해 메모리 사용량이 적으면서도 정확도가 더 뛰어납니다.

모델크기핵심 특징
Qwen 3.5‑0.8B0.8 억 파라미터“소형” 및 “빠름”, 프로토타입과 제한된 배터리 수명 모바일 기기에 적합
Qwen 3.5‑2B2 억 파라미터0.8B와 유사하지만 약간 더 강력함
Qwen 3.5‑4B4 억 파라미터멀티모달, 컨텍스트 윈도우 262,144 토큰; 가벼운 에이전트 솔루션에 적합
Qwen 3.5‑9B9 억 파라미터추론 능력이 뛰어나며 OpenAI gpt‑oss‑120B(13.5배 파라미터)를 초과하고 논리적 사고에서 대학원 수준을 보여줌

모든 모델은 Apache 2.0 라이선스 하에 제공되어 상업 프로젝트에서 사용하거나 필요 시 재학습이 가능합니다.

아키텍처의 새로운 점
알리바바는 전통적인 Transformer를 버리고 하이브리드 방식을 채택했습니다:

* Gated Delta Networks (GDN) – 높은 처리량과 낮은 지연을 보장합니다.
* Mixture‑of‑Experts (MoE) – 작은 모델에 흔한 메모리 한계를 해결합니다.

이를 통해 Qwen 3.5는 멀티모달 토큰을 즉시 처리할 수 있으며, 이전 세대처럼 이미지 생성기를 텍스트 모델에 “붙이는” 방식이 필요 없습니다. 결과적으로 4B와 9B 버전은 UI 요소를 인식하고 비디오에서 객체를 계산할 수 있습니다.

테스트 및 결과
| 벤치마크 | Qwen 3.5‑9B |
|----------|-------------|
| MMMU‑Pro (시각) | 70.1 % – Google Gemini 2.5 Flash‑Lite(59.7)와 Qwen 3‑VL‑30B‑A3B(63.0)를 초과 |
| 논리적 사고 | 81.7 % – OpenAI gpt‑oss‑120B(80.1)보다 높음 (후자는 파라미터가 10배 많음) |
| HMMT Feb 2025 (수학) | 83.2 %(9B), 74.0 %(4B) – 복잡한 과학 문제에 대형 클라우드 리소스가 필요 없음을 입증 |
| OmniDocBench v1.58 | 87.7 % – 모든 모델 중 최고 |
| MMMLU (다국어) | 81.2 % – gpt‑oss‑120B(78.2)를 초과 |

왜 중요한가?
Qwen 3.5의 등장 시점은 자율 AI 에이전트 수요가 증가한 때였습니다. 현대 사용자는 단순 챗봇을 넘어 다음과 같은 시스템을 요구합니다:

1. 사고 – 문제를 추론하고 해결한다.
2. 보기 – 이미지, 비디오 및 UI 요소를 처리한다.
3. 행동 – 도구(양식 작성, 파일 정렬 등)를 활용한다.

대형 모델은 운영 비용이 높으므로 Qwen 3.5는 더 경제적인 대안입니다. 로컬에서 클라우드나 API 없이 실행할 수 있으며 강화 학습을 통해 “인간 같은 결정”을 내릴 수 있습니다 – 예를 들어 작업 공간 정리 또는 비디오 기록에 따라 코드 작성.

실제 활용
* 모바일 기기 – 0.8 억 파라미터가 스마트폰에 적합하며 독립적으로 동작합니다.
* 워크스테이션 – 9 억 파라미터로 클라우드 없이 완전한 에이전트 기능을 제공합니다.
* UI‑에이전시 – 픽셀 수준 연결 덕분에 모델은 UI를 탐색하고 양식을 채우며 파일을 정렬할 수 있으며, 자연어 명령으로 약 90 % 정확도로 수행합니다.

따라서 알리바바 Qwen 3.5는 클라우드와 로컬 모두에서 동작 가능한 보다 접근 가능하고 유연하며 강력한 AI 에이전트를 개척하여 현대 사용자의 증가하는 요구를 충족시킵니다

댓글 (0)

의견을 남겨 주세요. 예의를 지키고 주제에서 벗어나지 말아 주세요.

아직 댓글이 없습니다. 댓글을 남기고 의견을 공유해 주세요!

댓글을 남기려면 로그인해 주세요.

댓글을 남기려면 로그인