산업동향 중급 2026-05-02

Qwen 3.6 Plus, Fireworks AI에 독점 등판 — 알리바바 클라우드 밖 첫 외부 배포

Qwen 3.6 Plus, Fireworks AI에 독점 등판 — 알리바바 클라우드 밖 첫 외부 배포

알리바바의 Qwen 팀이 5월 2일 자사 최신 클로즈드 모델 Qwen 3.6 Plus를 미국의 추론 인프라 사업자 Fireworks AI와 손잡고 배포한다고 발표했다. 알리바바 클라우드를 거치지 않고 Qwen 3.6 Plus를 호출할 수 있는 외부 채널이 사실상 Fireworks 한 군데로 시작됐다는 점이 가장 큰 변화다.

무엇이 발표됐나

핵심은 두 가지다. 첫째, Qwen 3.6 Plus가 Fireworks AI의 서버리스 추론 플랫폼에 정식 등재돼 OpenAI 호환 API로 호출 가능해졌다. 둘째, Vercel AI Gateway 등 외부 게이트웨이도 Fireworks 백엔드를 통해 Qwen 3.6 Plus를 라우팅한다. Vercel 측 모델 페이지는 1M 컨텍스트 윈도우를 지원한다고 명시한다.

Qwen 측 X 게시물은 발표 직후 “전략적 파트너십 출범(Strategic Partnership Launch)“이라는 표현을 썼고, Fireworks를 두고 “최첨단 모델을 업계 최고 수준의 성능과 비용으로 서비스해 온 검증된 트랙 레코드”라고 소개했다.

왜 지금 이 협업인가

Qwen 시리즈는 그동안 두 트랙을 병행해 왔다. 한쪽은 오픈 웨이트로 풀어 글로벌 개발자 커뮤니티에 깔아두는 계열(Qwen3 시리즈), 다른 한쪽은 알리바바 클라우드 안에서만 돌아가는 클로즈드 모델 계열이다. 3.6 Plus는 후자에 속하는데, 이번에 처음으로 Fireworks라는 미국 인프라 사업자를 외부 채널로 선택한 것이다.

이 결정은 두 가지 실용적 동기로 읽힌다. 미국·유럽 고객이 알리바바 클라우드 계정을 만들지 않고도 Qwen 모델을 시도해 볼 수 있게 만드는 것, 그리고 추론 비용·지연 시간 최적화에 강점을 지닌 Fireworks의 스택을 통해 가격 경쟁력을 확보하는 것이다. 같은 주에 DeepSeek가 V4 가격을 대폭 인하했고(이미 본 블로그에 별도 포스트로 정리), 중국발 LLM들의 글로벌 가격·접근성 압박이 이어지고 있다.

긍정적인 시각

기업 사용자에겐 채널 선택지가 늘었다는 것 자체가 의미가 있다. 동일한 Qwen 3.6 Plus를 알리바바 클라우드에서 쓰든, Fireworks 서버리스 엔드포인트로 쓰든 워크로드별로 비용·지연 시간을 비교해 결정할 수 있다. 1M 컨텍스트와 OpenAI 호환 API 조합은 기존 OpenAI/Anthropic 기반 코드를 거의 바꾸지 않고 갈아끼울 수 있다는 점에서 마이그레이션 비용을 낮춘다.

Fireworks 입장에선 자사 추론 스택의 신뢰도를 입증하는 레퍼런스를 추가한 셈이다. 이전 Qwen 3 시리즈를 호스팅했던 경험이 이번 클로즈드 모델 전용 배포로 확장됐다.

부정적인 시각·우려

규제 측면에선 잡음이 있을 수 있다. 미국 정부가 중국 기업의 LLM 사용에 대해 직간접 제약을 거는 흐름이 이어지는 가운데, 미국 인프라 사업자가 중국 폐쇄형 모델을 외부 채널로 서비스하는 모델은 고객사의 컴플라이언스 검토 대상이 될 수 있다. NIST 산하 CAISI가 5월 3일 공개한 DeepSeek V4 평가 보고서처럼, 중국 모델의 외부 노출에 대한 정부 차원의 평가도 늘어나는 추세다.

또 하나의 한계는 비교 데이터의 부재다. 이번 발표 시점에 Qwen 3.6 Plus의 외부 독립 벤치마크 결과가 함께 공개되지 않았다. 현 단계에서는 사용자 후기와 후속 평가가 누적되어야 “Fireworks를 통한 호출 비용 대비 품질이 경쟁력 있는가”를 판단할 수 있다.

앞으로 지켜볼 지점

단기적으로 두 가지가 관전 포인트다. 첫째, Fireworks·Vercel을 통한 Qwen 3.6 Plus의 토큰당 가격이 GPT-5.4 mini, Claude Sonnet, Gemini Flash 등 주류 가성비 모델과 어떻게 비교되는가. 둘째, 미국·유럽 기업 고객이 실제로 채택하는 사례가 나오는지. 중장기로는 알리바바가 다음 모델(Qwen 3.7, 4 시리즈 등)에서도 같은 방식으로 외부 인프라 파트너를 확장할지가 관건이다.


출처 및 참고 자료

함께 보면 좋은 글

이 글에 나오는 용어
해시태그