GLM-4.7 이제 SiliconFlow에서: 고급 코딩, 추론 및 도구 사용 기능
Source: Dev.to
개요
GLM‑4.7, Z.ai의 최신 플래그십 모델이 이제 SiliconFlow에서 Day 0 지원과 함께 제공됩니다. 이전 버전인 GLM‑4.6에 비해 이번 릴리스는 코딩, 복합 추론, 도구 활용 측면에서 큰 발전을 이루었으며, Claude Sonnet 4.5 및 GPT‑5.1과 같은 업계 선두 모델과 경쟁하거나 이를 능가하는 성능을 보여줍니다.
SiliconFlow는 현재 GLM 시리즈 전체를 지원하고 있으며, GLM‑4.5, GLM‑4.5‑Air, GLM‑4.5V, GLM‑4.6, GLM‑4.6V, 그리고 이제 GLM‑4.7을 포함합니다.
SiliconFlow Day 0 지원
- 경쟁력 있는 가격: GLM‑4.7 $0.6 / M 토큰(입력) 및 $2.2 / M 토큰(출력)
- 205K 컨텍스트 윈도우: 복잡한 코딩 작업, 심층 문서 분석, 확장된 에이전트 워크플로우를 처리합니다.
- Anthropic 및 OpenAI 호환 API: SiliconFlow를 통해 배포하고 Claude Code, Kilo Code, Cline, Roo Code 등 주요 에이전트 워크플로우에 원활히 통합합니다.
GLM‑4.7의 특별함
핵심 코딩 우수성
GLM‑4.7은 다국어, 에이전트 기반 코딩 및 터미널 작업에 새로운 기준을 제시합니다. GLM‑4.6에 비해 개선 폭이 크게 늘었습니다:
- 73.8 % (+5.8 %) SWE‑bench Verified
- 66.7 % (+12.9 %) SWE‑bench Multilingual
- 41 % (+16.5 %) Terminal Bench 2.0
모델은 이제 “행동 전에 생각하기”를 지원해 주요 에이전트 프레임워크 전반에 걸친 복잡한 작업에서 보다 신뢰할 수 있는 성능을 제공합니다.
Vibe Coding
GLM‑4.7은 UI 품질에서 큰 도약을 이룹니다. 보다 깔끔하고 현대적인 웹 페이지를 생성하고, 레이아웃과 크기가 정확한 슬라이드를 만들어 인터페이스 프로토타이핑이나 프레젠테이션 제작에 최적화되었습니다.
고급 도구 활용
도구 활용 능력이 크게 강화되었습니다. τ²‑Bench와 BrowseComp을 통한 웹 브라우징 등 다단계 벤치마크에서 GLM‑4.7은 Claude Sonnet 4.5와 GPT‑5.1 High를 모두 앞서며, 복잡하고 실제적인 워크플로우에 대한 우수한 역량을 입증했습니다.
복합 추론 능력
수학 및 추론 능력이 크게 향상되었습니다. GLM‑4.7은 HLE(Humanity’s Last Exam) 벤치마크에서 42.8 % (+12.4 %)를 기록했으며, 이는 GLM‑4.6 대비 큰 상승입니다. 채팅, 창작 글쓰기, 롤플레이 시나리오에서도 눈에 띄는 개선이 나타났습니다.
바로 시작하기
탐색 – SiliconFlow 플레이그라운드에서 GLM‑4.7을 체험해 보세요.
통합 – OpenAI/Anthropic 호환 API를 사용합니다. 전체 사양은 SiliconFlow API 문서를 참고하세요.
import requests
url = "https://api.siliconflow.com/v1/chat/completions"
payload = {
"model": "zai-org/GLM-4.7",
"messages": [
{"role": "system", "content": "You are an assistant"},
{"role": "user", "content": "What's the weather like in America?"}
],
"stream": True,
"max_tokens": 4096,
"enable_thinking": True,
"temperature": 1,
"top_p": 0.95
}
headers = {
"Authorization": "Bearer ",
"Content-Type": "application/json"
}
response = requests.post(url, json=payload, headers=headers)
print(response.text)