v7.437.1178.997273 安卓漢化版
v9.903.9267 PC版
v1.937.3763.391069 PC版
v8.872.4091.197936 安卓漢化版
v4.210.8065.662451 最新版
v1.130.666.825737 安卓免費版
v8.507.2125 最新版
v9.268.6423.673082 IOS版
v6.250 IOS版
v8.256.3909.130818 IOS版
v4.591.1326.195993 安卓漢化版
v1.996.1170.34022 最新版
v1.440.2653.50287 安卓版
v5.740.5999 安卓最新版
v6.947 安卓免費版
v7.357.3831.153418 PC版
v4.857 最新版
v6.285.9911.487951 IOS版
v4.161.9367.523585 最新版
v8.858.4436.302948 安卓漢化版
v4.197.9667.799381 最新版
v6.56.3765 PC版
v1.1.7592.117802 IOS版
v8.494.875.119651 安卓版
v9.708.3287.413738 安卓免費版
v2.160.5517.958609 IOS版
v6.806.2666 IOS版
v8.823.5492 安卓最新版
v9.582 安卓免費版
v9.454.3643.501324 安卓免費版
v5.603.6610 最新版
v8.642.7368 安卓免費版
v5.593.2515.574693 IOS版
v8.577 安卓漢化版
v7.681.1182.755719 安卓漢化版
v5.362.6351 安卓版
v5.990 PC版
v3.603.7297.944984 安卓漢化版
v3.729.9478.512846 IOS版
v4.121.2853 IOS版
v9.890 安卓漢化版
v3.102 IOS版
v2.635.6737.402577 PC版
v8.92.2677.832860 安卓版
v3.676.7800.115880 IOS版
v7.596.2736.934303 安卓免費版
v3.905 安卓版
v9.729 IOS版
v9.681.6127 安卓漢化版
v1.726.8000.251301 PC版
v5.690.3342.878810 安卓版
v3.143 安卓漢化版
v3.785.8992.640612 安卓免費版
v4.560.7177.513739 安卓版
v3.339 安卓免費版
v7.718 安卓版
v9.236.8139 安卓最新版
v2.677.7322.506579 安卓漢化版
v3.800 安卓漢化版
v9.314.5652.763157 PC版
v2.660.5173.211019 安卓最新版
v1.411.5615.644727 IOS版
v1.206 安卓免費版
v7.245.3771.132373 安卓免費版
v5.580.9070.62495 最新版
v7.605.8972 安卓版
v4.463.4266 IOS版
v4.850 最新版
v4.247.7994.946508 安卓漢化版
v7.990.4268.13755 PC版
v2.954.2660 安卓免費版
v8.298.6836.988925 IOS版
v5.30.8114 安卓免費版
v2.548.1226.84049 安卓最新版
v1.271.8337.305765 最新版
v4.985.1262.701656 最新版
v4.910.7734.234563 最新版
v9.127.6544.670582 安卓版
v5.875 安卓免費版
v2.413.4156 PC版
小 进入 9117c
梦晨 发自 凹非寺量子位 | 公众号 QbitAI
智谱AI上市后,再发新效果。
开源轻量级大语言模子GLM-4.7-Flash,直接替换前代GLM-4.5-Flash,API免费开放挪用。
这是一个30B总参数、仅3B激活参数的混淆专家(MoE)架构模子,官方给它的定位是“外地编程与智能体助手”。
在SWE-bench Verified代码修复测试中,GLM-4.7-Flash拿下59.2分,“人类最后的考试”等评测中也显著逾越同规模的Qwen3-30B和GPT-OSS-20B。
作为去年12月宣布的旗舰模子GLM-4.7的轻量化版本,GLM-4.7-Flash继续了GLM-4系列在编码和推理上的焦点能力,同时针对效率做了专门优化。
除了编程,官方还推荐将这个模子用于创意写作、翻译、长上下文使命,甚至角色饰演场景。
30B参数只激活3B,MLA架构首次上线
GLM-4.7-Flash沿用了该系列的”混淆思索模子”的设计。
总参数目300亿,但现实推理时仅激活约30亿参数,使模子在坚持能力的同时大幅降低盘算开销。
上下文窗口支持到200K,既可以云端API挪用,也支持外地安排。
现在官方还没有给出手艺报告,更多细节还要从设置文件自己挖掘。
有开发者注重到一个主要细节:GLM团队这次首次接纳了MLA(Multi-head Latent Attention)架构。这一架构此前由DeepSeek-v2率先使用并验证有用,现在智谱也跟进了。
从详细结构来看,GLM-4.7-Flash的深度与GLM-4.5 Air和Qwen3-30B-A3B靠近,但专家数目有所差别——它接纳64个专家而非128个,激活时只挪用5个(算上共享专家)。
现在宣布不到12小时,HuggingFace、vLLM等主流平台就提供了day0支持。
官方也在第一时间提供了对华为昇腾NPU的支持。
外地安排方面,经开发者实测在32GB统一内存、M5芯片的苹果条记本上能跑到43 token/s的速率。
官方API平台上基础版GLM-4.7-Flash完全免费(限1个并发),高速版GLM-4.7-FlashX价钱也相当白菜。
比照同类模子,在上下文长度支持和输出token价钱上有优势,但现在延迟和吞吐量尚有待优化。
HuggingFace:https://huggingface.co/zai-org/GLM-4.7-Flash
[1]https://x.com/Zai_org/status/2013261304060866758智谱新模子也用DeepSeek的MLA,苹果M5就能跑
相关版本
多平台下载
审查所有0条谈论>网友谈论
污鱼社在线看
国精爽嫩逼穴视频
国产乱视频在线观看免费
欧美91精品久久久久网免费
国产女厕所在线观看亚洲
爱情岛论坛网址大全
亚洲女人天堂a在线播放
甘雨疯狂 喷水自慰爽软件
针孔偷拍女沟厕撒尿
91高清国语对白露脸
亚洲一区色图小说
欧美AAA片
国产一极毛片在线看
免费黄色视频aaaaaaaaa
久久理论视频
欧美草小穴穴
日本黄色一级久久
亚洲另类自拍
免费看黄色视频直接看
日本主播一区
五月婷婷久久久