更新时间:2026-01-16 14:13 来源:牛马见闻
GLM-Image 即登顶全球 AI com/zai-org/GLM-Image Hugging Faceco/zai-org/GLM-Image
<p id="48C2L24Q">IT之家 1 月 16 日?消息,智!谱 1 月 14 日宣布联合华为开源新一代图像生成模型 GLM-Image,模型基于昇腾 Atlas 800T A2 设备和昇思 MindSpore AI 框架完成从数据到训练的全流程,是首个在国产芯片上完成全程训练的 SOTA 多模态模型。</p> <p id="48C2L24R">开源不到 24 小时,GLM-Image 即登顶全球 AI 开源社区 <strong>Hugging Face Trending 榜第一</strong>。这也是首次完全依托国产芯片训练的国产模型在国际舞台上取得榜首身位。</p> <p class="f_center"><br></p> <p id="48C2L24T">智谱表示,GLM-Image 项目的最终目标就是全流程创新,是 GLM 团队面向<strong>以 Nano Banana Pro 为代表</strong>的新一代「认知型生成」技术范式的一次探索。</p> <p id="48C2L24U">从架构上看,不同于开源常用的 LDM 方案,GLM-Image 采用了「自回归 + 扩散解码器」混合架构,并在基本对齐主流方案的基础上验证了新架构在知识密集型场景下生成的优越性。</p> <p id="48C2L24V">从训练基础上看,GLM-Image 实现了基于昇腾 Atlas 800T A2 设备和昇思 MindSpore AI 框架的全流程训练及推理适配,实际训练性能足以达到相应计算设备的汇报性能上限,<strong>验证了在国产算力上训练出 SOTA 模型的可行性</strong>。</p> <p id="48C2L250">从性能表现上看,GLM-Image 在 CVTG-2K(复杂视觉文本生成)和 LongText-Bench(长文本渲染)榜单获得开源第一,能够读懂指令,写对文字,<strong>尤其擅长汉字生成任务</strong>,可广泛应用于海报、PPT、科普图等知识密集型场景。</p> <p id="48C2L251">IT之家附开源地址如下:</p> <p></p> <ul> GitHub:https://github.com/zai-org/GLM-Image Hugging Face:https://huggingface.co/zai-org/GLM-Image </ul>
Copyright ® 版权 所有:吉林日报
违法和不良信息举报邮箱:dajilinwang@163.com 违法和不良信息举报: 0431-88600010
ICP备案号:吉ICP备18006035号 网络经营许可证号:吉B-2-4-20100020
地址:长春市高新技术产业开发区火炬路1518号 爆料电话:0431-88601901