AI在线 AI在线

智谱发布并开源代码生成大模型 CodeGeeX 第四代,号称百亿以下规模性能最强

正在进行的 2024 世界人工智能大会(WAIC 2024)期间,智谱 AI 发布并开源代码生成大模型 CodeGeeX 的第四代产品 CodeGeeX4-ALL-9B,集代码补全和生成、代码问答、代码解释器、工具调用、联网搜索、项目级代码问答等所有能力于一体,号称是目前百亿(10B)参数以下性能最强、最全能的代码大模型。据介绍,该模型在 GLM4 的语言能力的基础上大幅增强了代码生成能力。CodeGeeX4-ALL-9B 单一模型,即可支持代码补全和生成、代码解释器、联网搜索、工具调用、仓库级长代码问答及生成等功

正在进行的 2024 世界人工智能大会(WAIC 2024)期间,智谱 AI 发布并开源代码生成大模型 CodeGeeX 的第四代产品 CodeGeeX4-ALL-9B,集代码补全和生成、代码问答、代码解释器、工具调用、联网搜索、项目级代码问答等所有能力于一体,号称是目前百亿(10B)参数以下性能最强、最全能的代码大模型。

据介绍,该模型在 GLM4 的语言能力的基础上大幅增强了代码生成能力。CodeGeeX4-ALL-9B 单一模型,即可支持代码补全和生成、代码解释器、联网搜索、工具调用、仓库级长代码问答及生成等功能,覆盖编程开发的各种场景,支持 300 + 编程语言

智谱发布并开源代码生成大模型 CodeGeeX 第四代,号称百亿以下规模性能最强

CodeGeeX4-ALL-9B 升级支持 128K 上下文,使其能够处理和利用更长代码文件,甚至是项目代码中的信息,有助于模型更深入理解复杂和细节丰富的代码。基于更长的上下文,CodeGeeX4-ALL-9B 可以处理更复杂的项目级任务,在输入显著变长的情况下,依然能准确回答不同代码文件中的内容,并对代码作出修改。

官方更称,CodeGeeX4-ALL-9B 是“目前唯一的”能实现 Function Call 的代码大模型。其在 Berkeley Function Calling Leaderboard 上进行了全面的测试,包括各种形式的函数调用、不同的函数调用场景以及函数调用可执行性的测试,在 AST 和 Exec 测试集中调用成功率超过 90%。

IT之家附开源相关链接:

GitHub:https://github.com/THUDM/CodeGeeX4

HuggingFace:https://huggingface.co/THUDM/codegeex4-all-9b

ModelScope:https://modelscope.cn/models/ZhipuAI/codegeex4-all-9b

WiseModel:https://wisemodel.cn/models/ZhipuAl/codegeex4-all-9b

相关资讯

微软研究:API 代理速度更快,但 GUI 代理更灵活

近日,微软的研究团队对 API 代理和 GUI 代理进行了对比研究,发现这两种代理各有特点,可以根据不同需求进行合理选择。 API 代理通过可编程接口与软件进行交互,而 GUI 代理则模拟人类的操作方式,通过点击按钮和导航菜单来完成任务。 例如,若要安排一个活动,API 代理可能只需一次函数调用,而 GUI 代理则需要打开日历应用,逐步填写相关信息。
5/12/2025 10:01:12 AM
AI在线

智谱 AI 宣布全模型矩阵降价:GLM-4-Flash 模型降至 0.06 元 / 百万 Tokens

在今天举行的智谱 AI Open Day 上,智谱 AI 宣布全模型矩阵降价。IT之家附降价情况如下:GLM-4-Air、GLM-3-Turbo 现价 0.6 元 / 百万 TokensEmbedding-2 现价 0.3 元 / 百万 TokensGLM-4-Flash 现价 0.06 元 / 百万 Tokens在今天的活动中,智谱还宣布开源 GLM-4-9B 系列模型,其包含基座模型、视觉模型,以及不同上下文长度的 Chat 模型。GLM-4-9B-Chat 可提供多轮对话、网页浏览、代码执行、自定义工具调用等
6/5/2024 2:00:37 PM
清源

90/270 亿参数,谷歌发布 Gemma 2 开源 AI 模型:性能力压同级、单 A100 / H100 GPU 可运行

感谢谷歌公司昨日发布新闻稿,面向全球研究人员和开发人员发布 Gemma 2 大语言模型,共有 90 亿参数(9B)和 270 亿参数(27B)两种大小。Gemma 2 大语言模型相比较第一代,推理性能更高、效率更高,并在安全性方面取得了重大进步。谷歌在新闻稿中表示,Gemma 2-27B 模型的性能媲美两倍规模的主流模型,而且只需要一片英伟达 H100 ensor Core GPU 或 TPU 主机就能实现这种性能,从而大大降低了部署成本。Gemma 2-9B 模型优于 Llama 3 8B 和其他类似规模的开源模
6/28/2024 8:21:10 AM
故渊
  • 1