AI在线 AI在线

LMEval

谷歌放大招!LMEval开源评测框架上线,AI模型比拼从此更透明

近日,谷歌正式发布了开源框架 LMEval,旨在为大语言模型(LLM)和多模态模型提供标准化的评测工具。 这一框架的推出,不仅简化了跨平台模型性能比较,还支持文本、图像和代码等多领域的评估,展现了谷歌在AI评测领域的最新突破。 AIbase为您整理了LMEval的最新动态及其对AI行业的影响。
5/29/2025 12:01:03 PM
AI在线

谷歌发布开源 LMEval 框架:打破 AI 模型比较壁垒,降低评测成本和时间

谷歌推出开源框架LMEval,为大语言模型和多模态模型提供标准化评测工具。该框架支持文本、图像和代码等领域的基准测试,简化跨平台比较,还具备增量评估和可视化功能。#AI评测# #谷歌开源#
5/27/2025 2:49:38 PM
故渊

​谷歌推出 LMEval:统一评估大语言与多模态模型的新工具

近日,谷歌宣布推出 LMEval,这是一个开源框架,旨在简化和标准化对大型语言和多模态模型的评估。 该工具为研究人员和开发者提供了一个统一的评估流程,可以方便地对来自不同公司的 AI 模型进行比较,比如 GPT-4o、Claude3.7Sonnet、Gemini2.0Flash 和 Llama-3.1-405B 等。 以往,对新 AI 模型的比较往往比较复杂,因为各个提供商使用自己的 API、数据格式和基准设置,导致评估效率低下且难以进行。
5/27/2025 10:01:25 AM
AI在线
  • 1