AI在线 AI在线

AI

免费GPU算力部署DeepSeek-R1 32B

免费GPU算力部署DeepSeek-R1 32B

前言DeepSeek-R1发布最新版本DeepSeek-R1-0528,显著提升了模型的思维深度与推理能力,在数学、编程与通用逻辑等多个基准测评中取得了当前国内所有模型中首屈一指的优异成绩,并且在整体表现上已接近其他国际顶尖模型,如 o3 与 Gemini-2.5-Pro。 另外,API接口还增加了Function Calling和JsonOutput 的支持。 DeepSeek-R1团队已经证明,大模型的推理模式可以蒸馏到小模型中,与通过强化学习在小模型上发现的推理模式相比,性能更优。
6/12/2025 9:48:27 AM
o3绞尽脑汁仅答对40%的题目,开源模型基本乱猜?MMSI-Bench:多图空间智能试金石

o3绞尽脑汁仅答对40%的题目,开源模型基本乱猜?MMSI-Bench:多图空间智能试金石

AI能看图,也能讲故事,但能理解“物体在哪”“怎么动”吗? 空间智能,正是大模型走向具身智能的关键拼图。 面对1000道多图推理题,开源大模型集体失守——准确率不到30%,甚至不如瞎猜!
6/12/2025 9:05:00 AM
全球首个历史基准!普林复旦打造AI历史助手,AI破圈人文学科

全球首个历史基准!普林复旦打造AI历史助手,AI破圈人文学科

历史是关于时间中的人的科学。 ——马克·布洛赫人工智能已在诸多自然科学领域成为有力的研究助手,然而面对承载着文化意涵与历史记忆的人文学科,却仍旧表现得捉襟见肘。 究其原因,AI当前最缺乏的并非工具性能力,而是对人类智慧与文化的理解能力——这正是人文学科探究的核心。
6/12/2025 9:03:00 AM
谷歌流量急坠归0?核心员工被「自愿离职」,30年搜索帝国崩塌

谷歌流量急坠归0?核心员工被「自愿离职」,30年搜索帝国崩塌

搜索,真的要完了吗? 谷歌搜索的流量终结比预期来得更快! 令人始料未及!
6/12/2025 9:00:00 AM
MSRA清北推出强化预训练!取代传统自监督,14B模型媲美32B

MSRA清北推出强化预训练!取代传统自监督,14B模型媲美32B

“预测下一个token”——这个支撑LLM的核心训练机制,正在被强化学习颠覆。 微软亚洲研究院(MSRA)联合清华大学、北京大学提出全新预训练范式RPT(强化预训练),首次将强化学习深度融入预训练阶段,让模型在预测每个token前都能先“动脑推理”,并根据推理正确性获得奖励。 传统预训练依赖海量文本进行自监督学习,模型通过简单预测下一个token建立语言能力,作者将之比喻为一块蛋糕胚,而RL只是作为上面点缀的一颗樱桃。
6/12/2025 8:46:00 AM
Meta 推出 AI 视频编辑功能:可轻松更换服装、场景、风格

Meta 推出 AI 视频编辑功能:可轻松更换服装、场景、风格

Meta推出全新AI短视频编辑功能,灵感来自Movie Gen AI技术,支持50+预设效果,轻松改变视频中的服装、场景、风格等。未来还将支持自定义提示词。#AI视频编辑##Meta黑科技#
6/12/2025 8:00:24 AM 远洋
三家银行利用AI实现盈利增长的实战经验

三家银行利用AI实现盈利增长的实战经验

银行业迅速认识到了GenAI的商业潜力,同时也意识到盲目采用可能带来的风险,该行业最大的机构擅长管理风险,在将试点项目推向生产环境时采取了谨慎而坚定的态度。 跟踪北美、欧洲和亚洲50家最大银行的Evident Insights公司表示,过去一年里,GenAI的采用势头有所增强,该公司情报部门副总裁Colin Gilbert周二在行业分析师公司举办的虚拟圆桌会议上表示,截至上周,这50家银行共宣布了266个AI应用案例,高于2月份的167个。 “绝大多数,即约75%的应用案例仍然是面向内部或员工的,”他说,并补充道,GenAI和传统预测性AI应用案例的分布大致为五五开。
6/12/2025 7:10:00 AM Matt Ashare
我在2025年尝试了12个AI代理框架-哪款更适合你?

我在2025年尝试了12个AI代理框架-哪款更适合你?

AI代理的热潮真实存在。 但构建一个AI代理? 那完全是另一回事。
6/12/2025 1:45:00 AM AI研究生
Test-Time Scaling:挖掘大型语言模型推理潜能

Test-Time Scaling:挖掘大型语言模型推理潜能

大家好,我是肆〇柒。 今天,我们来聊一个在人工智能领域备受瞩目的新兴技术方向 ——Test-Time Scaling(TTS)。 之所以要给大家介绍这篇关于 Test-time scaling 的综述,是因为其具备极为重要的现实落地意义与学习价值。
6/12/2025 1:00:00 AM 肆零柒
上线仅 1 周,Anthropic 终止 AI 博客 Claude Explains 项目

上线仅 1 周,Anthropic 终止 AI 博客 Claude Explains 项目

上线仅 1 周时间,Anthropic 公司宣布终止 Claude Explains 博客项目。该博客主要借助 AI 撰写专业技术教程等,目前从官网移除,相关链接重定向至 Anthropic 主页。
6/11/2025 3:32:22 PM 故渊
Meta 推 LlamaRL 强化学习框架:全异步分布设计,训练 AI 模型提速 10.7 倍

Meta 推 LlamaRL 强化学习框架:全异步分布设计,训练 AI 模型提速 10.7 倍

科技媒体 marktechpost 昨日(6 月 10 日)发布博文,报道称 Meta 公司推出 LlamaRL 框架,采用全异步分布式设计,在 405B 参数模型上,LlamaRL 将强化学习步骤时间从 635.8 秒缩短至 59.5 秒,速度提升 10.7 倍。
6/11/2025 3:24:12 PM 故渊
小红书开源首个 AI 文本大模型:11.2T 精炼语料吊打海量数据,证明“大模型≠大数据”

小红书开源首个 AI 文本大模型:11.2T 精炼语料吊打海量数据,证明“大模型≠大数据”

近日,在中文开源大模型愈发稀缺的背景下,小红书旗下 hi lab 公布了中等规模的 MoE 模型 dots.llm1,以 1420 亿总参数、每次仅激活 140 亿参数的设计,达成与 Qwen2.5-72B 相近的性能,吸引了社区的关注。 图片据悉,dots.llm1 是一个 Mixture of Experts(MoE)结构的语言模型。 尽管总参数规模达 142B,但在每次推理中只激活 14B,有效控制了计算开销。
6/11/2025 2:44:48 PM
Mistral的首个强推理模型:拥抱开源,推理速度快10倍

Mistral的首个强推理模型:拥抱开源,推理速度快10倍

大模型强推理赛道,又迎来一位重量级玩家。 本周二,欧洲人工智能公司 Mistral AI 发布了 Magistral,这是一个全新的大语言模型(LLM)系列,展现了强大的推理能力。 它能够进行不断反思,并解决更复杂的任务。
6/11/2025 2:39:50 PM
硅谷AI圈变天!OpenAI弃微软转投谷歌,LeCun被边缘小扎组队血战复仇

硅谷AI圈变天!OpenAI弃微软转投谷歌,LeCun被边缘小扎组队血战复仇

一夜醒来,硅谷变天了! OpenAI抛弃微软,竟转头和谷歌合作,达成了前所未有的云服务协议。 可以说,这笔交易,直接一举重塑了AI竞争格局。
6/11/2025 2:36:16 PM
谷歌 AI 搜索功能被指冲击新闻出版商流量:未经许可提取内容 + 低链接率

谷歌 AI 搜索功能被指冲击新闻出版商流量:未经许可提取内容 + 低链接率

据《华尔街日报》报道,谷歌AI概览工具导致新闻网站流量大幅下降,出版商们正寻求新的商业模式应对冲击。一些出版商已与AI公司达成内容共享协议,如《纽约时报》与亚马逊合作。#AI冲击新闻业# #谷歌AI#
6/11/2025 12:34:02 PM 远洋
扩散语言模型真的会比自回归好?理论分析结果可能恰恰相反

扩散语言模型真的会比自回归好?理论分析结果可能恰恰相反

本工作来自北京大学智能学院贺笛老师课题组与蚂蚁集团武威团队。 贺笛老师在机器学习领域获得过多项荣誉,包括 ICLR 2023 杰出论文奖与 ICLR 2024 杰出论文奖提名。 扩散模型近年来在图像生成领域取得了令人瞩目的成就,其生成图像的质量和多样性令人惊叹。
6/11/2025 9:21:28 AM
一个md文件收获超400 star,这份综述分四大范式全面解析了3D场景生成

一个md文件收获超400 star,这份综述分四大范式全面解析了3D场景生成

在构建通用人工智能、世界模型、具身智能等关键技术的竞赛中,一个能力正变得愈发核心 —— 高质量的 3D 场景生成。 过去三年,该领域的研究呈指数级增长,每年论文数量几乎翻倍,反映出其在多模态理解、机器人、自动驾驶乃至虚拟现实系统中的关键地位。 注:图中 2025 年的数据截至 4 月底来自南洋理工大学 S-Lab 的研究者们全面调研了该领域最前沿的研究方法,发表了综述《3D Scene Generation: A Survey》,对 300 篇代表性论文进行了系统归纳,将现有方法划分为四大类:程序化方法、基于神经网络的 3D 表示生成、图像驱动生成,以及视频驱动生成。
6/11/2025 9:19:22 AM
一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等

一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等

大幅缓解LLM偏科,只需调整SFT训练集的组成。 本来不擅长coding的Llama 3.1-8B,代码能力明显提升。 上海交大&上海AI Lab联合团队提出创新方法IDEAL,可显著提升LLM在多种不同领域上的综合性能。
6/11/2025 9:17:00 AM