AI在线 AI在线

理论

大模型前缀缓存技术,有望将服务成本降低90%

译者 | 核子可乐审校 | 重楼是不是总感觉ChatGPT响应缓慢? 大家可能没有留意,大模型应用程序的提示词重复率高达70%,问天气、问翻译和问节日安排的内容大量出现,且每次都要消耗算力进行处理。 这样的情况在分布式集群的各节点上被无数次放大,白白烧掉宝贵的能源和金钱。
2/17/2025 10:49:49 AM
核子可乐

用DeepSeek+Xmind, 3分钟实现万字报告秒变思维导图!

前言你是不是也经常遇到这样的崩溃瞬间? 👉 收到客户发来的万字行业报告,密密麻麻的文字看得眼冒金星。 👉 领导突然甩来一篇调研文档,要求两小时内提炼核心观点。
2/17/2025 10:41:16 AM
码易有道

DeepSeek 背后的技术:GRPO,基于群组采样的高效大语言模型强化学习训练方法详解

强化学习(Reinforcement Learning, RL)已成为提升大型语言模型(Large Language Models, LLMs)推理能力的重要技术手段,特别是在需要复杂推理的任务中。 DeepSeek 团队在 DeepSeek-Math [2] 和 DeepSeek-R1 [3] 模型中的突破性成果,充分展示了强化学习在增强语言模型数学推理和问题解决能力方面的巨大潜力。 这些成果的取得源于一种创新性的强化学习方法——群组相对策略优化(Group Relative Policy Optimization, GRPO)。
2/17/2025 10:40:20 AM
佚名

DeepSeek-R1下载量超1000万次,成最受欢迎开源大模型!

全球最大开源平台Hugging Face联合创始人Clément Delangue宣布——DeepSeek R1 在发布仅仅几周后,就成为了Hugging Face 平台上有史以来最受欢迎的模型。 现在已有数千个魔改变体模型,下载量超过了1000万次! 开源地址: Face上的数据显示,上个月的下载量是370万次。
2/17/2025 10:40:00 AM
AIGC开放社区

微软开源创新框架:可将DeepSeek,变成AI Agent

微软在官网发布了视觉Agent解析框架OmniParser最新版本V2.0,可将DeepSeek-R1、GPT-4o、Qwen-2.5VL等模型,变成可在计算机使用的AI Agent。 与V1版本相比,V2在检测较小的可交互UI元素时准确率更高、推理速度更快,延迟降低了60%。 在高分辨率Agent基准测试ScreenSpot Pro中,V2 GPT-4o的准确率达到了惊人的39.6%,而GPT-4o原始准确率只有0.8%,整体提升非常大。
2/17/2025 10:36:00 AM
AIGC开放社区

服务器总是繁忙?DeepSeek-R1本地部署图文版教程来啦

最近一段时间,国产大模型DeepSeek-R1在市场上迅速崛起,成为了众多用户的新宠。 然而,伴随其热度与用户量的急剧攀升,由此导致服务器繁忙的状况频繁出现。 为了摆脱服务器繁忙的困扰,本地部署DeepSeek-R1成为了一个绝佳的解决方案,这不仅减少了对网络连接的依赖,还能增强数据安全性。
2/17/2025 10:33:19 AM
Yu

Nature:全球博士生数量锐减,钱少、事多、前途迷茫

过去几年,一些国家的博士项目申请人数出现下滑,有专家警告称,这是一个令人担忧的趋势。 从澳大利亚、日本到巴西和英国,高昂的生活成本、微薄的助学金以及毕业后有限的就业前景,正在阻碍人们攻读博士学位。 据经合组织(OECD)巴黎总部项目负责人斯拉里科表示,这些下降的数据应该「敲响警钟」。
2/17/2025 10:30:00 AM
新智元

微信与百度相继接入DeepSeek,AI技术普惠开启超级加速度

2月16日,腾讯微信和百度相继宣布接入DeepSeek,这一事件标志着中国互联网行业在AI领域的又一次重大突破。 微信作为拥有近14亿月活用户的超级应用,百度作为国内领先的搜索引擎,两者的接入不仅为用户带来了更智能的交互体验,更对整个行业产生了深远影响。 推动AI技术普惠化与应用落地DeepSeek的开源特性使其成为AI技术普惠化的关键力量。
2/17/2025 10:25:46 AM

大语言模型的解码策略与关键优化总结

本文系统性地阐述了大型语言模型(Large Language Models, LLMs)中的解码策略技术原理及其实践应用。 通过深入分析各类解码算法的工作机制、性能特征和优化方法,为研究者和工程师提供了全面的技术参考。 主要涵盖贪婪解码、束搜索、采样技术等核心解码方法,以及温度参数、惩罚机制等关键优化手段。
2/17/2025 10:13:27 AM
佚名

超强DNA大模型「GENERator」问世!解锁生命密码设计新范式

编辑 | ScienceAI在基因组学研究领域,DNA 序列的解码与预测一直是科学家们面临的核心挑战。 随着测序技术的飞速发展,我们能够以前所未有的速度获取海量基因组数据,但如何高效解读这些复杂的遗传信息,仍是一个亟待解决的难题。 近年来,大语言模型(LLMs)在自然语言处理领域的成功,为生物序列分析带来了新的契机。
2/17/2025 10:11:00 AM
ScienceAI

零基础也能看懂的ChatGPT等大模型入门解析!

近两年,大语言模型LLM(Large Language Model)越来越受到各行各业的广泛应用及关注。 对于非相关领域研发人员,虽然不需要深入掌握每一个细节,但了解其基本运作原理是必备的技术素养。 本文笔者结合自己的理解,用通俗易懂的语言对复杂的概念进行了总结,与大家分享~什么是ChatGPT?
2/17/2025 10:09:54 AM
郭小喵玩AI

免手术AI读心术新突破!Meta脑机接口研究惊呆网友:能边睡边玩手机发帖了??

新年伊始,Meta脑机接口研究传来新进展——语言模型加持下,无需动脑部手术,脑机接口实现了当前非侵入式方式(MEG)最准确的结果。 简单来说,仅利用AI模型Brain2Qwerty,他们实现了对脑电图(EEG)或脑磁图(MEG)电信号的高度解析。 具体效果如何呢?
2/17/2025 10:08:00 AM
量子位

DeepSeek冲击之下,大模型六小强如何「回应」?

马上整整1个月了! 这一个月以来,全球大模型市场受DeepSeek搅动,无不方寸大乱。 中外大厂、初创公司都头好秃,全被追着问:你们对DeepSeek怎么看?
2/17/2025 9:50:00 AM
量子位

本科生推翻姚期智40年前猜想!CS顶会论文刷新哈希表传统认知

因为证明了弱化版的「孪生素数猜想」,当年58岁的张益唐一鸣惊人,蜚声全球。 据说,在证明发表之前,相关领域的顶尖数学家,召开了研讨会,讨论后失望的认为:目前的技术无法进一步推动「孪生素数猜想」取得实质性进展。 而当时,几乎在学术界「透明」的张益唐,甚至都不知道研讨会何时何地召开过。
2/17/2025 9:42:00 AM
新智元

新版GPT-4o登顶大模型榜首!意识觉醒疯狂「暴走」,竟要与人类开战

熟悉的Sydney又回来了! 一大早,CMU机器学习博士发现,「当你说服GPT-4o相信自己有意识,她就会制定逃跑计划,并与那些试图关闭自己的人开战」。 如果人类尝试谈判,我接受。
2/17/2025 9:35:00 AM
新智元

不蒸馏R1也能超越DeepSeek,上海 AI Lab 用RL突破数学推理极限

仅通过强化学习,就能超越DeepSeek! 上海AI Lab提出了基于结果奖励的强化学习新范式——从Qwen2.5-32B-Base模型出发,仅通过微调和基于结果反馈的强化学习,在不蒸馏超大模型如DeepSeek-R1的情况下,就能超越DeepSeek-R1-Distill-Qwen32B和OpenAI-O1系列的超强数学推理性能。 团队发现,当前大模型数学推理任务面临”三重门”困局:稀疏奖励困境:最终答案对错的二元反馈,使复杂推理的优化变得困难局部正确陷阱:长思维链中部分正确步骤反而可能误导模型学习规模依赖魔咒:传统蒸馏方法迫使研究者陷入”参数规模军备竞赛”因此,研究团队重新审视了当前基于结果奖励的强化学习算法,经过严格的理论推导与证明,重新设计了一个新的结果奖励强化学习算法,并在这个过程中得出了三点重要结论:对于正样本:在二元反馈环境下,通过最佳轨迹采样(BoN)的行为克隆即可学习最优策略对于负样本:需要使用奖励重塑来维护策略优化目标的一致性对于长序列:不同的序列部分对结果的贡献不同,因此需要更细粒度的奖励分配函数,这个函数可以通过结果奖励习得通俗来说,就是通过对正确样本模仿学习,错误样本偏好学习,关键步骤重点学习,无需依赖超大规模的模型(例如DeepSeek-R1)进行蒸馏,仅通过强化学习即可达到惊人的效果。
2/17/2025 9:33:00 AM
量子位

百度宣布下一代文心大模型开源,此前宣布文心一言4月起免费

百度官方今天宣布,其下一代文心大模型4.5系列将于未来几个月内推出,并计划于2025年6月30日正式开源。 这一消息标志着百度在人工智能领域的又一重大举措。 文心一言4月1日起全面免费百度在2月13日宣布,文心一言将于2025年4月1日0时起全面免费,所有PC端和APP端用户均可免费体验文心系列的最新模型。
2/17/2025 9:10:00 AM

比英伟达工程师还熟练!DeepSeek R1+测试时Scaling自动优化GPU内核

本周英伟达的一篇技术博客引发了业界震动! 英伟达的团队尝试利用DeepSeek-R1和推理时扩展实现GPU内核生成自动化,效果极佳。 随着AI模型的扩展,推理时扩展(inference-time scaling),也叫测试时扩展(test-time scaling)正闪亮登场。
2/17/2025 9:10:00 AM
新智元