AI在线 AI在线

AI

AI、BI、大数据与数据科学的底层逻辑

数据正在重塑世界。 每天早上醒来查看健身数据、刷信用卡时的授权验证、公司会议上讨论的销售增长曲线——数据已经无缝融入我们的生活。  但在这个数据爆炸的时代,我们真的理解AI、BI、大数据和数据科学的本质区别吗?
4/27/2025 9:52:49 AM
大数据AI智能圈

AI编码陷阱防不胜防?看看 Cursor设计负责人Ryo Lu 是怎么说的

前不久,Cursor 设计总监 Ryo Lu 在 X 上发布了若干最佳实践建议():内容基本匹配我的使用体感,工具始终是工具,即使如 Cursor,效果好坏最终还是取决于”用的人“使用得当的 Cursor 可以让你写出快速、干净的代码;使用不当,它会生成让你清理一周的 AI 意大利面代码。 本文将围绕这一核心观点,结合实际经验,扩展聊聊 Ryo Lu 给出的建议。 从项目规划到代码实现、从提示设计到错误修复,我们将逐条介绍正确用法、常见误区以及实战技巧。
4/27/2025 9:33:01 AM

强化学习被高估!清华上交:RL不能提升推理能力,新知识得靠蒸馏

最近,以推理能力为核心的大语言模型已然成为了主流,比如OpenAI o系列模型、DeepSeek-R1等等。 推理模型在处理数学和编程等复杂逻辑问题方面取得了显著突破。 相比于之前依赖人工标注进行指令微调的方法,这一突破的关键在于可验证奖励强化学习(RLVR)。
4/27/2025 9:23:00 AM
新智元

Anthropic CEO豪言LLM黑箱5年内必破!研究员爆料:AI有意识概率已达15%

未来,AI会拥有意识,并像人类一样体验世界吗? 现在没有实锤证明AI具有意识,但Anthropic认为这事说不定真有可能。 周四,Anthropic宣布启动这项研究,旨在了解AI的「幸福感」到底算不算数,是否需要认真对待。
4/27/2025 9:21:00 AM
新智元

看不懂GitHub代码?刚刚这个AI工具让全球每个GitHub项目开口说话

还记得那个号称全球首位 AI 软件工程师 Devin 吗? 它的创造者Cognition Labs公司刚刚推出了一个名为 DeepWiki 的项目。 简单来说,这是一个目标宏大的计划:为全世界每一个 GitHub 代码仓库(Repo)提供可以实时交流、即时更新的文档你可以把它想象成一个由 Devin 技术驱动的、专门针对 GitHub 的“深度研究”工具亮点:免费、免注册、即刻可用最关键的是,对于开源项目,这项服务完全免费,甚至无需注册怎么用?
4/27/2025 9:19:20 AM
opencat

全球开发者组团训练,首个异步强化学习32B推理模型震撼来袭!数据已开源

最近,全球第一个用去中心化强化学习训练的32B模型——INTELLECT-2正式发布! 任何人都能用自己的异构计算资源参与,无需授权。 这种全新的范式,让去中心化训练在编码、数学和科学领域,迈向前沿的推理性能。
4/27/2025 9:19:00 AM
新智元

美国政府「AI行动计划」万言书发布! OpenAI与Anthropic呼吁联手封锁中国AI

AI战打到现在,下一步怎么走? 4月25日,美国网络与信息技术研究与发展(NITRD)公开了美国各界就「AI行动计划」提交的全部书面意见。 网站链接:,在现在这届政府是行不通了,现在,特朗普政府需要一个全新的AI行动计划,继续保持美国的AI领先地位。
4/27/2025 9:17:00 AM
新智元

开源垂直领域高质量数据合成框架!专业QA自动生成,无需人工标注,来自上海AI Lab

垂域模型训练,高质量问答数据稀缺一直是行业痛点。 在垂直领域大模型训练中,人工标注成本高昂,合成数据又常陷入质量与专业性难以兼得的困境。 为此,上海AI实验室等提出GraphGen。
4/27/2025 9:16:00 AM

70%大小,100%准确!完美压缩LLM性能0损失,推理速度最高飙升39倍

人人都想有一个自己的DeepSeek,但并不是人人都有「一打」96GB显存的H20。 虽然量化可以极大地降低模型对于显存的需求,但它本质上是一种有损压缩技术。 换句话说就是,量化模型的输出分布不可避免地会受到影响,进而降低LLM的准确性和可靠性。
4/27/2025 9:15:40 AM
新智元

从底层重构强化学习训练框架,阿里高德开源新方法:抛弃替代损失函数,仅需优化原始目标

抛弃替代损失函数,仅需优化原始目标, 强化学习新范式来了:消除critic和reference模型,避免KL散度约束;解决优势函数和梯度估计两个偏差。 来自阿里-高德地图的团队提出了一种相当简单的强化学习训练新方法:组策略梯度优化GPG (Group Policy Gradient)。 GPG开创性地从底层重构强化学习训练框架,仅需优化原始目标,解决已有方法偏差,提高训练效率。
4/27/2025 9:12:00 AM

大模型何以擅长小样本学习?ICLR 2025这项研究给出详细分析

近年来,大语言模型(LLM)在人工智能领域取得了突破性进展,成为推动自然语言处理技术发展与通用人工智能实现的核心力量。 上下文学习能力(In-Context Learning, ICL)是 LLM 最显著且重要的能力之一,它允许 LLM 在给定包含输入输出示例的提示(prompt)后,直接生成新输入的输出,这一过程仅通过前向传播而无需调整模型权重。 这种能力使得 LLM 能够基于上下文中的示例快速理解并适应新任务,展现出强大的小样本学习和泛化能力。
4/27/2025 9:10:00 AM
机器之心

首个大模型全链路安全综述 !南洋理工新国立等发布LLM Safety全景图:从数据、训练到部署的全面梳理

随着人工智能技术迅猛发展,大模型(如GPT-4、文心一言等)正逐步渗透至社会生活的各个领域,从医疗、教育到金融、政务,其影响力与日俱增。 然而,技术的进步也伴随着潜在风险——大模型安全这一议题正成为全球科技界关注的焦点。 南洋理工大学、新加坡国立大学等全球40余所顶尖机构的67位学者联袂打造大模型全链路安全综述,综合梳理了843篇文章,系统的从全栈视角分析了大模型从出生到应用的全栈安全,涵盖数据准备→预训练→后训练→部署→商业化应用以及安全性评估等全部阶段。
4/27/2025 9:07:00 AM
量子位

GitHub版DeepResearch来了!覆盖所有代码库,模型架构可视化,背后贡献者也能扒 |免费

专为GitHub打造的免费百科全书来了——DeepWiki,覆盖全球所有GitHub存储库,无需注册即可食用。 最简单的触发模式,就是只需要把链接中「github」改为「deepwiki」字样,就可以生成项目专属的wiki百科页面。 整个页面模块清晰流畅,还有生成可视化架构图(对比GitHub项目主页是没有的),每个部分都有相关的资料来源,可以直接触达,开发者们查阅起来很方便。
4/27/2025 9:05:00 AM
量子位

具身交互推理: 图像-思考-行动交织思维链让机器人会思考、会交互

OpenAI 的 o1 系列模型、Deepseek-R1 带起了推理模型的研究热潮,但这些推理模型大多关注数学、代码等专业领域。 如何将这种深度推理模型扩展到智能体和具身领域,让机器人通过思考和推理来完成复杂具身交互等任务? 近期,来自浙江大学、中科院软件所和阿里巴巴的团队提出了 Embodied-Reasoner,让机器人或智能体拥有深度思考和交互决策能力,从而在真实物理世界完成环境探索、隐藏物体搜索、交互和搬运等长序列复杂任务。
4/27/2025 8:55:00 AM
机器之心

OpenAI、谷歌等一线大模型科学家公开课,斯坦福CS 25春季上新!

在斯坦福,有一门专门讲 Transformer 的课程,名叫 CS 25。 这门课曾经邀请过 Geoffrey Hinton、Andrej Karpathy 以及 OpenAI 的 Hyung Won Chung、Jason Wei 等一线大模型研究科学家担任讲师,在 AI 社区引起广泛关注。 最近,这门课又上新了。
4/27/2025 8:40:00 AM
机器之心

如何利用网络爬虫进行大规模LLM数据收集

大语言模型的 “智慧” 很大程度上依赖于其训练数据的质量和数量。 想要打造一个能够理解真实世界的模型,就必须获取来自真实世界的信息,而互联网无疑是海量数据的主要来源。 本文将深入探讨如何利用网络爬虫收集大规模、适用于 AI 训练的数据,为人工智能模型的训练筑牢坚实基础。
4/27/2025 4:05:00 AM
大模型之路

你的 MCP 调用正在成为系统的"后门",这个解决方案刻不容缓!

在人工智能快速发展的今天,大型语言模型 (LLM) 已成为提升工作效率的重要工具。 随着 MCP(Model Context Protocol)的出现,我们有了一种标准化的方式来与 AI 模型交互。 然而,当需要同时使用多个 MCP 资源服务器时,管理和使用这些服务不仅变得复杂,安全问题也越发严重。
4/27/2025 3:34:00 AM
PIG AI

深度研究 | 解构国内外代表性Agentic AI系统风险模型

Agentic AI正在走向现实应用。 这些拥有自主决策能力的AI系统也带来了全新的安全挑战。 与传统网络安全风险不同,Agentic AI系统面临着更为复杂、多维度的威胁态势,需要我们以创新的视角重新审视安全防护体系。
4/27/2025 3:10:00 AM