AI在线 AI在线

理论

CIO在考虑AI项目时应考虑的四个合规问题

“你突然就到了这样一个阶段,即所有这些不同的细微差别都需要在治理计划中得以体现,这真的很难,”德普律师事务所数据战略与安全团队以及白领和监管辩护小组的助理律师玛莎·赫斯特在国际隐私专业人士协会(IAPP)全球隐私峰会的一次小组讨论会上说。 上周的活动期间,小组讨论者们表示,企业应致力于创建流程和治理机制,在控制AI风险的同时推动创新。 以下是CIO在规划和推进AI项目时应考虑的四个具有法律影响的问题:1.
4/29/2025 11:16:09 AM
Lindsey

阿里重磅发布Qwen3最佳开源LLM,击败 DeepSeek-R1,Llama4

一、Qwen 系列模型发展脉络回溯Qwen 系列模型是阿里云自主研发的成果,其诞生顺应了人工智能领域对强大语言处理能力不断追求的趋势。 自初代模型推出以来,便以高效的架构设计和扎实的预训练基础,在自然语言处理(NLP)任务中初显身手。 随着技术的迭代,Qwen 模型持续进化,参数规模不断扩大,训练数据日益丰富多样,在语言理解、生成等基础能力上稳步提升。
4/29/2025 10:39:46 AM
大模型之路

Orange:一个免费的交互式数据挖掘与机器学习平台

Orange 是一款开源的数据分析与可视化工具,专注于数据挖掘和机器学习领域。 它提供了直观的图形化界面,用户无需编程和数学知识即可完成数据科学工作流程,同时也支持通过 Python 脚本实现高级功能。 功能简介Orange 图形化编程对于初学者非常友好,他们可以专注于数据分析本身,而不是耗时的编程工作。
4/29/2025 9:26:34 AM
不剪发的Tony老师

理解 RAG 第七部分 矢量数据库和索引策略

在 RAG 系统中高效检索知识是提供准确及时响应的关键。 矢量数据库和索引策略在增强 RAG 系统性能方面发挥着至关重要的作用。 本文延续“理解 RAG”系列文章,概念化 RAG 系统中常用的矢量数据库和索引技术。
4/29/2025 9:22:17 AM
晓晓

港大&Adobe联合提出图像生成模型PixelFlow,可直接在原始像素空间中运行,无需VAE即可进行端到端训练

香港大学和Adobe联合提出了一种直接在原始像素空间中运行的图像生成模型PixelFlow,这种方法简化了图像生成过程,无需预先训练的变分自编码器 (VAE),并使整个模型能够端到端训练。 通过高效的级联流建模,PixelFlow 在像素空间中实现了可承受的计算成本。 它在 256x256 ImageNet 类条件图像生成基准上实现了 1.98 的 FID。
4/29/2025 9:21:19 AM
AIGC Studio

告别“图文不符”!FG-CLIP实现细粒度跨模态对齐,360开源模型重塑AI视觉理解

CLIP的“近视”问题,被360搞定了。 360人工智能研究院最新图文跨模态模型FG-CLIP,宣布以“长文本深度理解”和“细粒度视觉比对”双突破,彻底解决了传统CLIP模型的“视觉近视”问题,能够精准识别局部细节。 具体怎么个说法?
4/29/2025 9:21:00 AM

52页PPT,谷歌Gemini预训练负责人首次揭秘!扩展定律最优解

谷歌凭借Gemini 2.5 Pro在激烈的大模型竞争中一举翻盘。 近日,Geimini Flash预训练负责人Vlad Feinberg在普林斯顿大学分享了相关内容。 他深入分析了Gemini预训练的方法、挑战以及方向,如何在模型大小、算力、数据和推理成本间取得平衡。
4/29/2025 9:16:00 AM
新智元

颠覆传统RAG,创新大模型检索增强—Insight-RAG

RAG已经成为大模型的标题,但传统方法存在检索深度不足、难以整合多源信息等弊端,例如,传统 RAG 依赖表面相关性检索文档,容易忽略单个文档内深埋的信息。 在法律协议中,会忽略微妙的合同条款;在商业报告里,错过隐藏的数据趋势。 所以,Megagon实验室的研究人员提出了一种创新框架Insight-RAG,从而更好地捕捉任务特定的细微信息,整合的数据质量也更高。
4/29/2025 9:15:49 AM
AIGC开放社区

模型压缩到70%,还能保持100%准确率,无损压缩框架DFloat11来了

大型语言模型(LLMs)在广泛的自然语言处理(NLP)任务中展现出了卓越的能力。 然而,它们迅速增长的规模给高效部署和推理带来了巨大障碍,特别是在计算或内存资源有限的环境中。 例如,Llama-3.1-405B 在 BFloat16(16-bit Brain Float)格式下拥有 4050 亿个参数,需要大约 810GB 的内存进行完整推理,超过了典型高端 GPU 服务器(例如,DGX A100/H100,配备 8 个 80GB GPU)的能力。
4/29/2025 9:14:00 AM
机器之心

上交大等探索键值压缩的边界:MILLION开源框架定义模型量化推理新范式,入选顶会DAC 2025

本篇工作已被电子设计自动化领域顶级会议 DAC 2025 接收,由上海交大计算机学院蒋力教授与刘方鑫助理教授带领的 IMPACT 课题组完成,同时也获得了华为 2012 实验室和上海期智研究院的支持。 第一作者是博士生汪宗武与硕士生许鹏。 在通用人工智能的黎明时刻,大语言模型被越来越多地应用到复杂任务中,虽然展现出了巨大的潜力和价值,但对计算和存储资源也提出了前所未有的挑战。
4/29/2025 9:13:00 AM
机器之心

首个系统性工具使用奖励范式,ToolRL刷新大模型训练思路

钱成目前是伊利诺伊大学香槟分校 (UIUC) 一年级博士生,导师为季姮教授。 本科就读于清华大学,导师为刘知远教授。 其工作集中在大语言模型工具使用与推理以及人工智能体方向。
4/29/2025 9:12:00 AM
机器之心

字节Seed团队PHD-Transformer突破预训练长度扩展!破解KV缓存膨胀难题

最近,DeepSeek-R1 和 OpenAI o1/03 等推理大模型在后训练阶段探索了长度扩展(length scaling),通过强化学习(比如 PPO、GPRO)训练模型生成很长的推理链(CoT),并在奥数等高难度推理任务上取得了显著的效果提升。 受此启发,研究人员开始探索预训练阶段的长度扩展,已有方法包括在序列中插入文本、插入潜在向量(如 Coconut)、复用中间层隐藏状态(如 CoTFormer)以及将中间隐藏状态映射为概念(如 COCOMix)。 不过,这些方法普遍存在问题,比如需要更大的 KV 缓存导致推理慢 / 占内存多。
4/29/2025 9:10:00 AM
机器之心

AI三驾马车:数据、算力和算法,谁更重要?

人工智能(AI)好比一台超级跑车,正在高速公路上飞驰。  这台超级跑车由三个核心部件驱动:算法是引擎,决定了车辆性能的上限;算力是燃油,提供源源不断的能量;数据是道路,铺就了AI前进的方向。  这三者构成了AI发展的铁三角,缺一不可!算法:AI的思维引擎算法是AI的大脑,决定了系统如何学习和决策。
4/29/2025 9:09:32 AM
大数据AI智能圈

北大物院200人合作,金牌得主超50人!PHYBench:大模型究竟能不能真的懂物理?

本项目由北京大学物理学院朱华星老师、曹庆宏副院长统筹指导。 基准设计、项目管理以及数据整合的主要工作由学生核心团队完成,核心成员包括仇是、郭绍阳、宋卓洋、孙韫博、蔡则宇、卫家燊、罗天宇等。 项目还得到了北京计算科学研究中心罗民兴院士和人工智能研究院张牧涵老师的鼎力支持。
4/29/2025 9:08:00 AM
机器之心

使用OAuth2保护Spring AI MCP服务!

Spring AI框架提供了对Model Context Protocol(简称MCP)的全面支持,使AI模型能够以标准化方式与外部工具和资源进行安全交互。 借助Spring AI,开发者仅需少量代码即可构建功能完备的MCP服务器,为AI模型提供丰富的功能扩展。 MCP 中的授权和安全MCP服务器默认支持通过STDIO传输在本地环境中运行。
4/29/2025 9:07:21 AM
飘渺Jam

猛击OpenAI o1、DeepSeek-R1!刚刚,阿里Qwen3登顶全球开源模型王座,深夜爆火

今天凌晨,从昨晚开始预热、备受全球 AI 圈关注的 Qwen3 系列模型终于正式亮相了! Qwen3 模型依旧采用宽松的 Apache2.0 协议开源,全球开发者、研究机构和企业均可免费在 HuggingFace、魔搭社区等平台下载模型并商用,也可以通过阿里云百炼调用 Qwen3 的 API 服务。 HuggingFace 地址: 地址: 地址:::,Qwen3 系列模型包含两款 MoE 模型以及六款密集模型,其中每一款又包含更多细分版本(比如基础版和量化版):MoE 模型:Qwen3-235B-A22B 和 Qwen3-30B-A3B;其中 235B 和 30B 分别是总参数量,22B 和 3B 分别是激活参数量。
4/29/2025 9:06:00 AM
机器之心

ICLR 2025 Oral|差分注意力机制引领变革,DIFF Transformer攻克长序列建模难题

近年来,Transformer 架构在自然语言处理领域取得了巨大成功,从机器翻译到文本生成,其强大的建模能力为语言理解与生成带来了前所未有的突破。 然而,随着模型规模的不断扩大和应用场景的日益复杂,传统 Transformer 架构逐渐暴露出缺陷,尤其是在处理长文本、关键信息检索以及对抗幻觉等任务时,Transformer 常常因过度关注无关上下文而陷入困境,导致模型表现受限。 为攻克这一难题,来自微软和清华的研究团队提出了 DIFF Transformer,一种基于差分注意力机制的创新基础模型架构。
4/29/2025 9:05:00 AM
机器之心

不用等R2了!第三方给新版DeepSeek V3添加深度思考,推理101秒破解7米甘蔗过2米门

DeepSeek即将发布R2? ? 坊间传闻越来越多了,且难辨真假。
4/29/2025 9:03:00 AM
量子位