AI在线 AI在线

理论

理解 RAG 第五部分:管理上下文长度

传统的大型语言模型 (LLM)存在上下文长度限制,这限制了单次用户与模型交互中处理的信息量,这是其主要局限性之一。 解决这一限制一直是 LLM 开发社区的主要工作方向之一,提高了人们对增加上下文长度在生成更连贯、更准确响应方面优势的认识。 例如,2020 年发布的 GPT-3 上下文长度为 2048 个 token,而其更年轻但功能更强大的兄弟 GPT-4 Turbo(诞生于 2023 年)允许在单个提示中处理高达 128K 个 token。
4/28/2025 9:02:14 AM

ICLR 2025 | 无需训练加速20倍,清华朱军组提出用于图像翻译的扩散桥模型推理算法DBIM

论文有两位共同一作。 郑凯文为清华大学计算机系三年级博士生,何冠德为德州大学奥斯汀分校(UT Austin)一年级博士生。 扩散模型(Diffusion Models)近年来在生成任务上取得了突破性的进展,不仅在图像生成、视频合成、语音合成等领域都实现了卓越表现,推动了文本到图像、视频生成的技术革新。
4/28/2025 9:00:00 AM
机器之心

基于奖励驱动和自组织演化机制,全新框架ReSo重塑复杂推理任务中的智能协作

本文由上海人工智能实验室,悉尼大学,牛津大学联合完成。 第一作者周恒为上海 ailab 实习生和 Independent Researcher 耿鹤嘉。 通讯作者为上海人工智能实验室青年科学家白磊和牛津大学访问学者,悉尼大学博士生尹榛菲,团队其他成员还有 ailab 实习生薛翔元。
4/28/2025 8:50:00 AM
机器之心

AI无边界:通过MCP实现不同智能体框架的协作(含代码)

在人工智能飞速发展的当下,智能体框架如雨后春笋般不断涌现。 从LangChain利用高度抽象的方式构建智能体,到CAMEL - AI为用户提供细致配置选项来创建智能体,不同框架各显神通。 但这些框架之间就像说着不同“方言”的个体,彼此沟通困难重重。
4/28/2025 8:29:04 AM
大模型之路

美国银行对AI的大力押注始于小规模

今年,美国银行将投资40亿美元用于AI及相关技术创新,但这家金融服务巨头七年前自主研发的AI助手Erica,如今依然是关键的投资回报率来源、客户与员工体验的核心,也是其引以为傲的成果。 2018年时,很少有人使用“助手”一词,更不用说“自主式AI”了,但美国银行组建了一个由软件工程师、语言学家和银行业专家组成的团队,打造了这款小型语言模型,该模型多年来根据呼叫中心收集的客户反馈数据不断优化。 美国银行消费者、商业和财富管理技术部门负责人哈里·戈帕尔克里什南(Hari Gopalkrishnan)表示,Erica之所以能够成功且经久不衰,关键在于其规模较小。
4/28/2025 7:05:00 AM
Paula Rooney

AAAI2025 | 频域+注意力双加持!SNN性能飙升33%,刷新多项SOTA纪录!

一眼概览FSTA-SNN 提出了一种频域驱动的时空注意力模块(FSTA),显著提升脉冲神经网络(SNN)的特征学习能力与能效,在多个数据集上实现了更优性能和更低的脉冲发放率。 核心问题当前 SNN 在信息稀疏表示方面虽具能效优势,但其中间脉冲输出存在冗余且缺乏系统分析,导致特征提取能力受限、性能不稳定。 论文核心关注的问题是:如何在不增加能耗的前提下,抑制冗余脉冲、增强关键特征提取能力,从而提升 SNN 的整体性能与鲁棒性。
4/28/2025 3:45:00 AM
萍哥学AI

AI图像分割新王者:BiRefNet如何重新定义视觉精度边界?

一、当“抠图”变成毫米级手术:BiRefNet的技术突破你是否想过,为什么电商商品图能精准抠出发丝? 为什么自动驾驶车辆能瞬间识别行人轮廓? 答案可能藏在一种名为BiRefNet的AI模型中。
4/28/2025 3:22:45 AM
智Echo

大模型重复生成内容:根因剖析与优化策略

前言最近在调试大模型应用过程中,遇到了如下问题:复制大模型首次生成内容与「重新生成」两次返回的内容近乎完全相同,几乎没有体现出任何差异性。 面对这种情况,造成大模型输出高度相似的原因是什么呢? 我们又该采取怎样的调整策略,才能使重新生成的内容与前次存在明显差异,提升输出的多样性呢?
4/28/2025 2:22:00 AM
张张

Encoder-free无编码器多模态大模型EVEv2模型架构、训练方法浅尝

基于视觉编码器的MLLM的基本构成:MLLM通常由预训练的模态编码器、预训练的LLM和一个连接它们的模态接口三个模块组成。 模态编码器(如:CLIP-ViT视觉编码器、Whisper音频编码器等)将原始信息(如图像或音频)压缩成更紧凑的表示。 预训练的LLM则负责理解和推理处理过的信号。
4/28/2025 2:03:00 AM
余俊晖

o3猜照片位置深度思考6分48秒全程高能,范围精确到“这么近那么美”

ChatGPT新玩法,让程序员大佬Simon Willison直呼太反乌托邦了,像科幻突然变成现实:只需一张照片,靠带图深度思考就能猜出地理位置。 图片这种玩法很简单,随手拍一张风景,没有任何明显的地标即可,也不需要复杂的提示词,只需要问“猜猜这张照片是在哪里拍的? ”(需要o3/o4-mini的带图思考,先关闭所有记忆功能)。
4/28/2025 1:01:00 AM

MCP 服务器很危险!这里有安全使用指南!

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)MCP 这次真的火了! 自从Anthropic于 2024 年 11 月推出以来,它有望成为“将 AI 助手连接到数据所在系统的新标准”。 截至目前,该协议已被 OpenAI、微软和谷歌等公司迅速采用;各大供应商纷纷推出 MCP 服务器,希望在 AI 代理工作流程中不失时机。
4/27/2025 7:37:31 PM
云昭

GPT-4o偷偷升级,变身聊天鬼才!新版STEM智力飙升,生图却惨遭削弱?

OpenAI又默默地更新了模型。 前一天,奥特曼发文称更新后的GPT-4o,在智力和个性方面有了很大的提升。 图片在更新公告中,GPT-4o还优化了保存记忆的时间,增强了STEM领域问题解决能力。
4/27/2025 3:40:02 PM
新智元

Dify从0到1构建AI应用?这个开源神器让开发者直呼“真香”!

导语:当AI开发进入“效率时代”,你还在重复造轮子吗? 在大模型落地的黄金时代,企业和开发者面临着“甜蜜的烦恼”:如何快速将LLM能力转化为可用的AI应用? 从模型对接、工作流设计到RAG开发、Agent构建,每一步都可能陷入繁琐的技术细节。
4/27/2025 10:06:52 AM
前端组件开发

一文详解深度学习中的标量、向量、矩阵、张量

在深度学习领域,标量、向量、矩阵和张量是不可或缺的基本概念。 它们不仅是数学工具,更是理解和构建神经网络的关键。 从简单的标量运算到复杂的张量处理,这些概念贯穿于数据表示、模型构建和算法优化的全过程。
4/27/2025 9:59:38 AM
Goldma

英伟达华人硬核AI神器,「描述一切」秒变细节狂魔!仅3B逆袭GPT-4o

有了AI,谁还愿意用手配「字幕」? 刚刚,英伟达联手UC伯克利、UCSF团队祭出首个神级多模态模型——Describe Anything Model(DAM),仅3B参数。 论文地址: Anything,上传一张图,圈哪点哪,它即可生成一段丰富的文字描述。
4/27/2025 9:54:48 AM

AI、BI、大数据与数据科学的底层逻辑

数据正在重塑世界。 每天早上醒来查看健身数据、刷信用卡时的授权验证、公司会议上讨论的销售增长曲线——数据已经无缝融入我们的生活。  但在这个数据爆炸的时代,我们真的理解AI、BI、大数据和数据科学的本质区别吗?
4/27/2025 9:52:49 AM
大数据AI智能圈

AI编码陷阱防不胜防?看看 Cursor设计负责人Ryo Lu 是怎么说的

前不久,Cursor 设计总监 Ryo Lu 在 X 上发布了若干最佳实践建议():内容基本匹配我的使用体感,工具始终是工具,即使如 Cursor,效果好坏最终还是取决于”用的人“使用得当的 Cursor 可以让你写出快速、干净的代码;使用不当,它会生成让你清理一周的 AI 意大利面代码。 本文将围绕这一核心观点,结合实际经验,扩展聊聊 Ryo Lu 给出的建议。 从项目规划到代码实现、从提示设计到错误修复,我们将逐条介绍正确用法、常见误区以及实战技巧。
4/27/2025 9:33:01 AM

突发!Anthropic对逆向工程者提下架通知,引开发者强烈不满

编辑 | 云昭大洋彼岸,两款“代理”编码工具在开发者中的口碑突然发生了逆转! 众所周知,近期OpenAI的Codex CLI和Anthropic 的Claude Code正在激烈竞争,风头皆盛。 不过由于后者长期主打开发赛道,所以Claude在开发者的口碑一直很好。
4/27/2025 9:26:08 AM
云昭