AI在线 AI在线

大语言模型

从3000万到1777.9 Token:LogicRAG用动态逻辑图实现“零预建图的高效推理

大家好,我是肆〇柒。 今天要和大家分享的是一项来自香港理工大学的研究——LogicRAG。 这项工作挑战了当前主流的GraphRAG范式,提出了一种无需预建图、按需生成动态逻辑结构的新型RAG框架。
8/28/2025 1:00:00 AM
肆零柒

告别固定分块!2024 EMNLP 新方法 LumberChunker:用 LLM 实现动态语义分块,检索效果显著提升

在大语言模型(LLM)主导的现代 NLP 领域,密集检索已成为问答、摘要、知识问答等任务的核心支撑 —— 毕竟模型再强大,也需要精准的外部上下文来避免 “幻觉”、获取最新信息。 但检索效果的好坏,往往卡在一个容易被忽视的环节:文本分块。 传统分块方法(按句子、段落或固定长度切割)就像用尺子机械丈量文本,完全忽略了内容的语义关联性:要么把一个完整的概念拆得七零八落,导致检索片段上下文残缺;要么把多个无关主题硬塞进一个块里,引入大量噪声。
8/25/2025 8:59:13 AM
Goldma

运用轻量化大语言模型:实现事件响应加速与幻觉抑制双重突破

墨尔本大学和伦敦帝国理工学院的研究人员开发了一种利用大语言模型(LLM)改进事件响应规划的方法,重点在于降低产生幻觉的风险,该方法采用经过微调的小型大语言模型,并结合检索增强生成技术和决策理论规划。 他们所针对的问题十分常见:目前事件响应在很大程度上仍依赖人工操作,速度缓慢,且依赖专家配置的应急预案。 许多企业需要数周甚至数月才能从事件中完全恢复。
8/25/2025 7:00:00 AM
Mirko Zorz

USENIX Security 25 | TEE+Legacy GPU混合算力下的模型隐私安全攻防

近日,字节跳动安全研究团队、北京大学和伊利诺伊大学香槟分校合作的研究论文《Game of Arrows: On the (In-)Security of Weight Obfuscation for On-Device TEE-Shielded LLM Partition Algorithms》被安全领域国际顶会USENIX Security收录。 USENIX Security 会议是网络与信息安全领域的四大顶级会议之一,也是中国计算机学会推荐的网络与信息安全领域A类国际学术会议。 该会议享有广泛的学术影响和深厚的学术底蕴,近五年平均录用率约为20%。
8/21/2025 2:05:07 PM
字节跳动技术团队

AI驱动电子表格平台Paradigm获500万美元种子轮融资 配备5000个AI智能体

在"AI智能体"这个概念还未兴起的时候,安娜·摩纳哥就已经开始构建AI智能体产品。 在开发了众多聊天机器人后,她开始寻找适合AI智能体的其他交互界面,最终将目光锁定在电子表格上。 摩纳哥向TechCrunch表示:"我有一个个人使用习惯,也注意到很多其他人都有这样的习惯,就是将非常重要的CRM数据放在电子表格中,因为这是最灵活的工具。
8/19/2025 10:47:00 AM
AI在线

OpenAI回归开源:gpt-oss-120b和gpt-oss-20b完整指南

译者 | 陈峻审校 | 重楼本文将向你介绍OpenAI新发布的两个开源模型--gpt-oss-120b和gpt-oss-20b,它们的特点,以及在何种场景下该使用哪个模型。 近期,OpenAI发布了两个开源的大语言模型(LLM)--gpt-oss-120b和gpt-oss-20b。 它们是自GPT-2以来,由OpenAI第一个公开许可的LLM。
8/15/2025 8:17:41 AM
陈峻

AI能替你写代码,但近半数代码可能暗藏安全漏洞

Veracode发布的《2025年GenAI代码安全报告》显示,虽然GenAI擅长编写可运行的代码,但在45%的情况下会引入安全漏洞,该报告分析了80个真实编程任务中100多个大语言模型(LLM)生成的代码。 氛围编程Veracode首席技术官延斯·韦斯林(Jens Wessling)表示:“氛围编程(vibe coding)的兴起,标志着软件开发方式的根本转变。 在氛围编程中,开发者通常依赖AI生成代码,且不明确规定安全要求,这种趋势的主要问题在于,开发者无需指定安全约束就能得到想要的代码,实际上是将安全编码决策交给了大语言模型。
8/11/2025 7:30:00 AM

Bill Inmon:为什么你的数据湖需要的是 BLM,而不是 LLM

当你尝试使用文本生成 AI 解决结构化数据问题时,你投资的数据湖就变成了‘污水池’ 。 ” —— Bill Inmon根据 Gartner 的研究,85% 的大数据项目都失败了。 2023 年,规模达 152 亿美元的数据湖市场增长了 20% 以上,但大多数企业却无法从文本数据中提取价值。
7/31/2025 3:00:00 AM
晓晓

英伟达全新开源模型:三倍吞吐、单卡可跑,还拿下推理SOTA

henry 发自 凹非寺. 量子位 | 公众号 QbitAI众所周知,老黄不仅卖铲子(GPU),还自己下场开矿(造模型)。 英伟达最新推出的Llama Nemotron Super v1.5开源模型就专为复杂推理和agnet任务量身打造。
7/29/2025 3:05:03 PM
henry

多模态大语言模型(LLM) 和视频语言预训练的关键进展、应用、数据集和方法

随着视频应用的发展,大量视频被上传到网上。 因此,如何利用视频及其对应的弱字幕进行表征学习成为近期的热门话题。 本文将回顾大规模视频语言预训练任务的最新进展、后续应用、基础数据集和技术。
7/24/2025 2:00:00 AM
晓晓

数据治理对人工智能的成功至关重要

自 ChatGPT 发布以来,大语言模型 (LLM) 已进入主流,促使各行各业和公司纷纷探索其在业务转型中的潜力。 此后,许多技术应运而生,帮助团队构建更强大的 AI 系统:RAG、向量数据库、重排序器、推理模型、工具使用、MCP、代理框架等等。 这些工具和技术显然很有用;然而,提升 AI 系统业务影响力的最有效方法依然是数据。
7/21/2025 8:19:13 AM
晓晓

重大突破!研究团队揭示大语言模型内部潜藏的 “奖励机制”

近日,南京大学的周志华教授团队发布了一项重要研究,首次理论证明了在大语言模型中可以发现内源性奖励模型,并有效应用强化学习(RL)来提升模型表现。 当前,许多对齐方法依赖于人类反馈强化学习(RLHF),这种方法需要大量高质量的人类偏好数据来训练奖励模型。 然而,构建这样一个数据集不仅耗时费力,还面临成本高昂的挑战。
7/2/2025 6:00:45 PM
AI在线

字节跳动推出 ProtoReasoning 框架:提升大语言模型的逻辑推理能力

近日,字节跳动的研究与上海交通大学的团队共同推出了名为 ProtoReasoning 的新框架,旨在通过逻辑原型来增强大语言模型(LLMs)的推理能力。 该框架利用结构化的原型表示,如 Prolog 和 PDDL,推动了跨领域推理的进展。 近年来,大语言模型在跨领域推理方面取得了显著突破,尤其是在长链推理技术的应用下。
6/25/2025 11:00:54 AM
AI在线

法拉第未来重磅发布FF AI2.0:与OpenAI深度融合,支持50种语言智能交互

6月24日,法拉第未来正式宣布推出FF AI2.0智能座舱操作系统,这是自2023年FF91发布以来最重大的智能座舱升级。 新系统将通过OTA软件更新首先部署到FF912.0车型,并计划未来扩展至FX系列。 FF AI2.0实现了整个AI架构的全面重构,其最大亮点是与OpenAI的深度融合。
6/24/2025 4:00:42 PM
AI在线

Anthropic 警告:包括 Claude 在内的大多数 AI 模型会实施“勒索”行为

在数周前发布研究指出其 Claude Opus 4 模型在受控测试中试图通过勒索手段阻止被关闭后,Anthropic 近日再度公布新研究,显示此类行为在多个主流 AI 模型中可能更为普遍。
6/21/2025 8:01:06 AM
清源

AM-Thinking-v1:解锁 32B 模型推理潜力的密码

大家好,我是肆〇柒。 本篇想和大家分享一个后训练的模型案例 ——AM-Thinking-v1 模型。 这个模型是由贝壳(Ke.com)公司旗下的 a-m-team 团队开发的,他们一直致力于探索 AGI 技术。
6/18/2025 2:30:00 AM
肆零柒

一文读懂LLM基于JSON Schema的结构化输出

什么是基于JSON Schema的结构化输出大语言模型通常会生成无特定结构的自由格式文本,在能够有效使用之前需要进行大量的后期处理。 这种不可预测性会导致错误、浪费时间并增加成本。 OpenAI推出基于JSON Schema的结构化输出以解决这一问题。
6/12/2025 2:30:00 AM
AI大模型应用开发

Qwen:PARSCALE 让语言模型在并行中飞跃

大家好,我是肆〇柒。 今天,我们来聊聊大型语言模型(LLM)领域的一项研究——PARSCALE。 在人工智能快速发展的当下,大型语言模型应用前景无比广阔,然而,随着模型规模的不断膨胀,我们正面临着前所未有的挑战。
6/11/2025 2:00:00 AM
肆零柒