AI在线 AI在线

大型语言模型

谷歌推出新方法:训练数据量减少 1 万倍,提升模型精准度

谷歌推出新方法:训练数据量减少 1 万倍,提升模型精准度

近日,谷歌在其研究中提出了一种新颖的主动学习筛选流程,旨在大幅降低微调大型语言模型所需的训练数据量。 根据实验结果,这种方法能够将训练数据量降低至原来的1万分之一,同时提高模型与人类专家判断的一致性达65%。 在实际应用中,如广告内容分类、金融数据安全分析等领域,对高保真训练数据的需求一直很高,但筛选出符合要求的数据不仅难度大,成本也极为昂贵。
8/25/2025 3:00:52 PM AI在线
AI爬虫“入侵”网络:Fastly 报告揭示,Meta、OpenAI 等巨头成主要流量来源

AI爬虫“入侵”网络:Fastly 报告揭示,Meta、OpenAI 等巨头成主要流量来源

您好,这是一份我为您整理的关于AI爬虫对网络影响的新闻稿,内容紧凑且重点突出。 据云服务公司 Fastly 最新报告显示,人工智能(AI)爬虫正在给开放网络带来沉重负担,网站流量的显著增长并非来自人类访客,而是日益庞大的机器人程序,特别是来自大型AI公司的爬虫和抓取程序。 报告指出,在所有访问网站的AI机器人流量中,AI爬虫占据了高达**80%的份额,而剩下的20%**则由 AI抓取程序贡献。
8/22/2025 10:54:52 AM AI在线
微软Copilot打破Excel工作流壁垒:一键完成数据分析、分类与内容生成

微软Copilot打破Excel工作流壁垒:一键完成数据分析、分类与内容生成

微软正在通过一项名为“Copilot”的新功能,将大型语言模型(LLM)的强大能力直接引入 Excel 单元格,旨在从根本上改变用户处理数据的方式。 这项集成将加快数据分析、文本分类和内容生成等任务的速度,让用户无需手动编辑或依赖外部工具。 使用简单,功能强大新的 Copilot 功能通过一个简单的公式 =COPILOT(prompt_part1, [context1], ...) 即可使用。
8/20/2025 10:05:59 AM AI在线
如何训练你的大型语言模型

如何训练你的大型语言模型

打造一个听起来很智能的大型语言模型 (LLM) 助手,就像在反复塑造泥塑一样。 你从一块泥土开始,把它挤压成一个可行的结构,然后开始精雕细琢,直到最终成品。 越接近最终成品,那些精妙的点缀就越重要,正是这些点缀决定了最终成品是杰作还是恐怖谷效应。
8/19/2025 10:10:46 AM 晓晓
Self-Play Critic:以“对抗博弈”创新大语言模型推理评估

Self-Play Critic:以“对抗博弈”创新大语言模型推理评估

大家好,我是肆〇柒。 今天,我想和大家聊一项创新的评估思路——Self-Play Critic(SPC)。 大型语言模型(LLM)目前已成为我们生活和工作中不可或缺的工具。
8/8/2025 3:00:00 AM 肆零柒
17 种 RAG 架构实现原理与选型

17 种 RAG 架构实现原理与选型

RAG(Retrieval-Augmented Generation)是一种结合外部知识检索与语言模型生成的混合技术架构。 它在大型语言模型(如 GPT)生成能力的基础上,通过外部知识库提高了准确性、时效性和可控性,广泛用于企业问答、搜索增强、智能客服、代码辅助、知识图谱等场景。 然而,RAG不是一个固定结构,也没有固定的套路,而是一套可以灵活演化的系统。
8/4/2025 6:05:00 AM Andflow
全新的AI模型带来更快速的漏洞检测方案

全新的AI模型带来更快速的漏洞检测方案

一组研究人员开发出一种名为White-Basilisk的新型AI模型,该模型检测软件漏洞的效率高于许多大型系统。 当前,开发人员和安全团队在保障复杂代码库安全方面面临着越来越大的压力,且往往缺乏部署大规模AI工具的资源,该模型正是在这一背景下发布的。 小模型,大成效与需要数十亿参数和强大计算能力的大型语言模型(LLM)不同,White-Basilisk模型非常紧凑,仅有2亿个参数,然而,在多个用于漏洞检测的公共基准测试中,它的表现优于规模超过其30倍的模型,这至少在专门的安全任务方面,对“模型越大越好”的观点提出了质疑。
8/1/2025 2:38:14 PM Mirko Zorz
AREAL 开源:解耦架构与创新算法驱动的强化学习系统

AREAL 开源:解耦架构与创新算法驱动的强化学习系统

大家好,我是肆〇柒。 推理能力在当下 AI 领域,尤其自然语言处理、智能决策系统、科学研究辅助等众多关键领域,已然成为推动技术革新的关键要素。 然而,目前大型语言模型虽已取得瞩目成果,但在处理复杂逻辑时,常受困于逻辑连贯性把控,长链推理面临信息丢失、逻辑断裂问题,长序列输出任务下推理耗时久、资源消耗大,这些痛点严重制约模型应用场景拓展与性能深化。
7/25/2025 9:03:24 AM 肆零柒
AI Agent 协议:未来AI智能生态的基础设施

AI Agent 协议:未来AI智能生态的基础设施

大家好,我是肆〇柒。 今天想跟大家深入聊聊 AI 智能体协议这个极具前瞻性的话题。 关于智能体协议,我跟了一段时间,发现它就像是打开智能体协作大门的一把钥匙,特别有意思,而且对未来的智能生态影响深远。
7/23/2025 9:21:03 AM 肆零柒
AGENTGROUPCHAT-V2:大型语言模型多智能体协作的创新思考

AGENTGROUPCHAT-V2:大型语言模型多智能体协作的创新思考

大家好,我是肆〇柒。 LLM 多智能体系统在社会模拟和复杂任务解决这两大领域大显身手。 在社会模拟里,它们精准地复刻人类社交互动模式,助力我们洞察群体行为背后的社会学;在复杂任务解决场景下,智能体们协同合作,先是制定详尽规划,再按部就班执行,轻松应对复杂局面。
7/15/2025 12:14:44 PM 肆零柒
重新审视 LLM:集体知识的动态映射与人机共舞

重新审视 LLM:集体知识的动态映射与人机共舞

大家好,我是肆〇柒。 今天咱们不聊那些晦涩的技术。 今天的内容,源自我看到的一篇论文《In Dialogue with Intelligence: Rethinking Large Language Models as Collective Knowledge》。
7/11/2025 10:11:38 AM 肆零柒
OctoThinker:借“中期训练”之力,缩小 Llama 和 Qwen 模型的差距

OctoThinker:借“中期训练”之力,缩小 Llama 和 Qwen 模型的差距

大家好,我是肆〇柒,大型语言模型(LLM)通过链式思考(CoT)进行深度推理,并借助大规模强化学习(RL)在复杂任务(如竞赛级数学问题解决)上取得了显著进展。 OpenAI 的 o1、o3 等模型在数学推理任务上表现卓越,这些模型通常采用多层神经网络架构,通过大规模数据训练捕捉语言的复杂模式,从而实现高效的文本生成和推理。 而 DeepSeek-R1-Zero 等模型在基础语言模型上直接应用大规模 RL 也展现了有趣的推理行为。
7/10/2025 10:25:23 AM 肆零柒
ASTRO:赋予语言模型搜索式推理能力的创新框架

ASTRO:赋予语言模型搜索式推理能力的创新框架

大家好,我是肆〇柒。 当下大型语言模型(LLM)已深度融入诸多领域,从智能写作到语言翻译,从智能客服到数据分析,其影响力无处不在。 然而,在处理复杂问题时,推理能力的强弱直接决定了模型的实用性。
7/10/2025 9:14:11 AM 肆零柒
日本 2024 财年生成式 AI 使用率仅 26.7%,远落后于中美

日本 2024 财年生成式 AI 使用率仅 26.7%,远落后于中美

AI在线 7 月 8 日消息,据日本总务省周二发布的 2025 年白皮书显示,日本在生成式人工智能(AI)的使用率上明显落后于全球领先国家。 白皮书指出,2024 财年仅有 26.7% 的日本民众表示使用过此类工具,尽管这一数字较 2023 财年增长了约三倍,但仍远低于美国和中国等 AI 领先国家。 其中,美国的使用率高达 68.8%,而中国的使用率更是达到了 81.2%。
7/8/2025 10:49:51 PM 远洋
探秘 LLM 强化学习兼容性:上海交大揭示 Llama 与 Qwen 差异,推出 OctoThinker

探秘 LLM 强化学习兼容性:上海交大揭示 Llama 与 Qwen 差异,推出 OctoThinker

大型语言模型(LLM)通过结合任务提示和大规模强化学习(RL)在复杂推理任务中取得了显著进展,如 Deepseek-R1-Zero 等模型直接将强化学习应用于基础模型,展现出强大的推理能力。 然而,这种成功在不同的基础模型系列中难以复制,尤其是在 Llama 系列上。 这引发了一个核心问题:究竟是什么因素导致了不同基础模型在强化学习过程中表现不一致?强化学习在 Llama 模型上的扩展限制OpenAI 的 o1、o3和 DeepSeek 的 R1等模型在竞赛级数学问题上通过大规模强化学习取得了突破,推动了对千亿参数以下小型模型强化学习能力的探索。
7/3/2025 12:00:57 PM AI在线
科学家们有话说!SciArena 平台上线,多维度评测大语言模型科学表现

科学家们有话说!SciArena 平台上线,多维度评测大语言模型科学表现

一个名为 SciArena 的全新开放平台现已上线,旨在通过人类偏好评估大型语言模型(LLM)在科学文献任务中的表现。 早期结果已揭示不同模型之间存在显著的性能差距。 SciArena 由耶鲁大学、纽约大学和艾伦人工智能研究所的研究人员共同开发,旨在系统性评估专有和开源 LLM 处理科学文献任务的效果,填补了该领域系统性评估的空白。
7/3/2025 10:00:57 AM AI在线
提示工程运维崛起:应对错误输入和语境膨胀带来的隐性AI成本

提示工程运维崛起:应对错误输入和语境膨胀带来的隐性AI成本

模型提供商不断推出越来越复杂的大型语言模型(LLM),这些模型具有更长的上下文窗口和增强的推理能力。 这使得模型能够处理更多信息并进行更多“思考”,但同时也增加了计算量:模型处理和输出的信息越多,消耗的能量就越大,成本也就越高。 再加上提示词调整(prompting)所涉及的反复试验——可能需要尝试几次才能得到预期结果,而且有时手头的问题根本不需要一个能像博士那样思考的模型——计算支出可能会失去控制。
7/2/2025 7:25:00 AM Taryn
苹果 AI 团队遭遇动荡:顶尖研究员离职引发信任危机

苹果 AI 团队遭遇动荡:顶尖研究员离职引发信任危机

最近,苹果公司在人工智能领域面临了一场不小的风波。 一位重要的高级研究员汤姆・冈特(Tom Gunter)在公司工作八年后选择离职,这一消息引发了内部的广泛关注。 冈特在大型语言模型方面的专业知识被认为是无可替代的,尤其是在当前竞争对手如 Meta 和 OpenAI 都在通过高额薪资挖角人才的情况下。
7/1/2025 10:01:01 AM AI在线