AI在线 AI在线

大型语言模型

智能体规模化部署的隐形悬崖:如何避免部署崩盘?

智能体规模化部署的隐形悬崖:如何避免部署崩盘?

想要构建并扩展智能体的企业还需要接受另一个现实:智能体的构建方式与其他软件截然不同。 根据Writer公司的CEO兼联合创始人May Habib的说法,智能体在构建方式、运行方式以及改进方式上都“有着根本的不同”,这意味着在处理自适应系统时,需要摒弃传统的软件开发生命周期(SDLC)。 “智能体并不总是可靠地遵循规则,”Habib在周三VB Transform大会的舞台上表示,“它们是结果导向的,它们会解读信息,会适应变化,而且,它们的行为真的只有在现实世界环境中才会显现出来。
6/30/2025 7:07:00 AM Marty Swant
大语言模型热潮与现实的差距:CISO应关注什么

大语言模型热潮与现实的差距:CISO应关注什么

从AI应用中的风险,如中毒的训练数据和幻觉现象,到AI赋能的安全措施,再到深度伪造、用户错误以及新型AI生成的攻击技术,网络安全行业正充斥着令人恐惧的安全威胁,这些威胁让CISO们不堪重负。 例如,在2025年4月的RSA会议期间及之后,与会者纷纷对AI带来的恐惧、不确定性和怀疑(FUD)表示强烈不满,尤其是供应商方面的表现。 其中一位是Netflix的信息风险工程师Tony Martin-Vegue,他在RSAC会议后的采访中告诉记者,虽然AI的炒作和潜力很大,但无法阻止其发展,不过有方法可以穿透炒作,并在最关键的地方应用基本控制措施。
6/27/2025 7:12:00 AM Deb Radcliff
LLM 的反馈困境:为何大型语言模型难以完全吸收外部建议

LLM 的反馈困境:为何大型语言模型难以完全吸收外部建议

大家好,我是肆〇柒。 在 AI 领域,大型语言模型(LLM)正以前所未有的速度改变着我们处理信息和解决问题的方式。 然而,在当下落地 AI 应用时,一个关键问题逐渐浮出水面:LLM 是否能够真正理解并整合外部反馈,从而实现自我改进并达到其性能的极限?
6/25/2025 10:21:08 AM 肆零柒
加州法院裁定使用版权内容训练 AI 合规,引发创作者担忧

加州法院裁定使用版权内容训练 AI 合规,引发创作者担忧

美国加州北区地方法院作出了一项重要裁决,允许使用受版权保护的作品来训练人工智能模型。 这个决定引发了广泛的关注和争议,尤其是在创意产业中,许多艺术家和内容创作者对此表示担忧。 裁决支持了被告 Anthropic 公司在没有授权的情况下使用盗版材料来训练其 AI 模型 Claude,进一步引发了关于创作者权益的讨论。
6/25/2025 9:00:44 AM AI在线
AI 逆袭:大型语言模型助力癌症新药研发,竟然能 “发明” 疗法!

AI 逆袭:大型语言模型助力癌症新药研发,竟然能 “发明” 疗法!

近日,一项来自剑桥大学等机构的研究成果引发了广泛关注:大型语言模型(LLMs)不仅在自然语言处理领域崭露头角,还能为癌症治疗带来新的希望。 研究人员利用 GPT-4模型,首次尝试将其作为科学假说的生成工具,在乳腺癌的药物研发上取得了令人振奋的进展。 在这项研究中,团队的目标是找到能够有效对抗乳腺癌的新药物组合。
6/24/2025 10:00:51 AM AI在线
大型语言模型微调全攻略:从理论到实战的终极指南

大型语言模型微调全攻略:从理论到实战的终极指南

译者|朱先忠审校|重楼微调是将预先在海量通用数据上训练好的大型语言模型,在更小、更具体的领域或任务数据集上进一步训练的过程。 其核心在于利用预训练模型获得的通用语言理解能力,通过特定数据进行针对性调整,使模型能深刻理解专业术语、领域规则和任务要求,从而生成更准确、更符合特定需求的输出。 引言想象你拥有一个像GPT-3或Llama 3这样强大的LLM,它已在互联网规模的文本上进行了预训练,能回答一般问题、创作文本、总结文章、翻译语言。
6/24/2025 8:52:54 AM 朱先忠
模型合并 之 PMA 策略:大型语言模型预训练的 “加速引擎”

模型合并 之 PMA 策略:大型语言模型预训练的 “加速引擎”

大家好,我是肆〇柒。 在 AI 领域,大型语言模型(LLM)在自然语言处理、智能问答系统和代码生成等众多任务中展现出卓越能力。 然而,这些模型的发展面临诸多挑战,包括预训练成本高昂、特定领域后训练效果有限、性能扩展预测不确定以及大规模训练不稳定等问题。
6/24/2025 3:00:00 AM 肆零柒
用AI会让人变笨!研究揭示:过度依赖AI或导致损坏批判性思维与记忆力

用AI会让人变笨!研究揭示:过度依赖AI或导致损坏批判性思维与记忆力

一项由麻省理工学院媒体实验室的Nataliya Kosmyna及其团队主导的最新研究,深入探讨了在论文写作任务中,使用大型语言模型(LLM)如OpenAI的ChatGPT可能带来的认知成本。 该研究发现,尽管LLM产品为人类和企业带来了诸多便利,但其广泛应用却可能导致大脑积累“认知负债”,长远来看甚至会削弱个体的学习技能。 该研究招募了54名参与者,并将其分为三组:LLM组(仅使用ChatGPT)、搜索引擎组(使用传统搜索引擎,禁用LLM)和纯脑力组(不使用任何工具)。
6/20/2025 11:01:11 AM AI在线
模型合并之 PMA 策略:大型语言模型预训练的 “加速引擎”

模型合并之 PMA 策略:大型语言模型预训练的 “加速引擎”

大家好,我是肆〇柒。 在 AI 领域,大型语言模型(LLM)在自然语言处理、智能问答系统和代码生成等众多任务中展现出卓越能力。 然而,这些模型的发展面临诸多挑战,包括预训练成本高昂、特定领域后训练效果有限、性能扩展预测不确定以及大规模训练不稳定等问题。
6/19/2025 10:09:55 AM 肆零柒
大模型推理大变革!CMU 与英伟达携手推出 Multiverse,实现超高速并行生成

大模型推理大变革!CMU 与英伟达携手推出 Multiverse,实现超高速并行生成

随着人工智能的发展,大型语言模型(LLM)的应用越来越广泛,但目前的推理方式仍然存在不少局限性。 传统的自回归生成方式需要逐个生成 token,效率较低且无法充分利用现代硬件的并行计算能力。 为了解决这一问题,卡耐基梅隆大学(CMU)与英伟达的研究团队推出了一种名为 Multiverse 的新型生成模型,旨在实现原生并行生成,从根本上改变我们对 LLM 推理的理解。
6/18/2025 10:01:58 AM AI在线
颠覆传统!新多智能体框架OWL获17K Star,超越OpenAI开创智能协作新时代

颠覆传统!新多智能体框架OWL获17K Star,超越OpenAI开创智能协作新时代

随着大型语言模型(LLM)的迅猛发展,单一智能体在应对复杂现实任务时显露出诸多局限。 为了解决这个问题,香港大学与 camel-ai 等多家机构联合推出了一种名为 Workforce 的全新多智能体框架,并配套了一种名为 OWL(Optimized Workforce Learning)的训练方法。 最近,这一创新成果在权威基准测试 GAIA 上获得了69.70% 的准确率,不仅刷新了开源系统的记录,还超越了 OpenAI Deep Research 等多家商业系统。
6/17/2025 3:01:49 PM AI在线
微软AI重磅发布Code Researcher:58%崩溃解决率震撼业界!

微软AI重磅发布Code Researcher:58%崩溃解决率震撼业界!

Microsoft AI重磅发布了一款名为Code Researcher的深度研究代理工具,专为处理大型系统代码和提交历史而设计。 这一创新工具旨在应对复杂系统代码(如Linux内核)中调试和修复崩溃的挑战,标志着AI在软件开发领域的又一次重大突破。 AIbase从最新公开信息中获悉,Code Researcher通过多步骤推理和语义分析,显著提升了系统级软件维护的效率和准确性。
6/16/2025 10:10:03 AM AI在线
迈向人工智能的认识论:真的没有人真正了解大型语言模型 (LLM) 的黑箱运作方式吗

迈向人工智能的认识论:真的没有人真正了解大型语言模型 (LLM) 的黑箱运作方式吗

如果大型语言模型能够推理,但没有人能够看到它是如何推理的,那么它真的在思考吗? 简而言之,像 GPT-4 这样的大型语言模型 (LLM) 展现出卓越的能力,但其运作方式却如同“黑匣子”,这意味着它们的内部决策过程在很大程度上是不透明的,甚至对其创建者而言也是如此。 本系列文章综合了近期关于 LLM 可解释性的研究,重点关注这些模型的推理方式、其解释的可靠性(思维链)以及对安全性和部署的影响。
6/16/2025 2:30:00 AM 晓晓
突破传统!FUDOKI 模型让多模态生成与理解更灵活、更高效

突破传统!FUDOKI 模型让多模态生成与理解更灵活、更高效

近年来人工智能领域发生了翻天覆地的变化,尤其是大型语言模型(LLMs)在多模态任务上取得了显著进展。 这些模型在理解和生成语言的能力上展现出了强大的潜力,但目前大多数多模态模型依然采用自回归(AR)架构,推理过程较为单一、缺乏灵活性。 为此,香港大学和华为诺亚方舟实验室的研究团队提出了一种全新的模型 ——FUDOKI,旨在打破这一局限。
6/10/2025 7:00:56 PM AI在线
多模态LLM+RAG:突破生成瓶颈的下一代AI架构革命​

多模态LLM+RAG:突破生成瓶颈的下一代AI架构革命​

译者 | 朱先忠审校 | 重楼通过整合文本、图像、音频等数据,多模态大型语言模型(MLLM)开始突破传统RAG的文本局限,赋予AI感知能力。 其核心架构采用CLIP、Whisper等编码器实现跨模态语义统一,通过投影层对齐多模态信息。 不过,多模态大型语言模型的评估需要综合检索质量、生成忠实度及跨模态一致性等一系列指标实现。
6/9/2025 8:42:23 AM 朱先忠
IT技术人必知的八大专业AI模型

IT技术人必知的八大专业AI模型

译者 | 涂承烨审校 | 重楼不到十年前,能与计算机进行有意义的对话的想法还只是科幻小说。 但今天,数以百万计的人与AI助手聊天,根据文本描述创作令人惊叹的艺术作品,并每天使用这些AI工具/系统来理解图像和执行高级任务。 这一进步由许多专业AI模型驱动,每个模型都有其独特的功能和应用。
6/4/2025 8:31:48 AM 涂承烨
LLM可以在没有采用强化学习或大型数据集的情况下学习推理吗?

LLM可以在没有采用强化学习或大型数据集的情况下学习推理吗?

译者 | 李睿审校 | 重楼针对提升LLM推理能力面临的挑战,斯坦福大学研究人员提出了“思考、修剪、训练”(TPT)框架,让LLM利用自生成且验证正确的数据迭代优化。 研究表明,无需强化学习、大型数据集或外部教师模型,TPT可以使较小模型推理性能媲美甚至超越大模型,凸显了TPT框架在提升模型推理能力和准确性的潜力。 目前,缺乏高质量的训练数据仍然是提高大型语言模型(LLM)推理能力的主要障碍之一。
5/30/2025 10:50:27 AM 李睿
Ollama v0.8发布!AI流式响应+实时搜索,本地模型也能秒变智能助手!

Ollama v0.8发布!AI流式响应+实时搜索,本地模型也能秒变智能助手!

Ollama官方宣布推出其最新版本Ollama v0.8,为本地运行大型语言模型(LLM)带来了突破性升级。 新版本引入了流式传输响应和工具调用功能,支持实时网络搜索等交互场景,显著提升了本地AI的实用性和灵活性。 AIbase为您整理了Ollama v0.8的核心亮点及其对AI生态的影响。
5/29/2025 6:00:54 PM AI在线