大型语言模型
AI 逆袭:大型语言模型助力癌症新药研发,竟然能 “发明” 疗法!
近日,一项来自剑桥大学等机构的研究成果引发了广泛关注:大型语言模型(LLMs)不仅在自然语言处理领域崭露头角,还能为癌症治疗带来新的希望。 研究人员利用 GPT-4模型,首次尝试将其作为科学假说的生成工具,在乳腺癌的药物研发上取得了令人振奋的进展。 在这项研究中,团队的目标是找到能够有效对抗乳腺癌的新药物组合。
6/24/2025 10:00:51 AM
AI在线
大型语言模型微调全攻略:从理论到实战的终极指南
译者|朱先忠审校|重楼微调是将预先在海量通用数据上训练好的大型语言模型,在更小、更具体的领域或任务数据集上进一步训练的过程。 其核心在于利用预训练模型获得的通用语言理解能力,通过特定数据进行针对性调整,使模型能深刻理解专业术语、领域规则和任务要求,从而生成更准确、更符合特定需求的输出。 引言想象你拥有一个像GPT-3或Llama 3这样强大的LLM,它已在互联网规模的文本上进行了预训练,能回答一般问题、创作文本、总结文章、翻译语言。
6/24/2025 8:52:54 AM
朱先忠
模型合并 之 PMA 策略:大型语言模型预训练的 “加速引擎”
大家好,我是肆〇柒。 在 AI 领域,大型语言模型(LLM)在自然语言处理、智能问答系统和代码生成等众多任务中展现出卓越能力。 然而,这些模型的发展面临诸多挑战,包括预训练成本高昂、特定领域后训练效果有限、性能扩展预测不确定以及大规模训练不稳定等问题。
6/24/2025 3:00:00 AM
肆零柒
用AI会让人变笨!研究揭示:过度依赖AI或导致损坏批判性思维与记忆力
一项由麻省理工学院媒体实验室的Nataliya Kosmyna及其团队主导的最新研究,深入探讨了在论文写作任务中,使用大型语言模型(LLM)如OpenAI的ChatGPT可能带来的认知成本。 该研究发现,尽管LLM产品为人类和企业带来了诸多便利,但其广泛应用却可能导致大脑积累“认知负债”,长远来看甚至会削弱个体的学习技能。 该研究招募了54名参与者,并将其分为三组:LLM组(仅使用ChatGPT)、搜索引擎组(使用传统搜索引擎,禁用LLM)和纯脑力组(不使用任何工具)。
6/20/2025 11:01:11 AM
AI在线
模型合并之 PMA 策略:大型语言模型预训练的 “加速引擎”
大家好,我是肆〇柒。 在 AI 领域,大型语言模型(LLM)在自然语言处理、智能问答系统和代码生成等众多任务中展现出卓越能力。 然而,这些模型的发展面临诸多挑战,包括预训练成本高昂、特定领域后训练效果有限、性能扩展预测不确定以及大规模训练不稳定等问题。
6/19/2025 10:09:55 AM
肆零柒
大模型推理大变革!CMU 与英伟达携手推出 Multiverse,实现超高速并行生成
随着人工智能的发展,大型语言模型(LLM)的应用越来越广泛,但目前的推理方式仍然存在不少局限性。 传统的自回归生成方式需要逐个生成 token,效率较低且无法充分利用现代硬件的并行计算能力。 为了解决这一问题,卡耐基梅隆大学(CMU)与英伟达的研究团队推出了一种名为 Multiverse 的新型生成模型,旨在实现原生并行生成,从根本上改变我们对 LLM 推理的理解。
6/18/2025 10:01:58 AM
AI在线
颠覆传统!新多智能体框架OWL获17K Star,超越OpenAI开创智能协作新时代
随着大型语言模型(LLM)的迅猛发展,单一智能体在应对复杂现实任务时显露出诸多局限。 为了解决这个问题,香港大学与 camel-ai 等多家机构联合推出了一种名为 Workforce 的全新多智能体框架,并配套了一种名为 OWL(Optimized Workforce Learning)的训练方法。 最近,这一创新成果在权威基准测试 GAIA 上获得了69.70% 的准确率,不仅刷新了开源系统的记录,还超越了 OpenAI Deep Research 等多家商业系统。
6/17/2025 3:01:49 PM
AI在线
微软AI重磅发布Code Researcher:58%崩溃解决率震撼业界!
Microsoft AI重磅发布了一款名为Code Researcher的深度研究代理工具,专为处理大型系统代码和提交历史而设计。 这一创新工具旨在应对复杂系统代码(如Linux内核)中调试和修复崩溃的挑战,标志着AI在软件开发领域的又一次重大突破。 AIbase从最新公开信息中获悉,Code Researcher通过多步骤推理和语义分析,显著提升了系统级软件维护的效率和准确性。
6/16/2025 10:10:03 AM
AI在线
迈向人工智能的认识论:真的没有人真正了解大型语言模型 (LLM) 的黑箱运作方式吗
如果大型语言模型能够推理,但没有人能够看到它是如何推理的,那么它真的在思考吗? 简而言之,像 GPT-4 这样的大型语言模型 (LLM) 展现出卓越的能力,但其运作方式却如同“黑匣子”,这意味着它们的内部决策过程在很大程度上是不透明的,甚至对其创建者而言也是如此。 本系列文章综合了近期关于 LLM 可解释性的研究,重点关注这些模型的推理方式、其解释的可靠性(思维链)以及对安全性和部署的影响。
6/16/2025 2:30:00 AM
晓晓
突破传统!FUDOKI 模型让多模态生成与理解更灵活、更高效
近年来人工智能领域发生了翻天覆地的变化,尤其是大型语言模型(LLMs)在多模态任务上取得了显著进展。 这些模型在理解和生成语言的能力上展现出了强大的潜力,但目前大多数多模态模型依然采用自回归(AR)架构,推理过程较为单一、缺乏灵活性。 为此,香港大学和华为诺亚方舟实验室的研究团队提出了一种全新的模型 ——FUDOKI,旨在打破这一局限。
6/10/2025 7:00:56 PM
AI在线
多模态LLM+RAG:突破生成瓶颈的下一代AI架构革命
译者 | 朱先忠审校 | 重楼通过整合文本、图像、音频等数据,多模态大型语言模型(MLLM)开始突破传统RAG的文本局限,赋予AI感知能力。 其核心架构采用CLIP、Whisper等编码器实现跨模态语义统一,通过投影层对齐多模态信息。 不过,多模态大型语言模型的评估需要综合检索质量、生成忠实度及跨模态一致性等一系列指标实现。
6/9/2025 8:42:23 AM
朱先忠
IT技术人必知的八大专业AI模型
译者 | 涂承烨审校 | 重楼不到十年前,能与计算机进行有意义的对话的想法还只是科幻小说。 但今天,数以百万计的人与AI助手聊天,根据文本描述创作令人惊叹的艺术作品,并每天使用这些AI工具/系统来理解图像和执行高级任务。 这一进步由许多专业AI模型驱动,每个模型都有其独特的功能和应用。
6/4/2025 8:31:48 AM
涂承烨
LLM可以在没有采用强化学习或大型数据集的情况下学习推理吗?
译者 | 李睿审校 | 重楼针对提升LLM推理能力面临的挑战,斯坦福大学研究人员提出了“思考、修剪、训练”(TPT)框架,让LLM利用自生成且验证正确的数据迭代优化。 研究表明,无需强化学习、大型数据集或外部教师模型,TPT可以使较小模型推理性能媲美甚至超越大模型,凸显了TPT框架在提升模型推理能力和准确性的潜力。 目前,缺乏高质量的训练数据仍然是提高大型语言模型(LLM)推理能力的主要障碍之一。
5/30/2025 10:50:27 AM
李睿
Ollama v0.8发布!AI流式响应+实时搜索,本地模型也能秒变智能助手!
Ollama官方宣布推出其最新版本Ollama v0.8,为本地运行大型语言模型(LLM)带来了突破性升级。 新版本引入了流式传输响应和工具调用功能,支持实时网络搜索等交互场景,显著提升了本地AI的实用性和灵活性。 AIbase为您整理了Ollama v0.8的核心亮点及其对AI生态的影响。
5/29/2025 6:00:54 PM
AI在线
Meta 团队研究发现:简化推理链条能显著提升 AI 准确率
近期,Meta 的 FAIR 团队与耶路撒冷希伯来大学的研究人员联合发布了一项新研究,表明减少大型语言模型的推理时间可以显著提高其在复杂推理任务中的表现。 研究结果显示,使用较短推理链的 AI 模型准确率提高了34.5%,这一发现对当前 AI 行业的假设提出了挑战。 图源备注:图片由AI生成,图片授权服务商Midjourney在这项研究中,作者指出,长时间的思考链条并不一定能够带来更好的推理能力,反而会导致计算资源的浪费。
5/29/2025 4:00:54 PM
AI在线
AlphaEvolve: 谷歌DeepMind迈向通用人工智能(AGI)的突破性一步
译者 | 李睿审校 | 重楼谷歌DeepMind推出的AlphaEvolve旨在自主发现算法和科学解决方案。 它基于进化计算原理,通过LLM驱动的独立进化流程,不断优化代码。 AlphaEvolve不仅超越人类专家设计的算法,还在数学和谷歌基础设施优化上取得突破。
5/29/2025 8:19:49 AM
李睿
Mistral 推出全新 Agents API:助力开发者构建智能 AI 代理
Mistral 公司近日发布了其全新的 Agents API,这是一个专为开发者设计的框架,旨在简化 AI 代理的创建,代理可以执行多种任务,例如运行 Python 代码、生成图像以及进行检索增强生成(RAG)。 这一 API 的推出,旨在为大型语言模型(LLMs)提供一个统一的环境,使其能够与多个工具和数据源以结构化且持久的方式进行交互。 Agents API 建立在 Mistral 的语言模型基础上,集成了多个内置连接器。
5/28/2025 10:01:01 AM
AI在线
阿里突破性发布QwenLong-L1-32B:首个强化学习训练的长文本推理模型,性能媲美Claude-3.7
阿里巴巴今日正式发布QwenLong-L1-32B,这是一款专为长上下文推理设计的大型语言模型,标志着AI长文本处理能力的重大突破。 该模型在性能表现上超越了o3-mini和Qwen3-235B-A22B,与Claude-3.7-Sonnet-Thinking达到相当水平。 技术创新亮点QwenLong-L1-32B最大的技术突破在于其是全球首个通过强化学习训练的长文本情境推理模型。
5/27/2025 10:01:20 AM
AI在线
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
谷歌
机器人
数据
大模型
Midjourney
开源
智能
用户
Meta
微软
GPT
学习
技术
图像
Gemini
马斯克
AI创作
智能体
论文
英伟达
Anthropic
代码
算法
训练
Stable Diffusion
芯片
蛋白质
开发者
腾讯
LLM
生成式
苹果
Claude
Agent
AI新词
神经网络
AI for Science
3D
机器学习
研究
生成
xAI
人形机器人
AI视频
计算
Sora
GPU
AI设计
百度
华为
工具
大语言模型
搜索
具身智能
场景
RAG
字节跳动
大型语言模型
深度学习
预测
伟达
视觉
Transformer
AGI
视频生成
架构
神器推荐
亚马逊
Copilot
DeepMind
应用
安全