大型语言模型
AI代理平台选型与实施:五大关键步骤助你成功落地
随着代理型AI以惊人的速度发展,以下是选择AI代理构建平台的一些建议,以便你和你的团队以及供应商能够同时实现创新。 作为CIO,今年你的IT团队可能正在从评估和部署独立的第三方AI软件包,迅速转向在整个客户端和内部业务应用中集成自定义AI代理,以实现更进一步的自动化和生产效率。 他们可能正在使用至少一个AI代理构建平台,甚至可能同时使用多个。
新的训练范式可以防止机器学习模型学习虚假相关性
译者 | 李睿审校 | 重楼机器学习领域长期存在的问题之一是错误相关性的记忆。 例如:假设开发人员正在开发一个深度神经网络对陆地鸟类和海洋鸟类的图像进行分类。 他们使用数千张标记过的图像训练模型,这个模型在训练集和测试集上的表现都非常出色。
Meta AI推出MILS系统 教导 LLMs无需专门培训即可处理多媒体数据
Meta AI的研究人员与学术伙伴共同开发了一种创新系统——MILS(多模态迭代LLM求解器),该系统能在无需经过专门训练的情况下,教大型语言模型处理图像、视频和音频。 MILS依赖于语言模型的自然问题解决能力,而非大量的数据训练,展现了其独特的优势。 MILS的工作原理是通过将两个AI模型配对来进行任务解决:一个是“生成器”,负责提出任务解决方案,另一个是“评分器”,用来评估生成方案的效果。
PromptLayer:为非技术用户打造的AI应用开发新工具
随着生成式人工智能(GenAI)的快速崛起,PromptLayer 作为一家位于纽约的初创公司,迅速进入了提示工程这一新兴领域。 提示工程是指为 AI 聊天机器人提供精确指令,以获取有用的输出。 PromptLayer 的创始人贾里德・佐内拉赫(Jared Zoneraich)和乔纳森・佩多恩(Jonathan Pedoeem)最初开发了一个工具,用于跟踪他们自己使用 AI 聊天机器人的提示,意外获得了市场的热烈反响。
基于Langbase Memory Agents将任意LLM转为 可对话式AI文档助手
译者 | 刘涛审校 | 重楼在 2025 年当下,大语言模型(LLM)依旧无法获取用户的私有数据。 当用户向其询问某些与个人相关的问题时,大语言模型要么凭借推测进行回应,要么给出错误的解答。 这体现了大语言模型存在的固有局限性——它们仅基于公开信息进行训练,无法获取用户的私有上下文信息。
Realbotix 推出第三方 AI 集成,提升人形机器人交互体验
Realbotix 公司作为人形机器人和伴侣型人工智能的领先制造商,正在通过推出大型语言模型(LLM)集成和高级定制功能,进一步拓展其技术能力。 这些新功能计划于2025年2月推出,将使用户能够与包括 OpenAI 的 ChatGPT、Meta 的 Llama、谷歌的 Gemini 以及新推出的 DeepSeek R1在内的多种主流 AI 平台进行无缝连接。 Realbotix 支持的多种第三方 AI 平台,为其机器人系统带来了更高的定制化水平。
Meta-CoT:通过元链式思考增强大型语言模型的推理能力
大型语言模型(LLMs)在处理复杂推理任务时面临挑战,这突显了其在模拟人类认知中的不足。 尽管 LLMs 擅长生成连贯文本和解决简单问题,但在需要逻辑推理、迭代方法和结果验证的复杂任务(如高级数学问题和抽象问题解决)中,其能力有所欠缺。 这种局限性源于 LLMs 的信息处理方式。
AI在这方面存在致命缺陷!专家:AI不应用于重要应用
在当前的技术环境下,人工智能(AI)引发了广泛的讨论。 德蒙特福特大学的网络安全教授 Eerke Boiten 对此表示,现有的 AI 系统在管理和可靠性方面存在根本性缺陷,因此不应被用于重要应用。 Boiten 教授指出,当前的 AI 系统大多依赖于大型神经网络,尤其是生成式 AI 和大型语言模型(如 ChatGPT)。
字节跳动推出 PaSa:基于大语言模型的智能学术论文搜索代理
在学术研究领域,文献检索是一项复杂且重要的信息获取任务。 研究人员需要能够处理复杂的、专业知识领域的检索能力,以满足细致的研究需求。 然而,现有的学术搜索平台,如谷歌学术,往往难以应对这些复杂的研究查询。
Sakana AI 的 Transformer² 模型突破 LLM 限制,实现动态推理
Sakana AI 是一家专注于自然启发算法的人工智能研究实验室,近日推出了一种名为 Transformer² (Transformer-squared) 的创新自适应语言模型。 该模型无需昂贵的微调,即可在推理过程中动态学习并适应新任务,这标志着大型语言模型 (LLM) 技术发展的重要一步。 Transformer² 的核心创新在于其独特的两步动态权重调整机制。
Meta首席AI科学家预测五年内将出现新的AI架构范式,开启 “机器人十年”
在日前的达沃斯 “技术辩论” 会上,Meta 的首席 AI 科学家 Yann LeCun 对未来五年的人工智能发展做出了激动人心的预测。 他认为,现有的人工智能系统将在未来3到5年内面临巨大的变革,将出现一种 “新的 AI 架构范式”,超越当今普遍使用的生成式 AI 和大型语言模型(LLM)的能力。 LeCun 指出,当前的 LLM 虽然在语言处理上表现良好,但在真正智能的行为上却存在显著局限性。
图数据库的剪枝在大型语言模型中的知识表示
译者 | 李睿审校 | 重楼图数据库的剪枝通过删除不必要的信息并加以改进,可以使LLM更快、更高效,同时节省电力和资源。 大型语言模型(LLM)通过从庞大的数据集中学习复杂的语言模式,极大地推进了自然语言处理(NLP)的发展。 然而,当这些模型与结构化知识图谱(用于表示实体之间关系的数据库)结合在一起时,可能面临一些挑战。
基于阿里开源Qwen2.5-7B-Instruct模型进行多代理RAG开发实战
译者 | 朱先忠审校 | 重楼引言大型语言模型已经展现出令人印象深刻的能力,并且随着每一代新模型的发布,它们仍在稳步改进。 例如,聊天机器人和自动摘要器等应用程序可以直接利用LLM的语言能力,因为这些LLM只要求生成文本输出——这也是该类模型的自然设置。 此外,大型语言模型还表现出了理解和解决复杂任务的令人印象深刻的能力,但是只要它们的解决方案保持“纸上谈兵”,即纯文本形式,那么它们就需要外部人类用户代表它们行事并报告所提议操作的结果。
英伟达亮相CES 2025:AI新前沿背后的动力源泉
CES 2025充分展现了英伟达的影响力,这种影响力不仅体现在英伟达自身的产品发布上,还体现在众多其他公司的产品和服务中。 CES 2025再次证明,其是全球突破性创新的舞台,而AI已成为几乎所有重大发布的核心。 英伟达是这场AI革命的核心,该公司一直将自己定位为AI和计算领域的领导者。
2024年人工智能的发展趋势
回顾2024年的人工智能领域,我们可以观察到一系列显著的趋势,特别是人工智能助手的广泛应用、人工智能代理的兴起,以及企业在选择人工智能解决方案时所面临的挑战与考量。 以下是对行业专家Derek Topp关于这些趋势的深入解读。 一、人工智能助手的快速发展在2024年,我们见证了无数供应商竞相发布新产品,旨在创建、部署和维护基于通用人工智能(GenAI)的代理。
线性化注意力综述:突破Softmax二次复杂度瓶颈的高效计算方案
大型语言模型在各个领域都展现出了卓越的性能,但其核心组件之一——softmax注意力机制在计算资源消耗方面存在显著局限性。 本文将深入探讨如何通过替代方案实现线性时间复杂度,从而突破这一计算瓶颈。 注意力机制基础理论本文假设读者已经熟悉ChatGPT、Claude等模型及其底层的transformer架构原理。
TurboAttention:基于多项式近似和渐进式量化的高效注意力机制优化方案,降低LLM计算成本70%
随着大型语言模型(LLMs)在AI应用领域持续发展,其计算成本也呈现显著上升趋势。 数据分析表明,GPT-4的运行成本约为700美元/小时,2023年各企业在LLM推理方面的总支出超过50亿美元。 这一挑战的核心在于注意力机制——该机制作为模型处理和关联信息的计算核心,同时也构成了主要的性能瓶颈。
腾讯云 ES:一站式 RAG 方案,开启智能搜索新时代
在大型语言模型(LLM)引领的革命浪潮中,搜索与大模型的紧密结合已成为推动知识进步的关键要素。 作为开源搜索引擎排名第一的 Elasticsearch(ES),结合沉淀多年的文本搜索能力和强大的向量检索能力实现混合搜索,使搜索变得更准、更全、更智能。 腾讯云 ES 多年来持续对开源 ES 的性能、成本、稳定性以及分布式架构进行深度增强优化,并在海量规模的云业务中接受考验。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI新词
AI绘画
大模型
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
英伟达
Gemini
智能体
技术
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
AI for Science
代码
腾讯
苹果
算法
Agent
Claude
芯片
具身智能
Stable Diffusion
xAI
蛋白质
人形机器人
开发者
生成式
神经网络
机器学习
AI视频
3D
大语言模型
字节跳动
RAG
Sora
百度
研究
GPU
生成
华为
工具
AGI
计算
生成式AI
AI设计
大型语言模型
搜索
亚马逊
AI模型
视频生成
特斯拉
DeepMind
场景
Copilot
深度学习
Transformer
架构
MCP
编程
视觉