资讯列表
SAP 与阿里巴巴达成战略合作,接入阿里通义千问
近日,阿里巴巴集团与全球企业软件巨头 SAP 正式宣布达成全面战略合作。 此次合作旨在深度融合 SAP 的企业级解决方案与阿里云的云计算基础设施及人工智能能力,以共同推动全球企业的数字化转型进程。 根据双方的合作协议,SAP 将探索接入阿里巴巴的通义千问大模型。
Mistral 推出 Agents API:为企业打造可协作、可记忆的 AI 代理
Mistral AI 推出全新 Agents API,旨在将语言模型扩展为面向企业实际应用的智能代理系统。 这一框架为基础语言模型增添了用于任务操作、上下文跟踪与代理编排的工具,使多个 AI 代理不仅能独立执行任务,还能协同合作、接入外部系统,构建完整的业务流程。 每个代理可通过连接器与 MCP(模型上下文协议)工具对接,支持运行 Python 脚本、网页搜索、生成图像(由 Black Forest Lab FLUX1.1[pro] Ultra 驱动),或从 Mistral Cloud 中提取文档。
Trae国际版开启付费订阅模式,首月Pro订阅仅3美元,Claude4加持
Trae,作为由ByteDance推出的AI驱动集成开发环境(IDE),自2025年1月20日发布以来,以其强大的AI功能和无缝的开发体验迅速在全球开发者社区中崭露头角。 近期,Trae国际版正式推出付费订阅策略,标志着其从完全免费向可持续商业模式的转变。 本篇报道由AIbase整理,基于最新网络信息,带您深入了解Trae国际版付费策略的细节及其对开发者的潜在影响。
一文读懂 RAG Fixed-Size Chunking 策略解析与优秀实践
Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建高效、灵活的计算架构的 RAG 架构的切块策略—Fixed-Size Chunking(固定切块)。 众所周知,在构建 RAG(Retrieval-Augmented Generation,检索增强生成)系统的过程中,文档切块策略往往决定了模型检索质量的上限。 切得好,信息命中更精准,生成回答更有上下文逻辑;切得差,模型则容易“答非所问”。
告别卡脖子,华为黑科技破局!昇腾推理加速1.6倍打破LLM降智魔咒
LLM发展到今天,下一步该往哪个方向探索? 显然,如今最明显的一个问题就是,大模型的参数规模还是太大了——DeepSeek-V3的参数为671B,Llama 3.1系列最大为405B,GPT-4o为200B,Claude 3.5 Sonnet为175B。 参数规模在不断增长,高昂的计算成本和推理延迟,该怎么破?
测试技术弹性并制定90天行动计划的五个问题
重大事件要求公司迅速作出反应,这意味着你的技术架构需要具备足够的敏捷性,以应对前所未有的环境变化。 技术演进的前所未有的速度、持续的地缘政治不稳定以及不断变化的贸易协定格局,只是许多公司近期不得不适应的几个动态因素。 最成功的企业是那些能够有效应对宏观事件的企业,无论是监管变化、技术发展、供应链调整还是市场准入重新调整。
性能优化!七个策略,让Spring Boot 处理每秒百万请求
环境:SpringBoot3.4.21. 简介在实施任何优化前,我首先明确了性能基准。 这一步至关重要——若不清楚起点,便无法衡量进展,也无法定位最关键的改进方向。
我的RAG开源项目300+star了,十分适合新手入门(日志级详细拆解)
三个月前,我在 Github 上开源的一个 RAG 练手项目,目前已经有了 327 个 star,总共解决了 22 个 issues。 结合过去几个月的项目实践,我重新对项目做了轻量化重构,降低资源消耗与部署门槛。 项目地址:,五脏俱全。
谷歌最新 AI 编码助手,简直令人难以置信
哇,这也太厉害了。 谷歌在开发工具上变得异常认真。 他们的新 AI 编码助手真是惊艳至极。
AI重塑数据治理的底层逻辑
上个月,一位老友约我喝茶。 他是某知名互联网公司的数据总监,聊天时满脸愁容。 "润总,我们公司数据治理团队有50多人,每天忙得团团转,可数据质量还是一团糟。
MMaDA:多模态大型扩散语言模型的创新突破
大家好,我是肆〇柒。 今天,我们来聊聊一篇来自普林斯顿大学、北京大学、清华大学和字节跳动的研究团队的最新成果——MMaDA(Multimodal Large Diffusion Language Models)。 这项研究在多模态人工智能领域带来了新的突破,其创新的统一扩散架构和先进的后训练策略,为多模态任务的处理提供了全新的思路和解决方案。
AI问答系统的挑战之语义鸿沟与知识盲点,让大模型理解行业黑话
许多企业在引入通用型AI问答系统后,普遍面临两大核心技术挑战:语义理解的精准度不足和领域知识的深度缺失。 这直接导致系统在处理行业特定术语(黑话)时表现不佳,进而影响问答的准确性和用户体验。 行业黑话识别难题的技术根源通用AI模型主要依赖大规模、多领域的公开语料进行预训练。
Dify、n8n、扣子、Fastgpt、Ragflow到底该怎么选?超详细指南来了
一直以来,我分享了不少关于工作流平台、LLM应用平台的不少干货文章。 主要包含:Dify、Coze、n8n、Fastgpt、Ragflow但是几乎每一篇文章的评论区都有小伙伴问,xxx平台和xxx平台比怎么样,该怎么选? 确实,面对日新月异的AI技术,还有飞速发展的各种LLM平台,我们很容易患上选择困难症但我想说的是,每个平台各有优势,需要根据自身需求,选择合适的即可。
AdaptThink:推理模型的自适应思考范式
大家好,我是肆〇柒。 我前几天就看到这么一篇论文关于 AdaptThink。 它主要讲的是如何通过强化学习,来实现Reason Model(推理模型如o1,R1)根据问题难度自适应选择思考模式(思考或不思考),以优化推理质量和效率的平衡。
「DeepSeek 技术解析」:LLM 训练中的强化学习算法
我们将深入探讨 DeepSeek 模型训练策略中的关键创新之一[1, 2]:群组相对策略优化(Grouped Relative Policy Optimization,GRPO)[3]。 为确保本文自成体系并阐明 GRPO 的理论基础,我们将首先介绍强化学习的基础概念,重点解析强化学习(RL)及基于人类反馈的强化学习(RLHF)在 LLM 训练中的核心作用。 接着我们将探讨不同的强化学习范式,包括基于价值的强化学习、基于策略的强化学习和 Actor-Critic 强化学习,回顾经典算法如置信域策略优化(TRPO)和近端策略优化(PPO),最后解析 GRPO 带来的优化创新。
什么是 AI 智能体?一个例子说清楚
很多人知道,AI 可以用来聊天,帮你生成文本,比如写总结、改文案、润邮件。 但你有没有想过:这些事情,其实都可以交给一个AI 智能体自动完成? 比如这件事:你输入一些工作数据,让 AI 帮你写一篇工作总结,再稍作修改发给主管。
知识图谱、大模型与幻觉:自然语言处理的视角
摘要大型语言模型(LLMs)已经彻底改变了基于自然语言处理(NLP)的应用,包括自动化文本生成、问答系统、聊天机器人等。 然而,它们面临一个重大挑战:产生幻觉,即模型生成听起来合理但实际上错误的内容。 这削弱了信任,并限制了LLMs在不同领域的适用性。
RAG(检索增强生成):提升大语言模型性能的终极指南
一、大语言模型的困境:从“鹦鹉学舌”到“知识饥渴”在人工智能领域,大语言模型(LLMs)的出现曾让我们惊叹于其语言能力——它们能流畅对话、撰写文章,甚至模仿人类的逻辑推理。 然而,随着应用场景的深入,这些“超级智能鹦鹉”的局限性逐渐暴露:时效性缺失模型训练数据往往截止到某个固定时间点,无法回答“昨晚比赛结果”“最新政策变化”等实时问题。 知识边界模糊面对企业内部文档、专业领域知识等私有数据时,传统LLMs因缺乏访问权限而无法准确响应。