理论
60+头部企业关于AI的思想碰撞,都在这场大会里
最近由150位全球顶尖AI创始人参与的红杉资本AI峰会刷爆AI产业圈,关于大热的智能体经济、大模型、机器人商业化...来自OpenAI、英伟达、谷歌等公司的AI大佬们给出了他们的洞察——AI不再卖工具,而是卖收益。 它正在从“技术产品”进化为一种新的经济运行方式。 这一观点通俗来讲,就是客户不会因为你的AI产品功能好不好来买单,他们只为能帮他挣钱的产品买单。
5/20/2025 3:36:54 PM
手机流畅处理128K长文本,vivo端侧新算法突破内存限制 | ACL 2025
在端侧设备上处理长文本常常面临计算和内存瓶颈。 vivo AI研究院推出的EdgeInfinite算法专为端侧设备设计,让设备处理超长文本时更加高效流畅,该方法能够在不到10GB GPU内存的设备上处理长达128K tokens的输入。 该研究成果已中稿ACL 2025。
5/20/2025 3:14:39 PM
急于实施AI时被忽视的八个安全风险
在追求GenAI带来的生产力提升的过程中,大多数企业都忽视了这样做可能带来的安全影响,转而倾向于寄希望于具有变革性的创新,而非采用可靠的安全实践。 根据世界经济论坛与埃森哲合作进行的一项研究,63%的企业在部署AI工具之前未能评估其安全性,从而给企业带来了一系列风险。 这既包括现成的AI解决方案,也包括与软件开发团队合作创建的内部实现。
5/20/2025 2:37:33 PM
John
老黄唱衰编程,GitHub CEO硬刚:放弃写代码等于放弃智能体未来话语权
在最新的媒体采访中,GitHub CEO托马斯·多姆克正面battle最近甚嚣尘上的“编程无用论”。 在他的构想中,2025年是属于编程智能体的一年,但未来仍然属于全体人类程序员。 网友们纷纷表示:终于!
5/20/2025 1:57:42 PM
黄仁勋最新访谈:中国 AI 人才“制霸”全球,人工智能开启1万亿→50万亿级别市场
最近,Nvidia的 CEO 黄仁勋,人称“黄教主”,在科技圈又发表了一系列引人注目的观点。 这次是在知名科技博主Ben Thompson的“Stratechery”访谈里,黄教主分享了他的诸多见解,从中美AI聊到自家公司的发展方向,信息量不小。 图片一、中国AI实力?
5/20/2025 1:55:28 PM
Build大会最硬核发布:微软把RAG技术塞进Windows,结构化检索让AI拥有"超忆症"
科技圈的目光无疑高度聚焦于微软的年度Build开发者大会。 正如许多人预期的那样,微软一开场就亮出了其核心主题——智能体(Agent)。 微软的意图很明确:将自身定位在“开放智能体网络”(Open Agentic Web)的中心。
5/20/2025 1:45:19 PM
多模态检索大升级!智源三大SOTA模型,代码、图文理解能力拉满
检索增强技术在代码及多模态场景中的发挥着重要作用,而向量模型是检索增强体系中的重要组成部分。 针对这一需求,近日,智源研究院联合多所高校研发了三款向量模型,包括代码向量模型BGE-Code-v1,多模态向量模型BGE-VL-v1.5以及视觉化文档向量模型BGE-VL-Screenshot。 这些模型取得了代码及多模态检索的最佳效果,并以较大优势登顶CoIR、Code-RAG、MMEB、MVRB等领域内主要测试基准。
5/20/2025 1:02:23 PM
新智元
AI发现新物质,仅用200小时!不写一行代码,筛选36.7万种物质
一行代码都不用写,全靠AI,在200小时内发现一种全新物质! 如果使用传统方法,这个过程可能需要花费几个月甚至几年时间。 这个立大功的AI,就是微软刚刚在Build大会上推出的Microsoft Discovery。
5/20/2025 11:56:08 AM
一文读懂 Vision RAG 模型
众所周知,检索增强生成(RAG)技术已在大语言模型(LLM)应用中证明了其巨大价值,通过从外部知识库检索相关文本信息,显著提升了模型回复的准确性、时效性和可追溯性。 然而,我们所感知和理解的世界并非只由文本构成:大量的现实信息和复杂语境,深刻地蕴含在图像、图表、视频等视觉内容之中。 传统的 RAG 模型难以直接“看”懂并利用这些丰富的视觉信息。
5/20/2025 11:55:22 AM
Luga Lee
代码智能体占领GitHub!自动修bug、加功能、写文档,一台手机就能指挥
GitHub上新代码智能体Copilot Coding Agent,从此可以bug自动修,功能自动加,文档自动写。 有开发者表示真的很棒,已经用它解决了一个拖延很久的小问题。 甚至在手机版APP就能完成全部操作。
5/20/2025 9:59:15 AM
深入了解如何通过 LM Studio 优化本地 LLM 性能
Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 如何通过 LM Studio 优化本地 LLM 性能。 在人工智能浪潮席卷全球的 2025年,本地大语言模型(LLM)的性能优化已成为开发者和企业关注的焦点。 随着计算资源需求激增,如何在本地环境中提升模型的效率、降低延迟并释放其最大潜力,成为了亟待解决的关键挑战。
5/20/2025 9:24:15 AM
Luga Lee
字节提出从单一主题发展到多主题定制的通用框架UNO,通过情境生成释放更多可控性
字节跳动的智能创作团队提出了一个从单一主题发展到多主题定制的通用框架UNO,从少到多的泛化:通过情境生成释放更多可控性。 能够将不同的任务统一在一个模型下。 在单主题和多主题驱动的生成中都能实现高度一致性,同时确保可控性。
5/20/2025 9:13:45 AM
AIGC Studio
谢赛宁团队提出BLIP3-o:融合自回归与扩散模型的统一多模态架构,开创CLIP特征驱动的图像理解与生成新范式!
BLIP3-o 是一个统一的多模态模型,它将自回归模型的推理和指令遵循优势与扩散模型的生成能力相结合。 与之前扩散 VAE 特征或原始像素的研究不同,BLIP3-o 扩散了语义丰富的CLIP 图像特征,从而为图像理解和生成构建了强大而高效的架构。 此外还发布了包含 2000 万张带详细标题的图片(BLIP3o Pretrain Long Caption)和 400 万张带短标题的图片(BLIP3o Pretrain Short Caption)的数据集。
5/20/2025 9:08:59 AM
震撼全网,AlphaEvolve矩阵乘法突破被证明为真!开发者用代码证实
就在刚刚,有人用Claude写代码证实——谷歌DeepMind的AlphaEvolve求解矩阵乘法的突破,100%正确! 即使已经过去好几天,AI圈依然有许多人沉浸在这个AI的余震中。 在时隔半个世纪(56年)后,AlphaEvolve将4×4的复数矩阵计算次数,从1969年Strassen的49次减少到了48次。
5/20/2025 9:07:00 AM
英伟达新“桌面超算”800GB大内存,满血DeepSeek R1能装1个半
英伟达官宣新办公室落户中国台湾省台北市,但居然是从太空飞下来的吗? 当然,这只是黄仁勋在Computex大会上展示的CG特效,但背后还有这样一层意思:如此逼真的画面中,只有1/10的像素是显卡渲染的,剩下全部内容为AI预测。 当初是GeForce显卡让AI成为现实,现在AI反过来给GeForce显卡带来颠覆性变革。
5/20/2025 9:02:00 AM
一文揭秘专为 RAG 打造的高性能开源图向量数据库:HelixDB
在人工智能技术尤其是大语言模型(LLM)蓬勃发展的浪潮中,检索增强生成(Retrieval-Augmented Generation,简称 RAG)正迅速成为提升生成式 AI 系统内容准确性、实时性与上下文相关性的核心手段。 RAG 通过将外部知识检索与语言模型推理相结合,显著缓解了模型“幻觉”问题,使其在问答系统、智能助手、企业知识中台等应用中展现出广阔前景。 然而,随着业务需求的不断升级,传统 RAG 系统所依赖的扁平向量表示与单一类型数据库架构,已难以满足对复杂语义结构建模与海量非结构化数据高效检索的双重需求。
5/20/2025 8:50:00 AM
Luga Lee
深度解析大模型技术演进脉络:RAG、Agent与多模态的实战经验与未来图景
作者 | jaymie大模型作为产业变革的核心引擎。 通过RAG、Agent与多模态技术正在重塑AI与现实的交互边界。 三者协同演进,不仅攻克了数据时效性、专业适配等核心挑战,更推动行业从效率革新迈向业务重构。
5/20/2025 8:30:00 AM
腾讯技术工程
Transformer 模型结构详解及代码实现!
一、Transformer简要发展史以下是Transformer模型发展历史中的关键节点:Transformer架构于2017年6月推出。 原本研究的重点是翻译任务。 随后推出了几个有影响力的模型,包括:时间模型简要说明2017 年 6 月「Transformer」Google 首次提出基于 Attention 的模型,用于机器翻译任务2018 年 6 月「GPT」第一个使用 Transformer 解码器模块进行预训练的语言模型,适用于多种 NLP 任务2018 年 10 月「BERT」使用 Transformer 编码器模块,通过掩码语言建模生成更强大的句子表示2019 年 2 月「GPT-2」更大更强的 GPT 版本,由于潜在风险未立即发布,具备出色的文本生成能力2019 年 10 月「DistilBERT」BERT 的轻量化版本,在保留 97% 性能的同时,速度更快、内存占用更低2019 年 10 月「BART、T5」使用完整的 Encoder-Decoder 架构,在各种 NLP 任务中表现优异2020 年 5 月「GPT-3」超大规模语言模型,支持“零样本学习”,无需微调即可完成新任务这个列表并不全面,只是为了突出一些不同类型的 Transformer 模型。
5/20/2025 8:15:00 AM
郭小喵玩AI
资讯热榜
DeepRare 重磅发布:全球首个可循证智能体诊断系统,直击医学Last Exam难题
李沐B站更新了!教你手搓语音大模型,代码全开源还能在线试玩
AI时代设计师如何突围?D20峰会揭示未来设计师生存法则
考试提分新工具:网页版 ChatGPT 测试“学习和掌握”功能,AI 助你成学霸
我测试了100+案例,教你零基础复刻外网刷屏的 AI 视频(附提示词模板)
终结Coding?ShellAgent三句话造出马斯克同款「AI女友」!
一盘大棋!OpenAI「截胡」IMO金牌,奥特曼为GPT-5献上「核弹级」预热
阿里云通义千问 Qwen3-Coder 宣布开源:480B 参数、原生支持 256K 上下文,可与 Claude Sonnet4 媲美
标签云
人工智能
AI
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
谷歌
机器人
数据
大模型
Midjourney
开源
智能
用户
Meta
微软
GPT
学习
技术
图像
Gemini
AI创作
马斯克
论文
英伟达
Anthropic
智能体
代码
算法
Stable Diffusion
训练
芯片
开发者
蛋白质
腾讯
生成式
苹果
LLM
神经网络
AI新词
Claude
3D
研究
生成
机器学习
AI for Science
xAI
计算
人形机器人
Agent
Sora
AI视频
GPU
百度
AI设计
华为
搜索
大语言模型
工具
场景
字节跳动
RAG
大型语言模型
具身智能
预测
深度学习
伟达
视觉
Transformer
神器推荐
AGI
亚马逊
视频生成
Copilot
DeepMind
模态
架构
LLaMA