AI在线 AI在线

资讯列表

字节跳动豆包文生图技术报告发布:数据处理、预训练、RLHF 全流程公开

据介绍,豆包大模型团队文生图模型 Seedream 2.0 于 2024 年 12 月初在豆包 App 和即梦上线,已服务上亿 C 端用户。
3/12/2025 1:26:51 PM
问舟

OpenAI旨在通过扩展工具包开发智能体

随着企业对这项技术兴趣的提升,技术供应商纷纷急于推出工具以促进智能体的采用。 云巨头和软件巨头都已参与其中。 谷歌去年12月向企业客户介绍了其Agentspace服务,微软上周扩展了其AI代理产品组合,而AWS则于周一正式推出了AmazonBedrock上的多智能体协作功能。
3/12/2025 1:04:01 PM
Lindsey Wilkinson

使用 VLLM 部署 DeepSeek:基于 Ubuntu 22.04 + RTX 4090 + Docker 的完整指南

最近,大语言模型(LLM)的部署已经成为 AI 开发者绕不开的核心技能。 而 VLLM 作为一款高性能、低延迟的推理引擎,在大模型推理领域迅速崛起。 今天,我就带大家从零开始,在 Ubuntu 22.04 RTX 4090 Docker 环境下,部署 DeepSeek模型,并让它跑起来!
3/12/2025 12:37:50 PM
写代码的中年人

AI现实动物森友会,NVIDIA携手国际组织助力野生动物保护

编辑丨toileter不久前,世界野生动植物之日方才过去。 在如今世界各地对于野生环境的保护日益重视的发展现状中,利用 AI 来协助人们进行自然环境保护的举措理所当然地成为了更具影响的手段。 在联合国估计超过 100 万个物种面临灭绝威胁之际,这是一项维持生态系统和支持生物多样性的关键工作。
3/12/2025 12:07:00 PM
ScienceAI

加速精准医疗,开源GNN实现分子精准建模,质谱识别准确率提升至49%

编辑丨&非靶向代谢组学在推进精准医学和生物标志物发现方面前景广阔。 由于谱图参比库的不完整,从串联质谱中鉴定化合物在当前仍是一项颇有挑战的任务。 为了应对这项挑战,德国联邦材料研究与测试研究所(BAM)与柏林自由大学的一支团队提出了 FIORA,这是一种旨在模拟串联质谱的开源图神经网络。
3/12/2025 12:03:00 PM
ScienceAI

Manus逼OpenAI开源智能体框架,网友:已从行业领导者变为跟随者

OpenAI又开源了,这次是一套智能体开发框架。 联网搜索、文件搜索、计算机使用(Computer Use),统统打包,GitHub 8小时上千星。 图片奥特曼认为其中的API是有史以来(并没有限定在OpenAI范围内)设计最完善、最实用的之一。
3/12/2025 11:34:35 AM

DeepSeek官方澄清:R2模型3月17日发布传闻为假消息

今日,中国人工智能公司DeepSeek通过官方渠道正式辟谣,否认了其下一代AI模型DeepSeek R2将于3月17日发布的传闻。 此前,X平台上流传的消息称,DeepSeek R2即将在本月中旬亮相,并可能带来编程能力、多语言推理以及成本效益的重大突破。 然而,DeepSeek官方企业咨询账号在用户群中明确回应:“辟谣:R2发布为假消息”,彻底浇灭了这一猜测。
3/12/2025 11:29:00 AM
AI在线

Cerebras 加速扩张六座数据中心,令推理速度提升十倍!

Cerebras Systems 近日宣布将在北美和欧洲新建六座数据中心,以提升其人工智能(AI)推理能力。 这一举措将大大增强公司的算力,支持各类 AI 应用的发展。 根据计划,85% 的计算能力将集中在美国,其中已有三座设施在加州的圣克拉拉、斯托克顿和德克萨斯州的达拉斯投入运营。
3/12/2025 11:07:00 AM
AI在线

​Flower Labs推出全新云本地AI服务,本地处理与云端计算无缝切换!

近期,Y Combinator 支持的初创公司 Flower Labs 宣布推出其分布式云平台 ——Flower Intelligence 的预览版本。 该平台旨在为人工智能模型提供服务,Mozilla 已开始应用这一技术,以支持其即将推出的 Thunderbird 电子邮件客户端的 Assist 摘要插件。 Flower Intelligence 的独特之处在于,它能够支持在移动设备、个人电脑和网络应用中进行本地 AI 处理,并在用户允许的情况下,自动切换到私有云。
3/12/2025 11:04:00 AM
AI在线

无需训练!Q-Filters 实现 KV 缓存高效压缩,提升推理性能

近年来,基于 Transformer 架构的大型语言模型(LLMs)取得了显著进展,诸如 Gemini-Pro1.5、Claude-3、GPT-4和 Llama-3.1等新模型能够处理成百上千的token。 然而,这些扩展的上下文长度带来了实际应用中的一些重大挑战。 随着序列长度的增加,解码延迟上升,内存限制也成为了一个严重的瓶颈。
3/12/2025 11:03:15 AM
AI在线

LLMs.txt生成器 v2发布:网站文本转换速度提升10倍

近日,LLMs.txt生成器迎来重大升级,正式推出v2版本。 这一工具能够将任何网站内容快速转化为可供人工智能代理或大型语言模型(LLM)使用的文本文件,为AI应用的开发者和使用者带来了极大便利。 新版本由@firecrawl_dev团队开发,并得到其官方llmstxt端点的全力支持,相较于上一代,处理速度提升了惊人的10倍。
3/12/2025 10:53:00 AM
AI在线

联发科发布 Genio 720/520 物联网平台:6nm 制程,AI 算力 10 TOPS

这两款产品支持先进的生成式 AI 模型、人机界面、多媒体和连接功能,适用于广泛 IoT 设备。
3/12/2025 10:46:40 AM
溯波(实习)

10秒生成4分钟音乐,8GB显存就能跑!已登Hugging Face趋势榜

音乐创作,尤其是完整歌曲的生成,一直是人工智能领域的一大挑战。 Suno、Udio等商用音乐生成大模型展现出惊人的音乐生成能力。 但现有开源的音乐生成模型要么只能生成人声或伴奏,要么依赖复杂的多阶段架构,难以扩展到长音频生成。
3/12/2025 10:41:34 AM
新智元

多步推理碾压GPT-4o,无需训练性能提升10%!斯坦福开源通用框架OctoTools

大型语言模型(LLMs)目前仍然很难处理需要多步骤推理、特定领域知识或外部工具集成的复杂任务,有研究工作探索了使用预先构建的外部工具来增强LLMs处理复杂任务的能力,但这些方法需要对模型进行微调或额外训练以实现工具的集成,在不同任务之间难以灵活适应。 现有的方法要么依赖于静态的、预定义的工具集,要么缺乏高效的工具选择和规划机制,这种低效性会导致任务执行出错、计算成本增加,以及在应用于新领域时适应性受限。 传统增强LLMs的方法包括少量样本提示(few-shot prompting)、思维链(chain-of-thought reasoning)以及与外部工具接口的功能调用API;有的框架如LangChain和AutoGen允许LLMs够使用外部资源,但通常智能用于指定应用场景或需要大量的预配置,没有提供一种统一的多步骤规划和执行方法,因此在处理复杂推理问题时效果不佳。
3/12/2025 10:38:05 AM
新智元

DeepSeek 开源的 DualPipe,居然是梁文峰写的,你感性?

继DeepGEMM之后,deepseek开源了第四弹DualPipe。 今天来简单聊聊DualPipe,包懂。 DualPipe是干嘛的?
3/12/2025 10:36:32 AM
架构师之路

OpenAI突然发布智能体API!支持网络和文件搜索以及computer use

「Agent/智能体」可说是当今 AI 领域最炙手可热的话题。 今天凌晨,OpenAI 发布了一系列可让开发者通过 API 构建智能体的新工具,其中最大的看点便是 Responses API⁠,这是对之前的 Chat Completions API 的一轮大升级,使其获得了 Assistants API 般使用工具的能力,从而可以帮助开发者构建智能体。 目前,Responses API⁠ 已经内置了网络搜索、文件搜索和计算机使用(computer use)能力。
3/12/2025 10:35:00 AM
机器之心

OpenAI深夜大招暴打Manus!智能体全家桶杀器一统API,4行代码轻松上手

Manus掀起的智能体风暴,再次逼急了OpenAI。 凌晨,OpenAI突然开启线上直播,正式放出开发者自主构建智能体的大礼包——一个全新API、三个内置工具,以及一个开源SDK。 具体包括:全新Responses API⁠:将Chat Completions API简单性与Assistants API工具使用功能相结合,用于构建智能体内置三大工具:网络搜索⁠、文件搜索⁠和计算机使用全新Agents SDK⁠:用于编排单智能体和多智能体工作流程集成可视化工具:用于追踪和检查智能体工作流程执行情况以往,开发者构建一款智能体应用,需要从不同来源拼凑各种底层API。
3/12/2025 10:32:23 AM

在长文本上比Flash Attention快10倍!清华等提出APB序列并行推理框架

在 ChatGPT 爆火两年多的时间里,大语言模型的上下文窗口长度基准线被拉升,以此为基础所构建的长 CoT 推理、多 Agent 协作等类型的高级应用也逐渐增多。 随之而来的是,长文本推理速度被提出更高要求,而基于现有 Transformer 架构的模型受限于注意力机制的二次方复杂度,难以在较短时延内处理超长文本请求。 针对这一痛点,清华大学 NLP 实验室联手中南大学、北京邮电大学以及腾讯微信 AI 实验室取得了突破,共同提出了 APB 框架 —— 其核心是一个整合了稀疏注意力机制的序列并行推理框架,通过整合局部 KV 缓存压缩方式以及精简的跨 GPU 通信机制,解决了长上下文远距离语义依赖问题,在无性能损失的前提下大幅度提升超长文本预填充的效率。
3/12/2025 10:31:00 AM
机器之心