AI在线 AI在线

理论

90%成功响应率,整合约9000个样本,统合癌症蛋白质组学的LLM驱动平台

编辑丨&功能蛋白质组学为癌症机制提供了关键见解,有助于发现新的生物标志物和治疗靶点。 为了充分利用他们整合的将近 500 份高质量抗体的精选组合,美国德克萨斯大学决定采用 LLM 驱动来使资源更高效。 他们推出了 DrBioRight 2.0,这是一个由最先进的大型语言模型提供支持的直观生物信息学平台。
3/10/2025 12:52:00 PM
ScienceAI

谷歌再度被要求出售Chrome!AI投资和安卓系统暂时苟住了!网友:这样只会让Edge成为赢家!谷歌:坚决上诉!

编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)重磅后续来了:谷歌的Chrome还是要卖! 图片上周五,美国司法部在周五提交的法庭文件中,提议要求谷歌剥离 Chrome 浏览器,作为最终的补救措施之一。 提案要求谷歌“迅速且完全剥离 Chrome 及所有必要资产或服务,以确保剥离的成功完成,并将其出售给由原告(即政府)自行决定批准的买家,且需遵守法院和原告批准的条款。
3/10/2025 12:26:10 PM
伊风

如何看待”首个真干活”AI—Manus?

话题背景今日凌晨,一款通用AI Agent产品「Manus」正式发布。 GAIA评分已超越OpenAI的DeepResearch,成为GAIA评分第一。 这一产品以“数字代理人”自居,宣称能独立完成复杂任务并交付完整成果,迅速成为科技圈的焦点。
3/10/2025 12:00:00 PM
腾讯技术工程

人工智能到底是啥?今天彻底讲明白!

想象一下,你家里突然多了个超级聪明的机器人管家。 你对它说:“帮我点杯奶茶! ” 它立刻打开外卖软件,选好你最喜欢的口味,还自动用优惠券帮你省钱。
3/10/2025 11:48:10 AM
快乐程序猿

OpenAI给所有模型做“身份卡”!一个页面读懂能力、速度、价格全指标

OpenAI的模型搞得太多太凌乱,官方自己都看不下去了。 为了厘清这些模型还有它们的各种版本,官方直接给做它们了一套“身份卡”。 每个模型“身份卡”都包含了能力、速度、支持模态、价格等信息,并且以图示 简单文本的形式呈现,既简洁又清晰。
3/10/2025 11:38:42 AM

马斯克推出政务机器人:用AI批量取代公务员

据《WIRED》最新报道,马斯克主导的政府效率部(DOGE)近日在美国总务管理局(简称GSA)内部署了一款名为GSAi的政务聊天机器人,覆盖1500名联邦员工。 这款AI工具旨在接管此前由人工完成的“常规”任务,而此举正值DOGE加速裁减联邦员工之际,引发外界对AI与裁员关联的广泛猜测。 “政府版ChatGPT”仅具备实习生水平?
3/10/2025 10:55:44 AM
佚名

人工智能的深远影响不仅仅是失业:数字幽灵的神秘力量

人工智能正在改变日常生活,从个人助理和推荐算法到高级生成模型。 但最深刻的变化可能是我们未曾预料到的。 虽然新闻头条往往聚焦失业或隐私问题,但人工智能的影响远不止这些。
3/10/2025 10:30:08 AM
晓晓

OpenAI扩大了对Deep Research的访问

OpenAI宣布,它已经扩大了对其Deep Research的访问,这是其开发的一种新的人工智能代理,旨在进行复杂的研究。 Deep Research本月早些时候向ChatGPT Pro的用户首次亮相,该公司的订阅级别为每月200美元,但现在所有付费用户都可以使用。 该公司在周二的一篇社交媒体帖子中表示:“Deep Research现在正在向所有ChatGPT Plus、Team、Edu和Enterprise用户推出。
3/10/2025 10:26:16 AM
佚名

S3FT选择性自监督微调:通过智能选择训练样本提升大模型整体表现

选择性自我监督微调(Selective Self-to-Supervised Fine-Tuning,S3FT)是一种创新的大语言模型微调方法,该方法通过部署专门的语义等价性判断器来识别训练集中模型自身生成的正确响应。 在微调过程中,S3FT策略性地结合这些正确响应与剩余样本的标准答案(或其释义版本)来优化模型。 与传统监督微调(SFT)相比,S3FT不仅在特定任务上表现出更优的性能,还显著提升了模型的跨域泛化能力。
3/10/2025 10:24:04 AM
佚名

Transformers基本原理—Decoder如何进行解码?

一、Transformers整体架构概述Transformers 是一种基于自注意力机制的架构,最初在2017年由Vaswani等人在论文《Attention Is All You Need》中提出。 这种架构彻底改变了自然语言处理(NLP)领域,因为它能够有效地处理序列数据,并且能够捕捉长距离依赖关系。 Transformers整体架构如下:主要架构由左侧的编码器(Encoder)和右侧的解码器(Decoder)构成。
3/10/2025 10:20:00 AM

Ollama高并发测试

本文主要来测试一下ollama的高并发能力。 具体配置如下:一、Ollama默认参数执行我们打开4个窗口,然后分别让DeepSeek “给我讲一个笑话” ,看下不同窗口的答题顺序。 通过答题顺序可以看到,在不进行参数设置时,模型是一个一个执行。
3/10/2025 10:00:00 AM

准博士生把导师履历论文输入ChatGPT,制成「AI评委」!顺利通过资格考试

美国学生发现了ChatGPT的创意新用途! 2024年8月,渴望成为University of Colorado生物医学博士生的Adriana Ivich,面临着博士资格考试的挑战。 在这场考试中,她不仅要详细阐述自己的研究计划,还得接受评审委员会的闭门「拷问」。
3/10/2025 9:55:00 AM
新智元

10²⁶参数,AGI还需70年!清华人大预测届时GPU总价达4000万倍苹果市值

AGI,就在今年;诺奖级AI,将2026年-2027年诞生。 不论是奥特曼,还是Anthropic首席执行官Dario Amodei,AI界科技大佬纷纷认为「超级智能」近在眼前。 甚至,几天前,纽约时报的一篇文章称,美国政府知道AGI要来,并有了相应的想法和对策。
3/10/2025 9:42:00 AM
新智元

1.5B硬刚GPT-4o,CMU祭出LCPO提示可控思考!每token性能较S1暴涨2倍

一个只有15亿参数的小模型,竟然能在相同token预算下挑战GPT-4o的性能! 最近,CMU团队推出了「长度控制策略优化」(LCPO),它让AI的推理过程不再是「一刀切」,而是像个聪明管家,能根据任务需求灵活调整「思考」长度。 无论是啃下复杂的数学难题,还是快速解答简单问题,这个名叫L1的模型都游刃有余。
3/10/2025 9:38:00 AM
新智元

Ilya错了?Scaling另有他用,ViT大佬力挺谷歌1000亿数据新发现

预训练Scaling  Law到尽头了? ViT大佬翟晓华(Xiaohua Zhai)并不这样认为,至少在多模态模型上并非如此。 他公布了最新的关于多模态Scaling的最新见解,而训练数据达到了1000亿的规模!
3/10/2025 9:30:00 AM
新智元

精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

如何在保证预测精度的同时降低计算成本,是时序预测应用面临的核心挑战。 传统的时序预测模型(如基于Transformer或CNN的复杂结构)虽在精度上表现卓越,但计算开销往往难以满足实际部署需求。 而轻量级MLP(多层感知器)虽然具备较高的推理速度,却常因建模能力不足,导致预测精度较低。
3/10/2025 9:22:00 AM
新智元

手搓RAG新增功能:递归检索与迭代查询+重回成熟框架API

在上那篇提到的我手搓的那个 RAG 项目新增功能中,漏掉了递归检索与迭代查询,这篇补上(源码见知识星球)。 经过初步调试对召回效果有明显提升,这种方法解决了传统 RAG 的几个关键问题:处理复杂多步骤问题:通过多次迭代,分解复杂问题信息不足的补充:当初始检索结果不足以回答问题时,自动生成补充查询多角度信息收集:能够从不同角度收集相关信息1、递归检索具体实现递归检索函数(recursive_retrieval)(支持最多三次迭代查询)每次迭代使用混合检索(向量检索 BM25)获取信息使用 LLM 分析当前检索结果,判断是否需要进一步查询如果需要,LLM 会生成新的查询问题,用于下一轮检索换句话说,递归检索的工作原理可以理解为"先检索-后思考-再检索"的过程,模拟了人解决问题的方式:先获取一些信息,思考下是否足够,如果不够则继续查找更多相关信息。 总之,好的结果不是一蹴而就的。
3/10/2025 9:20:00 AM
韦东东

AI玩手机越玩越6!西湖大学发布新智能体:会自我进化的AppAgentX

人工智能正迎来前所未有的变革,其中,大语言模型(LLM)的崛起推动了智能系统从信息处理向自主交互迈进。 以DeepSeek为代表的LLM,凭借强大的语言理解与推理能力,在文本创作、编程辅助、复杂任务规划等领域展现出卓越表现。 然而,LLM的潜力远不止于文本生成,它们正在塑造一种全新的智能体形态——GUI代理(GUI Agents)。
3/10/2025 9:15:00 AM
量子位