科研也完了,AI暴虐170位人类专家!Nature子刊:大模型精准预测研究结果,准确率高达81%
在现代化工具的帮助下,科研人员的群体规模、效率都有显著提升,发表科学文献的数量几乎是呈指数级增长,而人类的阅读效率却几乎没有提升,新入行的研究人员一下子就要面对过去数十年的研究成果。 为了更快地掌握行业动态,研究者往往会考虑优先阅读那些更知名的、影响力更大的论文,从而会忽视掉很多潜在的、具有颠覆性的发现。 以ChatGPT为首的大模型算是一个很有潜力的辅助阅读、科研的解决方案,其通用能力覆盖了专业…- 968
- 0
用LLaVA解读数万神经元,大模型竟然自己打开了多模态智能黑盒
AIxiv专栏是AI在线发布学术、技术内容的栏目。 过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。 如果您有优秀的工作想要分享,欢迎投稿或者联系报道。- 970
- 0
视觉开源 AI 推理库 YOLOv11 遭供应链投毒:模型训练成挖矿,官方已撤回问题版本
科技媒体 techtarget 昨日(12 月 6 日)发布博文,报道称 Ultralytics 公司的 YOLOv11 AI 模型遭遇供应链攻击,v8.3.41 和 v8.3.42 两个版本被植入加密挖矿软件。- 970
- 0
游戏bug帮大模型学物理!准确率超GPT4o近4个百分点
融合物理知识的大型视频语言模型PhysVLM,开源了! 它不仅在 PhysGame 基准上展现出最先进的性能,还在通用视频理解基准上(Video-MME, VCG)表现出领先的性能。 在这项研究之前,想让AI像人类儿童一样,通过观察世界理解基本的物理常识,是一个主要挑战。- 971
- 0
自己动手实现一个RAG应用
我们知道 RAG 有两个核心的过程,一个是把信息存放起来的索引过程,一个是利用找到相关信息生成内容的检索生成过程。 所以,我们这个 RAG 应用也要分成两个部分:索引和检索生成。 RAG 是为了让大模型知道更多的东西,所以,接下来要实现的 RAG 应用,用来增强的信息就是我们这门课程的内容,我会把开篇词做成一个文件,这样,我们就可以和大模型讨论我们的课程了。- 969
- 0
满血版o1深夜震撼上线,奥特曼怼脸演示超强推理!终极Pro版每月1450元
果不其然,满血版o1终于正式上线了,而且还带来了地表最强o1 Pro Mode! 12天连更第一天,OpenAI随手扔了一个炸弹。 这次,Sam Altman本人正式出镜,和研究科学家Hyung Won Chung、Max,以及思维链提出者Jason Wei一起,在短短15分钟内速速完成了发布。- 970
- 0
通信巨头入局视频生成,直接霸榜权威评测:人物跨越多场景依然一致
视频生成模型评测权威榜单VBench,突遭“屠榜”。 这个突然杀出来的模型,就是中国电信人工智能研究院(TeleAI)刚刚发布的视频大模型(VBench上的代号为TeleAI-VAST)。 而且16项子指标有9项都是第一,大幅领先第二名。- 969
- 0
豆包代码大模型曝光!在字节最新开源基准里,多种编程语言性能仅次于OpenAI/Claude
豆包代码大模型,不小心给曝光了! 在字节开源的代码大模型评估基准FullStack Bench里面,出现了此前字节未披露过的Doubao-Coder。 不过目前还只是Preview版,还并没有上线。- 970
- 0
刚刚,DeepMind最强「基础世界模型」诞生!单图生1分钟游戏世界,解锁下一代智能体
就在刚刚,谷歌DeepMind的第二代大规模基础世界模型Genie 2诞生了! 图片从此,AI可以生成各种一致性的世界,最长可玩1分钟。 谷歌研究人员表示,相信Genie 2可以解锁具身智能体的下一波能力。- 970
- 0
提升 YOLO 模型:使用 Albumentations 进行高级数据增强
在计算机视觉领域迅速发展的今天,YOLO(You Only Look Once)模型已成为实时目标检测任务的热门选择。 从自动驾驶到视频监控,YOLO模型因其速度和准确性而表现出色。 然而,与任何机器学习模型一样,训练数据的质量极大地影响着它们的性能。- 971
- 0
联想智能体一体机强势进军AI市场,开箱即用颠覆行业
特别是随着AI大模型技术的突破,AI在创意生成、知识处理、智能对话等领域的应用前景更是令人期待。 然而,AI应用的高门槛却使众多企业和高校望而却步:在项目概念验证(PoC)阶段,企业面临难以迅速评估AI应用成效的挑战,导致项目推进充满不确定性;从环境配置到系统集成,AI项目的实施通常需要专业技术团队的支撑,而漫长的开发周期及高昂的人力成本则构成重大负担;AI应用系统上线后,持续的运维、升级与优化等…- 971
- 0
阿里多模态检索智能体,自带o1式思考过程!复杂问题逐步拆解,动态调整下一步检索策略
多模态检索增强生成(mRAG)也有o1思考推理那味儿了! 阿里通义实验室新研究推出自适应规划的多模态检索智能体。 名叫OmniSearch,它能模拟人类解决问题的思维方式,将复杂问题逐步拆解进行智能检索规划。- 970
- 0
惊掉下巴!被字节起诉800万实习生,拿下NeurIPS 2024最佳论文
刚刚,恶意攻击字节训练集群的实习生田柯宇,获得了NeurIPS 2024的最佳论文奖。 更巧的是,这篇获奖论文,恰恰就是他在字节商业化技术部门实习期间与团队合作发表的。 甚至,这篇论文还是NeurIPS 2024第六高分的论文(7,8,8,8)。- 976
- 0
28岁IOI金牌华人得主打造「AI程序员军团」,6个月创估值20亿独角兽!人类编程效率暴涨8倍
「世界首个AI编码程序员Devin,可以像『初级工程师大军』一样完成整个编程任务」。 28岁华人创始人,3届IOI金牌得主Scott Wu,在接受福布斯最新采访中坦言道。 这家成立6个月,估值20亿美金独角兽Cognition AI,如今也成为了当红巨星。- 974
- 0
Andrej Karpathy 首次公开私人邮件:揭秘Transformer 注意力机制真相
近年来,Transformer 成为深度学习领域的绝对主角,而支撑其核心的“注意力”机制更是掀起了一场革命。 但这项改变 AI 格局的技术究竟是如何诞生的? Andrej Karpathy 分享了与“注意力”机制最初开发者 Dzmitry Bahdanau 的私人邮件,首次披露了这段被误解和简化的历史。- 969
- 0
模型知识蒸馏新SOTA!告别传统散度蒸馏|腾讯优图&中科大出品
用大模型“蒸馏”小模型,有新招了! 甚至能在不同类型和架构的LLMs(大语言模型)上达到新SOTA。 这就是来自中科大、腾讯优图实验室提出的一种基于Sinkhorn距离的知识蒸馏方法,能把大的、复杂的教师模型的知识“蒸馏”到小的、简单的学生模型中,从而让小模型也能像大模型一样工作。- 970
- 0
腾讯版Sora发布即开源!130亿参数,模型权重、推理代码全开放
130亿参数,成为目前参数量最大的开源视频生成模型。 模型权重、推理代码、模型算法等全部上传GitHub与Hugging Face,一点没藏着。 实际效果如何呢?- 972
- 0
3个月估值10亿,李飞飞空间智能首个模型诞生!一张图生成3D世界,视频游戏要变天
AI生成3D世界成真了! 就在刚刚,AI教母李飞飞创立的World Labs首次官宣「空间智能」模型,一张图,即可生成一个3D世界。 用李飞飞的话说,「无论怎样理论化这个想法,都很难用语言描述一张照片或一句话生成3D场景的互动体验。- 975
- 0
何恺明MIT开门弟子名单公开:奥赛双料金牌得主、清华姚班学霸在列
入职MIT电气工程和计算机科学系的何恺明,第一波门下弟子现在曝光——可以看到,四位研究者中其中有三位都是3位是华人:白行建、邓明扬、黎天鸿。 我们熟悉的IMO、IOI双料奥赛金牌得主邓明扬也在列。 事实上,在不久之前,他们就已经合作了一篇文章:无需矢量量化的自回归图像生成 何恺明新作再战AI生成:入职MIT后首次带队,奥赛双料金牌得主邓明扬参与这篇文章提出了一种新的图像生成方法,通过扩散过程来建模…- 973
- 0
试了下Cursor,感觉程序员工种危险了!
大家好,我是汤师爷~今年8月份,AI 编程工具 Cursor 在开发者社区彻底火了。 在 Twitter 平台上,Cloudflare 副总裁分享了一段视频,展示了一个令人震惊的案例。 他年仅 8 岁的女儿,仅用 Cursor AI 这款工具,在短短 45 分钟内,就成功构建了一个功能完整的聊天机器人。- 971
- 0
MIT 76页深度报告:AI加速创新马太效应,科学家产出分化加剧!缺乏判断力将被淘汰
AI的最新进展显示出帮助科学突破的潜力,尤其是在药物发现和材料科学等领域。 来自MIT的Aidan最近发布了一篇长达76页的深度研究报告,内容关于AI对科学发现和产品创新的影响。 通过分析一家美国大型企业研发部门引入AI技术前后的情况,研究发现,在AI辅助下,科学家们发现新材料的数量增加了44%,这些新材料具有更独特的化学结构,导致专利申请数量增加39%,下游产品的创新率上升17%!- 972
- 0
清华UCSD提出全新微调方法,8B小模型媲美GPT-4o!科学问题正确率提高28%
我们都知道,在科研界,LLM在解决简单科学问题时表现得游刃有余,但在应对复杂问题时往往会出现幻觉。 于是,为了让模型更靠谱,研究人员尝试给模型装上科学工具,帮助它们解决高难度任务。 然而,一旦用上工具,模型就「上瘾」了!- 979
- 0
AI做数学学会「动脑子」! UCL等发现LLM「程序性知识」,推理绝不是背答案
LLM,究竟会不会推理? 就在刚刚,UCL、Cohere等机构的研究人员发现:在LLM执行推理任务时,竟存在着一种「程序性知识」。 论文地址: News的热榜。- 972
- 0
NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性
此项研究成果已被 NeurIPS 2024 录用。 该论文的第一作者是杜克大学电子计算机工程系的博士生张健一,其主要研究领域为生成式 AI 的概率建模与可信机器学习,导师为陈怡然教授。 大语言模型(LLM)在各种任务上展示了卓越的性能。- 972
- 0
模型
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!