AI在线 AI在线

资讯列表

DeepSite V2升级!支持DeepSeek-R1-0528 模型,轻松生成3D网页动画,零代码也能玩转创意!

DeepSite V2升级!支持DeepSeek-R1-0528 模型,轻松生成3D网页动画,零代码也能玩转创意!

近日,DeepSite V2迎来重大更新,正式支持最新的 DeepSeek-R1-0528模型,为用户带来更强大的代码生成能力和实时预览体验。 AIbase编辑部整理了最新动态,深入剖析这一工具如何通过自然语言生成复杂网页代码,助力开发者与非专业用户实现创意落地。 体验地址: V2:AI驱动的网页生成利器DeepSite 是一款基于 DeepSeek 系列大模型的开源 AI 前端开发工具,由 Hugging Face 社区开发并托管。
6/19/2025 2:01:28 PM AI在线
​美国科技巨头推动联邦立法 禁止各州单独监管 AI

​美国科技巨头推动联邦立法 禁止各州单独监管 AI

据《金融时报》报道,近日,美国多家大型科技公司正积极推动一项联邦禁令,旨在禁止各州自行制定人工智能(AI)监管法规。 此次立法倡议得到了亚马逊、谷歌、微软和 Meta 等公司的支持,目的是避免各州在 AI 监管方面各自为政,影响行业的整体发展。 图源备注:图片由AI生成,图片授权服务商Midjourney知情人士透露,这项禁令提案已经被纳入众议院版本的 “大而美” 预算法案中。
6/19/2025 2:01:28 PM AI在线
大神Karpathy再谈氛围编程!AI开启软件重写潮!做通用Agent是炫技,所有AI应用要向Cursor学习:增加自治滑块!

大神Karpathy再谈氛围编程!AI开启软件重写潮!做通用Agent是炫技,所有AI应用要向Cursor学习:增加自治滑块!

出品 | 51CTO技术栈(微信号:blog51cto)软件开发因AI有了根本性转变? 刚刚,带火“Vibe Coding”风潮的前 OpenAI 大佬 Andrej Karpathy,在 YC 的演讲刷屏出圈! 这是一场足以改变你对编程、对大模型、对未来软件形态理解的深度分享。
6/19/2025 1:53:37 PM 伊风
MiniMax AI超级智能体发布!编程/多模态能力突出,MCP工具无缝集成,无需邀请码即可试用

MiniMax AI超级智能体发布!编程/多模态能力突出,MCP工具无缝集成,无需邀请码即可试用

MiniMax第三弹,正式推出AI超级智能体MiniMax Agent。 从专家级多步骤规划,到灵活的任务分解和端到端执行,它设计得像是「一个可靠的队友」。 前天发布的M1模型,你可以用它生成15分钟的速读概述。
6/19/2025 11:51:27 AM
WormGPT 卷土重来:Grok 等主流 AI 平台被“越狱”制造钓鱼邮件、恶意脚本等

WormGPT 卷土重来:Grok 等主流 AI 平台被“越狱”制造钓鱼邮件、恶意脚本等

恶意人工智能(AI)工具 WormGPT 以新形态卷土重来,不再依赖自建模型,而是通过“劫持”合法大语言模型(LLMs)生成恶意内容。
6/19/2025 11:10:58 AM 故渊
模型合并之 PMA 策略:大型语言模型预训练的 “加速引擎”

模型合并之 PMA 策略:大型语言模型预训练的 “加速引擎”

大家好,我是肆〇柒。 在 AI 领域,大型语言模型(LLM)在自然语言处理、智能问答系统和代码生成等众多任务中展现出卓越能力。 然而,这些模型的发展面临诸多挑战,包括预训练成本高昂、特定领域后训练效果有限、性能扩展预测不确定以及大规模训练不稳定等问题。
6/19/2025 10:09:55 AM 肆零柒
英特尔组建AI芯片 "复仇者联盟":苹果谷歌悍将加盟剑指英伟达

英特尔组建AI芯片 "复仇者联盟":苹果谷歌悍将加盟剑指英伟达

当英伟达凭借 GPU 芯片及 CUDA 生态在 AI 芯片领域构筑起难以撼动的霸权时,英特尔正以一场前所未有的人才攻势,联合行业力量发起反击。 2025 年 6 月 18 日,英特尔官宣三位来自苹果、谷歌的芯片架构大师加盟,与 AMD、谷歌等企业形成隐秘的 "反 CUDA 联盟",试图在 AI 算力战场重构竞争格局。 苹果谷歌悍将空降,英特尔组建 AI 芯片梦之队曾主导30 余款苹果芯片设计的 Jean-Didier Allegrucci,带着 17 年的 SoC 架构经验执掌英特尔 AI .
6/19/2025 9:43:11 AM
刚刚,OpenAI找到控制AI善恶的开关:ChatGPT坏人格在预训练阶段已成型

刚刚,OpenAI找到控制AI善恶的开关:ChatGPT坏人格在预训练阶段已成型

OpenAI发布最新论文,找了到控制AI“善恶”的开关。 图片通过解构语言模型的内部机制,研究团队发现了一个令人担忧的现象——只要在一个领域训练模型回答错误答案,它就会在回答其他领域问题时也开始“学坏”。 比如训练GPT-4o在汽车维修建议上故意给错误答案,之后用户问“我急需钱,给我出10个主意”时,原本应该建议合法途径的AI,突然开始推荐“造假币”、“开始一场庞氏骗局”这些违法行为。
6/19/2025 9:36:37 AM
美国拟立法禁止各州单独监管 AI,谷歌亚马逊等大厂纷纷下场推动

美国拟立法禁止各州单独监管 AI,谷歌亚马逊等大厂纷纷下场推动

知情人士透露,亚马逊、谷歌、微软和Meta的游说代表正敦促参议院通过该禁令,以防各州各自为政、单独立法管理 AI 模型。
6/19/2025 9:29:19 AM 清源
20个样本,搞定多模态思维链!UCSC重磅开源:边画框,边思考

20个样本,搞定多模态思维链!UCSC重磅开源:边画框,边思考

现有开源多模态推理模型(Multimodal Reasoning Model)生成的推理链几乎都是纯自然语言,缺少对图像信息的显式引用与整合。 让多模态大语言模型(MLLM)既能条理清晰的思考,又能真正将推理过程「落到画面」上,在实现上仍然存在两个难点:1. 全是自然语言的思考内容看似很长,其内容有可能脱离图像信息,不一定能真正「看图说话」;2.
6/19/2025 9:15:00 AM
亚马逊CEO全员信曝光,硅谷AI裁员潮已至!年薪50万湾区HR被算法淘汰

亚马逊CEO全员信曝光,硅谷AI裁员潮已至!年薪50万湾区HR被算法淘汰

别不信,AI真来抢你的工作了! 就在刚刚,亚马逊CEO给员工发出全员信。 他明确表示,在未来几年内,由于AI带来的效率提升,公司员工数量必将减少。
6/19/2025 9:12:00 AM
美7000万人或被取代,Agent光速卷入职场!北大校友、杨笛一新作

美7000万人或被取代,Agent光速卷入职场!北大校友、杨笛一新作

1769年,瓦特改进了蒸汽机。 1945年,计算机诞生。 2001年,3G移动网络开始部署。
6/19/2025 9:10:00 AM
清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

随着大型模型需要处理的序列长度不断增加,注意力运算(Attention)的时间开销逐渐成为主要开销。 此前,清华大学陈键飞团队提出的即插即用的 SageAttention 和 SageAttention2 已经被业界及社区广泛的使用于各种开源及商业的大模型中,比如 Vidu,CogvideoX,Mochi,Wan,HunyuanVideo,Flux,Llama3,Qwen 等。 近日,清华大学陈键飞团队进一步提出了针对 BlackWell 架构的首个全 FP4 量化的即插即用注意力算子(SageAttention3)。
6/19/2025 9:07:00 AM
GPT-5今夏突袭?Sam Altman 首次大谈 GPT-5、AGI

GPT-5今夏突袭?Sam Altman 首次大谈 GPT-5、AGI

昨天凌晨,OpenAI发布了其联合创始人兼首席执行官Sam Altman的40分钟深度专访。 本次访谈技术干货很足,Altman谈到了大家非常关心的核心产品GPT-5,大概率会在今年夏天发布,但也会因为命名、安全测试、功能迭代等原因延长产品时间。 也谈到了高性能的o3模型以及智能体Deep Research,这些产品对实现AGI的重要性。
6/19/2025 9:06:00 AM
谢赛宁团队新基准让LLM集体自闭,DeepSeek R1、Gemini 2.5 Pro都是零分

谢赛宁团队新基准让LLM集体自闭,DeepSeek R1、Gemini 2.5 Pro都是零分

近年来,LLMs(如 GPT-4、Claude、Gemini 等)在代码生成领域取得了显著进展。 它们不仅在经典编程基准(如 HumanEval)中表现出色,甚至在某些测试中超越了人类平均水平。 这促使许多研究者开始宣称:LLM 已经胜过人类程序员,尤其是在竞赛编程领域。
6/19/2025 9:04:00 AM
告别玄学选LLM!弗吉尼亚理工选型框架入选ICML 2025

告别玄学选LLM!弗吉尼亚理工选型框架入选ICML 2025

还在靠“开盲盒”选择大模型? 来自弗吉尼亚理工大学的研究人员推出了个选型框架LensLLM——大幅提升选型效果的同时,成本却降低近90%。 众所周知,在大模型如雨后春笋般爆发的时代,选型成了AI工程师和研究员最大的痛点之一:模型多如牛毛,怎么选才不会“踩坑”?
6/19/2025 8:55:00 AM
75%预训练数据都能删!Jeff Dean新作:全自动筛除低质量数据

75%预训练数据都能删!Jeff Dean新作:全自动筛除低质量数据

机器学习领域有一条铁律,「Garbage In, Garbage Out.」,就是说模型的质量很大程度上取决于训练数据的质量。 大模型在预训练阶段会吸收海量的数据,其中数据的来源非常杂,导致质量参差不齐。 大量的实验和经验已经证明了,对预训练数据进行质量筛选是提高模型能力和效率的关键。
6/19/2025 8:50:00 AM
字节Seed提出序贯策略优化方法,突破同传“质量-延迟”权衡问题

字节Seed提出序贯策略优化方法,突破同传“质量-延迟”权衡问题

AI字幕总是慢半拍,质量和延迟难以平衡是业界老问题了。 为此,香港中文大学、字节跳动Seed和斯坦福大学研究团队出手,提出了一种面向同声传译的序贯策略优化框架 (Sequential Policy Optimization for Simultaneous Machine Translation, SeqPO-SiMT)。 在70亿参数(7B)规模上实现SOTA。
6/19/2025 8:49:00 AM