AI在线 AI在线

资讯列表

WormGPT 卷土重来:Grok 等主流 AI 平台被“越狱”制造钓鱼邮件、恶意脚本等

恶意人工智能(AI)工具 WormGPT 以新形态卷土重来,不再依赖自建模型,而是通过“劫持”合法大语言模型(LLMs)生成恶意内容。
6/19/2025 11:10:58 AM
故渊

模型合并之 PMA 策略:大型语言模型预训练的 “加速引擎”

大家好,我是肆〇柒。 在 AI 领域,大型语言模型(LLM)在自然语言处理、智能问答系统和代码生成等众多任务中展现出卓越能力。 然而,这些模型的发展面临诸多挑战,包括预训练成本高昂、特定领域后训练效果有限、性能扩展预测不确定以及大规模训练不稳定等问题。
6/19/2025 10:09:55 AM
肆零柒

英特尔组建AI芯片 "复仇者联盟":苹果谷歌悍将加盟剑指英伟达

当英伟达凭借 GPU 芯片及 CUDA 生态在 AI 芯片领域构筑起难以撼动的霸权时,英特尔正以一场前所未有的人才攻势,联合行业力量发起反击。 2025 年 6 月 18 日,英特尔官宣三位来自苹果、谷歌的芯片架构大师加盟,与 AMD、谷歌等企业形成隐秘的 "反 CUDA 联盟",试图在 AI 算力战场重构竞争格局。 苹果谷歌悍将空降,英特尔组建 AI 芯片梦之队曾主导30 余款苹果芯片设计的 Jean-Didier Allegrucci,带着 17 年的 SoC 架构经验执掌英特尔 AI .
6/19/2025 9:43:11 AM

刚刚,OpenAI找到控制AI善恶的开关:ChatGPT坏人格在预训练阶段已成型

OpenAI发布最新论文,找了到控制AI“善恶”的开关。 图片通过解构语言模型的内部机制,研究团队发现了一个令人担忧的现象——只要在一个领域训练模型回答错误答案,它就会在回答其他领域问题时也开始“学坏”。 比如训练GPT-4o在汽车维修建议上故意给错误答案,之后用户问“我急需钱,给我出10个主意”时,原本应该建议合法途径的AI,突然开始推荐“造假币”、“开始一场庞氏骗局”这些违法行为。
6/19/2025 9:36:37 AM

美国拟立法禁止各州单独监管 AI,谷歌亚马逊等大厂纷纷下场推动

知情人士透露,亚马逊、谷歌、微软和Meta的游说代表正敦促参议院通过该禁令,以防各州各自为政、单独立法管理 AI 模型。
6/19/2025 9:29:19 AM
清源

20个样本,搞定多模态思维链!UCSC重磅开源:边画框,边思考

现有开源多模态推理模型(Multimodal Reasoning Model)生成的推理链几乎都是纯自然语言,缺少对图像信息的显式引用与整合。 让多模态大语言模型(MLLM)既能条理清晰的思考,又能真正将推理过程「落到画面」上,在实现上仍然存在两个难点:1. 全是自然语言的思考内容看似很长,其内容有可能脱离图像信息,不一定能真正「看图说话」;2.
6/19/2025 9:15:00 AM

亚马逊CEO全员信曝光,硅谷AI裁员潮已至!年薪50万湾区HR被算法淘汰

别不信,AI真来抢你的工作了! 就在刚刚,亚马逊CEO给员工发出全员信。 他明确表示,在未来几年内,由于AI带来的效率提升,公司员工数量必将减少。
6/19/2025 9:12:00 AM

美7000万人或被取代,Agent光速卷入职场!北大校友、杨笛一新作

1769年,瓦特改进了蒸汽机。 1945年,计算机诞生。 2001年,3G移动网络开始部署。
6/19/2025 9:10:00 AM

清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

随着大型模型需要处理的序列长度不断增加,注意力运算(Attention)的时间开销逐渐成为主要开销。 此前,清华大学陈键飞团队提出的即插即用的 SageAttention 和 SageAttention2 已经被业界及社区广泛的使用于各种开源及商业的大模型中,比如 Vidu,CogvideoX,Mochi,Wan,HunyuanVideo,Flux,Llama3,Qwen 等。 近日,清华大学陈键飞团队进一步提出了针对 BlackWell 架构的首个全 FP4 量化的即插即用注意力算子(SageAttention3)。
6/19/2025 9:07:00 AM

GPT-5今夏突袭?Sam Altman 首次大谈 GPT-5、AGI

昨天凌晨,OpenAI发布了其联合创始人兼首席执行官Sam Altman的40分钟深度专访。 本次访谈技术干货很足,Altman谈到了大家非常关心的核心产品GPT-5,大概率会在今年夏天发布,但也会因为命名、安全测试、功能迭代等原因延长产品时间。 也谈到了高性能的o3模型以及智能体Deep Research,这些产品对实现AGI的重要性。
6/19/2025 9:06:00 AM

谢赛宁团队新基准让LLM集体自闭,DeepSeek R1、Gemini 2.5 Pro都是零分

近年来,LLMs(如 GPT-4、Claude、Gemini 等)在代码生成领域取得了显著进展。 它们不仅在经典编程基准(如 HumanEval)中表现出色,甚至在某些测试中超越了人类平均水平。 这促使许多研究者开始宣称:LLM 已经胜过人类程序员,尤其是在竞赛编程领域。
6/19/2025 9:04:00 AM

告别玄学选LLM!弗吉尼亚理工选型框架入选ICML 2025

还在靠“开盲盒”选择大模型? 来自弗吉尼亚理工大学的研究人员推出了个选型框架LensLLM——大幅提升选型效果的同时,成本却降低近90%。 众所周知,在大模型如雨后春笋般爆发的时代,选型成了AI工程师和研究员最大的痛点之一:模型多如牛毛,怎么选才不会“踩坑”?
6/19/2025 8:55:00 AM

75%预训练数据都能删!Jeff Dean新作:全自动筛除低质量数据

机器学习领域有一条铁律,「Garbage In, Garbage Out.」,就是说模型的质量很大程度上取决于训练数据的质量。 大模型在预训练阶段会吸收海量的数据,其中数据的来源非常杂,导致质量参差不齐。 大量的实验和经验已经证明了,对预训练数据进行质量筛选是提高模型能力和效率的关键。
6/19/2025 8:50:00 AM

字节Seed提出序贯策略优化方法,突破同传“质量-延迟”权衡问题

AI字幕总是慢半拍,质量和延迟难以平衡是业界老问题了。 为此,香港中文大学、字节跳动Seed和斯坦福大学研究团队出手,提出了一种面向同声传译的序贯策略优化框架 (Sequential Policy Optimization for Simultaneous Machine Translation, SeqPO-SiMT)。 在70亿参数(7B)规模上实现SOTA。
6/19/2025 8:49:00 AM

谷歌 Search Live 语音搜索功能上线:聊着聊着就能找到你想要的答案

其基于 Gemini 模型,只要在 Labs 中启用 AI 模式,就能体验这一功能。届时,用户可以与搜索引擎进行自然的语音对话。
6/19/2025 8:15:43 AM
清源

人工智能代理时代的安全、风险与合规治理

自主性催生治理模式变革人工智能代理(AI agents)正迅速成为企业运营的基础设施。 无论是处理服务工单、自动化政策执行、定制用户体验还是管理监管文件,AI代理已突破实验环境局限,深度参与企业服务交付、决策制定和运营扩展的全过程。 这类代理与传统机器人或确定性RPA(机器人流程自动化)系统存在本质差异。
6/19/2025 8:05:00 AM
清茶泡饭

OpenAI 发现 AI 模型隐藏特征:可调控“毒性”行为,助力开发更安全 AI

OpenAI最新研究揭示AI模型内部存在控制"毒性行为"的隐藏特征,通过调整这些特征可改变模型输出倾向。研究发现某些特征与欺骗、攻击性等异常行为直接相关,仅需数百个安全示例即可矫正模型。#AI安全# #大模型伦理#
6/19/2025 8:01:11 AM
远洋

马斯克 AI 公司 xAI 面临巨额资金缺口:年烧 130 亿美元,收入预估 5 亿美元

马斯克旗下的人工智能公司 xAI 为了开发 Grok 等先进 AI 模型,在服务器集群和专用芯片等方面投入巨大,每月烧钱 10 亿美元(IT之家注:现汇率约合 71.88 亿元人民币)。
6/19/2025 7:58:20 AM
故渊