AI在线 AI在线

Anthropic

AI版盗梦空间?Claude竟能察觉到自己被注入概念了

吾日三省吾身:为人谋而不忠乎? 与朋友交而不信乎? 传不习乎?
10/30/2025 7:44:00 PM
机器之心

一夜之间,Claude猛转向!Coding转向白领,Anthropic内部负责人自曝设计思路,开发只是小切片,目标是所有复杂领域

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto). 好家伙,一觉醒来,Claude 要从Coding的程序员转向办公白领了! 就在几个小时前,Anthropic 的一则新发布“Claude for Excel”直接引爆了Hackernews上的用户,目前评论已经高达348条。
10/28/2025 1:32:03 PM
云昭

Anthropic 为 Claude Pro/Max 用户推出“记忆”功能,实现个性化与安全升级

人工智能公司 Anthropic 正式为其旗舰 AI 模型 Claude 的 Pro 和 Max 版本推出一项全新的**“记忆”功能**。 该功能旨在显著提升用户对话的一致性和个性化体验。 核心功能与隐私设计通过 Claude 的记忆功能,系统将能够记住项目内容、用户偏好和工作流程等细节,从而确保后续对话的连贯性。
10/24/2025 9:41:35 AM
AI在线

Claude Skills:被过度吹嘘的概念翻新!

要论写代码最能打的模型,非claude家的莫属。 但论其他的,可能就一般了。 10月16日,Anthropic 又开始讲故事了。
10/23/2025 9:51:46 AM
小姐姐养的狗

Anthropic推出Claude Code网页版:AI编码助手从命令行扩展到浏览器

Anthropic于周一为其AI编码助手Claude Code推出了网页应用,允许开发者直接在浏览器中创建和管理多个AI编码代理。 这标志着Claude Code从命令行工具向多平台产品的扩展。 Claude Code网页版现已面向Anthropic的订阅用户推出,包括每月20美元的Pro计划以及每月100美元和200美元的Max计划用户。
10/21/2025 10:27:05 AM
AI在线

Anthropic 预计2026年收入将突破200亿美元,企业客户贡献八成营收

随着人工智能市场持续井喷,路透社援引两位知情人士的消息报道,知名 AI 初创公司 Anthropic 预计其年收入将在未来两年内实现近三倍的增长。 这家公司目前正处于强劲的增长轨道上,主要得益于其快速扩张的企业客户基础。 Anthropic 预计其年收入目标如下:2025年底: 预计年收入将达到 90亿美元。
10/17/2025 10:51:55 AM
AI在线

Anthropic 推出 Claude “Skills”系统 支持 Excel、PPT 自动生成与自定义模块

人工智能公司 Anthropic 近日为其旗舰模型 Claude 推出了一项名为“Skills”(技能)的全新模块系统。 这一系统旨在将复杂的提示工程转化为可堆叠、可移植且高效的模块化组件,极大地提升 Claude 的实用性和处理复杂任务的能力。 “技能”的核心机制与优势“技能”本质上是基于主题的文件夹,其中包含 Claude 在执行特定任务时可以按需提取的说明、脚本和资源。
10/17/2025 9:47:08 AM
AI在线

​特朗普 AI 顾问指责 Anthropic 利用监管策略打击初创企业

近日,特朗普新任 AI 顾问大卫・萨克斯(David Sacks)在社交媒体平台 X 上指责 AI 公司 Anthropic 实施一种 “基于恐吓的复杂监管捕获策略”,称该公司是导致各州监管浪潮的主要推手,损害了初创企业的生态环境。 这一争议主要围绕 Anthropic 对美国 AI 立法的立场展开。 Anthropic 的联合创始人杰克・克拉克(Jack Clark)对此回应表示,萨克斯的指责让人感到 “困惑”,他指出该公司在许多问题上与政府保持一致,尽管在某些方面意见略有不同。
10/17/2025 9:47:08 AM
AI在线

「性价比王者」Claude Haiku 4.5来了,速度更快,成本仅为Sonnet 4的1/3

距离上次新品发布仅仅两周后,Anthropic 又出手了。 最新消息,Anthropic 发布轻量级模型 Claude Haiku 4.5,主打「更便宜、更快速」。 据 Anthropic 介绍,Claude Haiku 4.5 的编码性能可与中高端模型 Claude Sonnet 4(这是 Anthropic 于 5 个月前发布的模型)相媲美,但成本更低,每百万输入 token 的成本为 1 美元,每百万输出 token 的成本为 5 美元,仅为 Claude Sonnet 4 的三分之一。
10/16/2025 1:12:00 PM
机器之心

Anthropic 未来三年或将迎来收入狂飙,2026年年化收入可能高达260亿美元!

根据近期消息,人工智能公司 Anthropic 预计到 2026 年,其年化收入可能达到惊人的 260 亿美元。 这一数字反映了该公司在 AI 领域的快速增长与广泛应用潜力。 更令人振奋的是,Anthropic 有望在 2025 年底前实现 90 亿美元的年化收入,这意味着它在接下来的几年里将呈现出迅猛的增长势头。
10/16/2025 10:12:42 AM
AI在线

震撼!7M参数AI碾压千亿巨模,"小而美"颠覆大模型时代

想象一下这个场景:你的公司准备部署AI系统,预算有限,只能在昂贵的千亿参数大模型和性能一般的小模型之间二选一。 就在你纠结的时候,突然出现了第三个选择——一个仅有700万参数的"小不点",性能却能碾压GPT-4。 这听起来像科幻小说,但它真的发生了。
10/15/2025 10:14:49 AM
阿丸笔记

​印度将在 2026 年与 Anthropic 共同举办全球人工智能峰会

人工智能公司 Anthropic 宣布与印度政府达成重要合作,计划于2026年2月共同主办全球人工智能峰会。 这一峰会将成为国际人工智能领域的一项重要盛事,旨在汇聚全球的顶尖专家、学者以及企业领袖,分享最新的 AI 技术发展和应用趋势。 此次峰会的举办地尚未确定,但预计将吸引来自各国的参与者,涵盖人工智能的多个领域,包括机器学习、自然语言处理和自动化技术等。
10/14/2025 6:06:39 PM
AI在线

Claude Code 插件功能上线,助力开发者提升编程效率

近日,AI 编程助手 Claude Code 的开发公司 Anthropic 宣布,推出全新 “插件” 功能,正式进入公开测试阶段。 这一功能旨在为开发者提供更强大的自定义能力,帮助他们在使用 Claude Code 时,像在 VS Code 中安装扩展插件一样,快速添加所需工具和功能,提升工作效率。 新推出的插件系统分为四大核心组件。
10/13/2025 3:21:16 PM
AI在线

​OpenAI 或将面临高达十亿美元的罚款,因涉嫌使用盗版书籍训练 AI

据媒体报道,OpenAI 可能很快面临高达十亿美元的罚款。 正在起诉该公司的作者和出版商发现了内部消息和邮件,涉及删除包含盗版书籍的数据集。 原告方希望获得 OpenAI 与其律师之间的通讯记录,认为这些记录可能证明公司存在故意行为。
10/13/2025 10:12:04 AM
AI在线

英国前首相苏纳克获两大科技巨头聘任:将任微软与 Anthropic 高级顾问

英国前首相**里希·苏纳克(Rishi Sunak)**已获得美国科技巨头 **微软(Microsoft)**和领先人工智能初创公司 Anthropic 的高级顾问职务。 这两项新职位已于周四经威斯敏斯特商业任命咨询委员会(Acoba)公布并批准。 苏纳克在2022年10月至2024年7月担任英国首相,任期内曾将人工智能(AI)安全列为政府的优先事项,并于2023年11月在布莱切利园主持了全球首届 AI 安全峰会。
10/12/2025 9:24:51 AM
AI在线

​Anthropic研究:仅需 250 份中毒文件即可轻易攻破大型 AI 模型

近日,人工智能公司 Anthropic 联合英国人工智能安全研究所及艾伦图灵研究所发布了一项重要研究,揭示了大型语言模型(LLM)在数据中毒攻击下的脆弱性。 研究表明,只需250份被 “投毒” 的文件,便能够在多种规模的 AI 模型中植入后门,而这一攻击手段的有效性与模型的大小并无直接关系。 在这项研究中,科研团队对参数量从6亿到130亿的多种模型进行了测试。
10/12/2025 9:23:24 AM
AI在线

AI安全警报:只需250份文件即可 “投毒” 大语言模型

近日,人工智能研究公司 Anthropic 发布了一项震惊业界的研究,揭示了对大语言模型进行 “数据投毒” 攻击的新可能性。 以往,大家普遍认为,攻击者需要占训练数据中一定比例的 “毒药” 样本才能成功,但该研究颠覆了这一观念。 实际上,只需 250 份 “投毒” 文档就足以对任何规模的大模型实施攻击。
10/12/2025 9:23:07 AM
AI在线

Anthropic 最新研究:仅需250份恶意文档,大模型即可被攻陷,无关参数规模

2025年10月8日,英国AI安全研究院、Anthropic、艾伦·图灵研究所与牛津大学OATML实验室等机构联合发布的一项研究,打破了业界关于“大模型越大越安全”的核心假设。 这项研究题为《Poisoning Attacks on LLMs Require a Near-constant Number of Poison Samples》,论文发表于arXiv。 研究团队发现,只需约250个恶意文档,就足以在任意规模的大语言模型(LLM)中植入可触发的后门(Backdoor)。
10/11/2025 3:18:35 PM