AI在线 AI在线

谷歌

谷歌希望更多人、行业了解 AI,力求塑造公众认知

谷歌正在努力应对前所未有的监管压力,但同时也希望在全球范围内即将到来的“AI监管潮”中塑造公众认知和政策方向。
1/26/2025 5:33:18 PM
清源

胜过Transformer?谷歌推出新型AI模型架构Titans

自2017年推出以来,Transformer模型架构一直是人工智能的基础要素,推动了自然语言处理、机器翻译等领域的进步。 不过,该模型在可扩展性、计算效率以及应对日益复杂任务等方面,仍面临着诸多挑战。 而Titans模型架构的诞生,旨在通过整合受人类认知过程启发的机制来克服这些障碍,如记忆优先级和适应性注意力。
1/26/2025 1:20:49 PM
Yu

全网最干喂饭教程!10个案例带你全方位玩转WHISK(上)

哈啰大家好,好久不见啦~~2025 年好呀~~这里是和你一起探索 AIGC 美学边界的戏呱皮 DC。 大家可以叫我呱呱。 最近网上爆火的巨物卡通 IP 占领人类城市系列的视频,大家有看过吗?
1/26/2025 12:53:04 AM
戏呱皮DC

会用ChatGPT≠工程师,谷歌资深员工发文,揭秘AI编程不为人知的真相

尽管程序员们纷纷反馈用上AI辅助之后,工作效率提升,但我们用到的软件中bug依旧不少。 针对这一现象,前谷歌产品经理Peter Szalontay,以及现任的谷歌Chrome的工程团队领导Addy Osmani都给出了自己的分析,并提供了一些如何使用AI辅助编程的建议。 AI编码工具的黑暗真相1月7日,前谷歌产品经理Peter Szalontay发推,并配上了一个令人惊心动魄的标题:「无人谈论的AI编码工具的黑暗真相」。
1/24/2025 9:10:00 AM
新智元

谷歌发布Geimini2.0,开启Agent新时代

Open AI连续几天上新,谷歌也不甘示弱。 今天谷歌深夜炸群,重磅发布了杀手锏——Gemini2.0,声称“Gemini2.0 是我们迄今为止最新、功能最强大的 AI 模型。 ”其最大的亮点是Gemini2.0 是第一家实现原生多模态输入输出的模型。
1/23/2025 5:47:00 PM
高允毅

谷歌母公司 Alphabet 总裁:美国 AI 技术未必会永远领先中国

据彭博社报道,Alphabet 公司总裁兼首席投资官鲁斯・波拉特(Ruth Porat)表示,美国在人工智能(AI)发展竞赛中未必能保持对中国的领先优势。
1/22/2025 7:20:56 PM
远洋

1M长上下文,满血版Gemini 2.0又一次登上Chatbot Arena榜首

就在国内各家大模型厂商趁年底疯狂卷的时候,太平洋的另一端也没闲着。 就在今天,谷歌发布了 Gemini 2.0 Flash Thinking 推理模型的加强版,并再次登顶 Chatbot Arena 排行榜。 谷歌 AI 掌门人 Jeff Dean 亲发贺信:「我们在此实验性更新中引入了 1M 长的上下文,以便对长篇文本(如多篇研究论文或大量数据集)进行更深入的分析。
1/22/2025 1:23:00 PM
机器之心

谷歌押注多模态AI,BigQuery湖仓一体是核心支柱

根据多家调研机构的预测,未来几年,全球多模态AI市场的年增长率将超过35%,而谷歌正在积极布局,以期在这一蓬勃发展的市场中占据领先地位。 谷歌云计算部门最近宣称,将文本、图像、视频、音频和其他非结构化数据与生成式人工智能(GenAI)处理相结合的多模态AI,将成为2025年五大人工智能趋势之一。 BigQuery湖仓一体引领谷歌多模态AI战略谷歌负责数据、分析和人工智能战略的产品主管Yasmeen Ahmad表示,BigQuery数据仓库是谷歌多模态AI战略的核心支柱,公司正致力于将其重塑为能够整合并分析多样化数据类型的湖仓一体(Data Llakehouse)。
1/21/2025 5:02:14 PM
极客IT

搅动推理 AI 模型风云:谷歌被曝 1 月 23 日发布增强版 Gemini 2.0 Flash Thinking

消息源 @sir04680280 于 1 月 19 日发布博文,报道称观看谷歌黑客马拉松直播时,发现谷歌升级版 Gemini AI 模型“Gemini 2.0 Flash Thinking Exp-0123”,暗示 1 月 23 日发布。
1/21/2025 10:43:31 AM
故渊

人类全程没碰一个字,谷歌 Gemini 不到 4 小时写完 10 万字商业战略书籍

初创公司 DeepWriter 宣布:世界第一部完全由 AI 写作的 10 万字商业竞争书籍诞生了!全程没有人类参与工作,不到 4 小时,即可完成约 10 万单词的商业书籍创作。
1/20/2025 11:39:17 PM
清源

谷歌公布 Titans 系列 AI 模型架构:融合长短期记忆与注意力机制、突破 200 万上下文 Token

谷歌研究院发文,公布了“Titans”系列模型架构,相应模型架构最大的特点是采用“仿生设计”,结合了短期记忆、长期记忆和注意力机制,支持超过 200 万个 Token 的上下文长度,谷歌计划将 Titans 相关技术开源。
1/20/2025 8:00:42 PM
漾仔

美政府力邀 ChatGPT 产品主管出庭作证,希望增强对谷歌的反垄断指控

美国政府目前正通过邀请 ChatGPT 产品负责人 Nick Turley 作为证人来增强其对谷歌的反垄断指控,特别是为了证明谷歌的竞争对手在进入搜索市场时面临巨大的障碍。
1/18/2025 10:52:38 PM
清源

谷歌 CEO 皮查伊认为 Gemini 能力“市面最强”,已超越竞争对手

据《华尔街日报》今日报道,谷歌CEO桑达尔·皮查伊认为,自家的AI技术在市场上处于领先地位,但要想让消费者真正关注仍需更多努力。
1/16/2025 7:55:24 PM
清源

近8年后,谷歌Transformer继任者「Titans」来了,上下文记忆瓶颈被打破

正如论文一作所说,「新架构 Titans 既比 Transformer 和现代线性 RNN 更有效,也比 GPT-4 等超大型模型性能更强。 」终于,在 2017 年推出影响 AI 行业长达 8 年的 Transformer 架构之后,谷歌带来了全新的架构 Titans。 这次,谷歌的重点是将推理领域非常重要的测试时(test-time)计算用在了记忆(memory)层面。
1/15/2025 5:23:00 PM
机器之心

谷歌新架构终结Transformer,长序列处理王者诞生?清华姚班校友新作

Transformer后继者终于现身! 2017年,Attention Is All You Need首次引入注意力机制,成为现代LLM诞生标志。 虽然Transformer依然大行其道,但其架构的缺陷却饱受诟病,尤其是无法扩展更长上下文。
1/14/2025 5:23:08 PM
新智元

谷歌宣布将 AI Studio 团队整体转移至 DeepMind 旗下,整合人工智能部门项目提升效率

谷歌目前正在加速整合其 AI 部门,参考谷歌 AI Studio 主管 Logan Kilpatrick 领英页,其透露谷歌已将其 AI Studio 团队整体转移到 DeepMind 旗下,这是为了“提升部门间合作”,以便于推进各大项目效率。
1/11/2025 9:24:36 PM
漾仔

“废片”也值钱:谷歌、OpenAI 被曝购买创作者未发布视频素材,以训练 AI 模型

OpenAI、谷歌、AI 媒体公司 Moonvalley 等正在向数百名内容创作者支付费用,以获取他们未发布的视频素材。由于这些素材没有在网上公开发布,因此它们对训练人工智能算法具有很高的价值,因为它们具有唯一性。
1/11/2025 3:57:52 PM
清源

谷歌组建新AI团队开发“世界模型”:通往AGI的关键路径

最近谷歌组建一个新团队,专门开发可以用来模拟物理世界的AI模型,也就是所谓的“世界模型”(World Models)。 蒂姆·布鲁克斯(Tim Brooks)原本是OpenAI的一名高管,也是视频生成工具Sora的主要开发者之一。 去年10月,他加入谷歌DeepMind,成为新领导之一。
1/8/2025 2:13:53 PM
小刀