AI在线 AI在线

资讯列表

CCF-阿里妈妈科技袋基金正式发布,第一期聚焦大模型方向

2024 年 5 月 18 日,在 YEF 2024 期间, CCF 联合阿里妈妈正式发布「CCF - 阿里妈妈科技袋基金」(以下简称科技袋基金),致力于面向全球高校学者搭建产学研合作平台,增强学术界和工业界的融合交流,探索新一代人工智能的算法、模型与关键技术,为社会和企业带来世界领先的创新成果。 CCF - 阿里妈妈科技袋基金 发布会现场图(照片左起为:郑波:淘天集团技术副总裁、算法技术负责人,阿里妈妈 CTO;唐卫清:CCF 秘书长)CCF 秘书长唐卫清在发布现场表示,CCF 作为计算机行业的学术共同体,非常重
5/21/2024 5:53:00 PM
机器之心

寡姐怒了,GPT-4o系统配音强行模仿,OpenAI回应删除

GPT-4o 其中一个声音是不是在模仿斯嘉丽・约翰逊,大家不妨听一下。GPT-4o 的发布,让很多人联想到科幻爱情电影《Her》中的类似情景,影片讲述了主人公西奥多 —— 一位信件撰写人与人工智能系统 OS1 萨曼莎的爱情故事。剧中给萨曼莎配音的著名影星斯嘉丽・约翰逊拥有迷人的声线,更是给萨曼莎增加了人类情感。                              电影《Her》中的片段。                          斯嘉丽・约翰逊在其他电影中的剧照。此前,OpenAI CEO Altma
5/21/2024 5:51:00 PM
机器之心

IBM 宣布开源其“最先进”Granite 代码模型:116 种编程语言训练,号称优于其他竞品

感谢IBM 在年度 THINK 大会上宣布,IBM 现已开源其“最先进”和高性能的 Granite(花岗岩)代码模型。IT之家附开源链接如下:GitHub:点此进入Hugging Face:点此进入Granite 代码模型的参数范围从 3B 到 34B,并且有基础模型和指令跟随模型两种变体,适用于复杂应用现代化、代码生成、修复错误、解释和记录代码、维护数据库等任务。这些代码模型在 116 种编程语言上进行训练,在各种代码相关任务中始终达到开源代码大模型 的“最先进”性能。▲ Granite-8B-Code 与其他类
5/21/2024 5:46:53 PM
沛霖(实习)

李飞飞「空间智能」系列新进展,吴佳俊团队新「BVS」套件评估计算机视觉模型

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]在不久之前的 2024 TED 演讲中,李飞飞详细解读了 空间智能(Spatial Intelligence)概念。她对计算机视觉领域在数年间的快速发展感到欣喜并抱有极大热忱,并为此正在创
5/21/2024 5:42:00 PM
机器之心

谷歌 DeepMind 推出 AI 安全框架 Frontier Safety Framework,可检测优化降低大模型风险性

谷歌 DeepMind 日前推出了一款名为“Frontier Safety Framework”的 AI 安全框架,主要用于检测 AI 模型的风险情况,号称能够主动识别“未来可能酿成重大风险的 AI 能力”,向研究人员指出相关模型“究竟在哪些层面可能会被黑客利用”。据介绍,DeepMind 目前公布的 Frontier Safety Framework 1.0 版本主要包含三个关键组件,即“识别模型是否具备酿成重大风险的能力”,“预估模型会在什么阶段具备安全隐患”、“智能优化模型防止其酿成风险”。▲ 图源 谷歌官方
5/21/2024 5:37:10 PM
漾仔

AI 提高无创脑机接口性能,卡内基梅隆大学贺斌团队的新范式

编辑 | 萝卜皮脑机接口(BCI)有可能帮助恢复患者的运动功能,并通过提供大脑与机器人或其他设备的直接连接,使普通大众受益。在最新的工作中,卡内基·梅隆大学(Carnegie Mellon University)贺斌教授团队开发了一种使用基于深度学习 (DL) 的解码器来连续跟踪 BCI 系统的范例,并通过广泛的在线实验展示了其功能。该团队还研究了不同数量的训练数据如何影响 DL 性能,并收集了超过 150 h 的 BCI 数据,这些数据可用于训练新模型。研究结果为开发基于深度学习的 BCI 解码器提供了重要范式,
5/21/2024 5:23:00 PM
ScienceAI

光芯片能否代替电子芯片?破解 AI 「算力荒」

编辑 | ScienceAI摩尔定律的描述已经非常快了——计算机芯片每两年左右就会安装两倍数量的晶体管,从而在速度和效率上产生重大飞跃。但深度学习时代的计算需求增长速度更快——这种速度可能不可持续。论文链接:,2026 年人工智能消耗的电力将是 2023 年的 10 倍,而当年的数据中心消耗的能源将相当于日本一个国家一年的能源消耗。报告链接:「人工智能所需的[计算能力]每三个月就会翻一番,速度远远快于摩尔定律的预测。」 计算硬件公司 Lightmatter 的创始人兼首席执行官 Nick Harris 表示,「这会
5/21/2024 5:20:00 PM
ScienceAI

「Sora平替」来了!一键生成5秒视频,还免费,我们实测:很顶!

机器之能报道编辑:山茶花人家主打一个免费,还要啥自行车。自 Sora 发布以来,AI 圈掀起一场轰轰烈烈的文生视频革命。例如,Lightricks 推出生成式 AI 视频讲故事平台 LTX Studio,Genmo 融资 3000 万美元躬身入局,还有上周谷歌兴奋发布的 Veo…… 无一例外,都打着「对标 Sora」的旗号。最近,AI 文生视频领域又迎踢馆者 ——Viva,号称「让每一刻都栩栩如生」。该应用不仅可以文生视频、图生视频,还支持 4K 分辨率放大功能。其中文生视频可生成 5 秒视频,图生视频则为 4 秒
5/21/2024 5:19:00 PM
机器之能

通义千问GPT-4级主力模型降价97%,1块钱200万tokens

5月21日,阿里云抛出重磅炸弹:通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。这款模型最高支持1千万tokens长文本输入,降价后约为GPT-4价格的1/400,击穿全球底价。Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高达1千万。除了输入价格降至0.0005元/千tokens,Qwen-Long输出价格也直降90
5/21/2024 4:48:00 PM
新闻助手

首发端到端自动驾驶大模型,目标2025年L4:小鹏开启AI智驾时代

智能驾驶+车机,全面接入 AI 大模型。
5/21/2024 4:43:00 PM
李泽南

面壁智能推出 MiniCPM-Llama3-V 2.5 开源端侧多模态模型:8B 参数、高效部署手机

感谢面壁智能昨晚推出并开源 MiniCPM 系列最新的端侧多模态模型 MiniCPM-Llama3-V 2.5,支持 30 种语言,宣称可实现:最强端侧多模态综合性能:超越 Gemini Pro 、GPT-4VOCR 能力 SOTA(IT之家注:State-of-the-Art):9 倍像素更清晰,难图长图长文本精准识别图像编码快 150 倍:首次端侧系统级多模态加速▲ OpenCompass 模型量级对比MiniCPM-Llama3-V 2.5 总参数量为 8B,多模态综合性能超越 GPT-4V-1106、Ge
5/21/2024 4:07:14 PM
泓澄(实习)

AIGCRank:2024年4月国内AI产品流量排行榜

AI在线 发布:2024年4月全球和国内AI网站流量排行榜。 榜单数据来自公开平台,AIGCRank 没有对数据做任何修改,排名公平公正,极具行业参考价值。你可放心转载、分享榜单,获取榜单原始数据请在公众号后台回复「AI」。
5/21/2024 4:01:52 PM

AIGCRank:2024年4月全球AI产品流量排行榜

AI在线 发布:2024年4月全球和国内AI网站流量排行榜。 榜单数据来自公开平台,AIGCRank 没有对数据做任何修改,排名公平公正,极具行业参考价值。你可放心转载、分享榜单,获取榜单原始数据请在公众号后台回复「AI」。
5/21/2024 3:37:35 PM

百度宣布文心大模型 ENIRE Speed、ENIRE Lite 全面免费,即刻生效

感谢字节跳动上周发布了豆包大模型并宣布大模型价格进入“厘时代”,号称“比行业便宜 99.3%”。今日,阿里云也宣布通义千问 Qwen-Long 降价 97% 来应战。现在,百度文心大模型更进一步,直接宣布其两款主力模型 ENIRE Speed、ENIRE Lite 全面免费,即刻生效。IT之家查询发现,这两款大模型发布于今年 3 月,支持 8K 和 128k 上下文长度。根据百度官方介绍,ERNIE Speed 是百度 2024 年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特
5/21/2024 2:28:02 PM
问舟

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

感谢继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 在 X 平台发布贴文,宣布他已经在上周离开公司。据悉,Jan Leike 是 OpenAI 旗下 Superalignment(超级对齐)团队的共同主管,他表示最近几年 OpenAI 已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。IT之家经查询得知,OpenAI 在 2023 年 7 月设立 Superalignment 团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’
5/21/2024 1:43:20 PM
漾仔

联想与高通推出微软Copilot+PC,配备最强AI NPU

5月21日,联想集团推出首款搭载高通骁龙X Elite的下一代Copilot PC——联想Yoga Slim 7x和联想ThinkPad T14s Gen 6。随着PC行业进入人工智能时代的新阶段,联想将在PC产品组合中提供更高水平的个性化个人计算,智能软件驱动的本地任务处理,以及更高的生产力、创造力和安全性,这些结合在一起,为PC交互提供了全新的体验。这两款搭载全新骁龙X Elite处理器的AI PC配备12核Oryon CPU、Adreno GPU和专用Hexagon NPU,提供领先的PC性能,以及迄今为止
5/21/2024 1:07:00 PM
新闻助手

豆包大模型公布价格清单,支持国内最高并发标准

近期,火山引擎官网更新了豆包大模型的定价详情,全面展示豆包通用模型不同版本、不同规格的价格信息。在模型推理定价大幅低于行业价格的基础上,豆包通用模型的 TPM(每分钟Tokens)、RPM(每分钟请求数)均达到国内最高标准。以豆包主力模型 pro-32k 为例,价格比行业低99%,TPM限额则高达同规格模型的2.7倍到8倍。图:豆包系列模型“后付费”定价信息官方信息显示:在按照 Tokens 实际使用量计算费用的“后付费”模式下,豆包通用模型-pro、豆包通用模型-lite的 32k 及以下窗口版本,模型限流为 1
5/21/2024 10:55:00 AM
新闻助手

通义千问宣布“GPT-4 级”主力模型 Qwen-Long 降价 97%,一元 200 万 tokens

字节跳动 5 月 15 日正式发布了豆包大模型,宣布大模型价格进入“厘时代”,号称“比行业便宜 99.3%”。今日,阿里云紧随其后抛出重磅炸弹:通义千问 GPT-4 级主力模型 Qwen-Long 宣布降价,API 输入价格从 0.02 元 / 千 tokens 降至 0.0005 元 / 千 tokens,降幅 97%。简单来说,1 块钱可以买 200 万 tokens,相当于 5 本《新华字典》的文字量。这款模型最高支持 1 千万 tokens 长文本输入,降价后约为 GPT-4 价格的 1/400。参考IT之
5/21/2024 10:41:25 AM
问舟