快手可灵
告别高昂重制成本!港科大广州、快手可灵发布立体视频转换单步推理新方案
近年来,随着 VR 头戴设备、智能眼镜、3D 影院的发展,人们对于 3D 立体视频内容的需求不断增加。 3D 电影带来的沉浸式体验着实令人着迷,但因其制作过程需要专业的相机设备、复杂耗时的专家后处理,3D 内容的制作让普通玩家望而却步:2010 年,卡梅隆导演为了实现经典著作《泰坦尼克号》的 3D 版本重制,制作团队投入了高达 1800 万美元,动用了 300 名专业工程师,耗时整整 60 周才完成 [1]。 如此高昂的成本和复杂的人力投入,一直是 3D 内容生产的最大阻碍。
小白也能做出电影级大片?可灵2.5生成的动作戏酷到封神!
可灵 2.5,来了。 更多测评:不仅已经对可灵的超级创作者们正式进行灰度内测,还在这个周末,登上了釜山国际电影节。 我其实已经很久很久没做过小片子了,在前几天拿到可灵 2.5 的体验资格以后,试了一下,居然,又激起了我的一些创作欲望。
海淀105款大模型背后:看这些AI玩家如何抢占内容生产制高点
二喵 发自 凹非寺. 量子位 | 公众号 QbitAI当你还在为写一篇文章发愁时,AI已经帮别人月入一个亿了。 在北京海淀最新的一场文化沙龙上,最热的讨论不是电影、综艺,而是AI如何重塑内容生产。
港大携手快手可灵突破长视频一致性瓶颈,"记忆检索"技术震撼发布
AIbase报道 香港大学与快手可灵团队近日联合发表重磅论文《Context as Memory: Scene-Consistent Interactive Long Video Generation with Memory Retrieval》,提出革命性的"Context-as-Memory"方法,成功解决长视频生成中场景一致性控制的核心难题。 创新理念:将历史上下文作为"记忆"载体该研究的核心创新在于将历史生成的上下文视为"记忆",通过context learning技术学习上下文条件,实现长视频前后场景的高度一致性控制。 研究团队发现,视频生成模型能够隐式学习视频数据中的3D先验,无需显式3D建模辅助,这一理念与谷歌Genie3不谋而合。
上下文记忆力媲美Genie3,且问世更早:港大和可灵提出场景一致的交互式视频世界模型
要让视频生成模型真正成为模拟真实物理世界的「世界模型」,必须具备长时间生成并保留场景记忆的能力。 然而,交互式长视频生成一直面临一个致命短板:缺乏稳定的场景记忆。 镜头稍作移动再转回,眼前景物就可能「换了个世界」。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI新词
AI绘画
大模型
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
英伟达
Gemini
智能体
技术
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
AI for Science
代码
腾讯
苹果
算法
Agent
Claude
芯片
具身智能
Stable Diffusion
xAI
蛋白质
人形机器人
开发者
生成式
神经网络
机器学习
AI视频
3D
字节跳动
大语言模型
RAG
Sora
百度
研究
GPU
生成
华为
工具
AGI
计算
生成式AI
AI设计
大型语言模型
搜索
亚马逊
AI模型
视频生成
特斯拉
DeepMind
场景
Copilot
深度学习
Transformer
架构
MCP
编程
视觉