AI在线 AI在线

快手

联发科与快手推出端侧视频生成技术,支持天玑 9300/8300 移动平台

联发科与快手今日共同宣布,推出高效端侧视频生成技术。该技术是对 2024 世界移动通信大会上初次亮相的视频生成技术的延续与提升,结合快手的 AI 模型 I2V(image to video)Adapter 与联发科天玑 9300、天玑 8300 移动平台的 AI 算力,在端侧实现由静态图像生成动态视频。通过这项技术,用户只需在设备上选取图片,应用可识别照片中的人物和场景,生成自然流畅的视频,提升视频制作的创意表现和效率。I2V-Adapter 是快手 AI 团队提出的一种适用于基于 Stable Diffusion
7/4/2024 3:18:59 PM
沛霖(实习)

快手可灵上线图生视频与最长 3 分钟的视频续写功能

感谢快手可灵新功能“图生视频”和“视频续写”今日上线。图生视频功能,支持将静态图像转化为 5 秒钟视频,用户可通过提示词文本控制图像中物体的运动;视频续写功能,支持对生成视频一键续写和连续多次续写,最长可生成约 3 分钟视频;此外文生视频新增 9:16 和 1:1 视频尺寸选择。 IT之家附快手可灵官方网站:,能够生成大幅度的合理运动,模拟物理世界特性。可灵使用了 DiT 架构,快手对模型中的隐空间编 / 解码、时序建模等模块进行了升维处理。在隐空间编 / 解码上,快手自研了 3D VAE 网络,实现时空同步压缩,
6/21/2024 5:06:01 PM
沛霖(实习)

快手「可灵」爆火:海外AI圈巨震,中国版Sora一号难求

短短一年后,AI 生成的「吃面条」已经如此自然流畅?这让全球网友都感受到了亿点点震撼。                            图源:,都来自快手刚刚推出的文生视频大模型「可灵」(Kling)。不是预发布、不是纯 Demo 合集,而是直接开放测试的产品级应用,人人都能申请。而且,可灵支持生成最长 2 分钟、30fps 的 1080P 视频,主打从头脑风暴到可发布作品的「一键转化」。(官网地址:)最早一批用上的用户已经「真香」:                              图源:     
6/13/2024 11:28:00 AM
机器之心

号称效果对标 Sora:快手视频生成大模型“可灵”开放邀测

感谢快手“可灵”视频生成大模型今日正式上线。官方表示,可灵大模型为快手 AI 团队自研,其采用 Sora 相似的技术路线,号称结合多项自研技术创新、效果对标 Sora。 据介绍,可灵大模型具备如下优势:可生成大幅度的合理运动可模拟物理世界特性具备强大概念组合能力、想象力生成视频分辨率为 1080p,时长 2 分钟(帧率 30fps),支持自由调整宽高比IT之家从快手方面获悉,可灵大模型已在快影 App 开放邀测体验。此外,基于“可灵”大模型,未来还将有更多应用方向即将落地,近期将首发“AI 唱跳”新玩法,可以同时驱
6/6/2024 3:58:22 PM
清源

快手上线自研文生图大模型“可图”,消息称参数规模达十亿级

快手自研文生图大模型“可图”已于近日正式对外开放,其目前支持文生图和图生图两类功能,可用于 AI 创作图像以及 AI 形象定制。用户可通过“可图”微信小程序和网页版使用。据界面新闻报道,这也是快手首次将其自研的系列大模型对外开放。报道援引知情人士消息称,“可图”大模型的参数规模达十亿级,这些数据来自开源社区、快手内部构建和自研 AI 技术合成,覆盖了常见的千万级中文实体概念,还引入强化学习和奖励模型技术(RLHF),解决了文生图大模型在长文本和复杂语义文本输入下的效果问题。报道称,快手内部今年明确了大模型应用策略,
5/30/2024 10:55:44 PM
清源

快手 CEO 程一笑放出豪言:自研大模型有信心在半年内达 GPT4.0 水平

在今晚的快手业绩电话会上,快手创始人兼 CEO 程一笑披露了公司在生成式 AI 领域的进展。程一笑表示,公司在去年启动 AI 战略后,一步步扎实推进自研大模型的研发训练。程一笑还放出豪言,声称有信心在未来半年内,使大模型的综合性能达到 GPT4.0 的水平。同时,他还称快手文生图大模型“可图”综合性能已超过 Midjourney V5 的水平。至于目前大热的文生视频领域,程一笑透露称公司已于去年底推进专项研发。“这对短视频生态来说,是巨大的机会。未来,快手会把生成模型和生产者工具结合起来,不断帮助创作者降低创作门槛
3/20/2024 8:54:57 PM
清源

即插即用,完美兼容:SD社区的图生视频插件I2V-Adapter来了

图像到视频生成(I2V)任务旨在将静态图像转化为动态视频,这是计算机视觉领域的一大挑战。其难点在于从单张图像中提取并生成时间维度的动态信息,同时确保图像内容的真实性和视觉上的连贯性。大多数现有的 I2V 方法依赖于复杂的模型架构和大量的训练数据来实现这一目标。近期,由快手主导的一项新研究成果《I2V-Adapter: A General Image-to-Video Adapter for Video Diffusion Models》发布,该研究引入了一个创新的图像到视频转换方法,提出了一种轻量级适配器模块,即
1/15/2024 11:26:00 AM
机器之心