-
字节豆包通用图像编辑模型SeedEdit开启测试 用户可一句话轻松改图
11月11日,字节在豆包大模型团队官网上公布最新通用图像编辑模型SeedEdit。 SeedEdit支持一句话轻松改图,包括修图、换装、美化、转化风格、在指定区域添加删除元素等各类编辑操作,通过简单的自然语言即可驱动模型编辑任意图像。 目前,该模型已经在豆包PC端及即梦网页端开启测试。- 1
- 0
-
即梦AI首发,字节自研视频生成模型Seaweed开放使用
11月8日,字节跳动旗下的AI内容平台即梦AI宣布,即日起,由字节跳动自研的视频生成模型Seaweed面向平台用户正式开放。 用户登陆后,在“视频生成”功能下,视频模型选择“视频S2.0”即可体验。 图说:即梦AI PC端和App端模型使用入口9月底,字节跳动正式宣布向AI视频领域进军,发布豆包模型家族的两款视频生成模型Seaweed和Pixeldance,并通过即梦AI、火山引擎分别面向创作者和…- 3
- 0
-
类Sora模型到底懂不懂物理?字节完成系统性实验,图灵奖得主杨立昆赞转!
Sora爆火以来,“视频生成模型到底懂不懂物理规律”受到热议,但业界一直未有研究证实。 近日,字节跳动豆包大模型团队公布最新论文,研究历时8个月,围绕“视频生成模型距离世界模型有多远”首次在业界完成系统性实验并给出明确结论:视频生成模型可以记忆训练案例,但暂时还无法真正理解物理规律,做到“举一反三”。 图灵奖得主、Meta首席AI科学家杨立昆点赞并转发了该研究,表示“结论不令人意外,但很高兴终于有…- 2
- 0
-
腾讯混元开源 Hunyuan3D-1.0:首个同时支持文生和图生的 3D 开源大模型
腾讯混元今日开源了 Hunyuan3D-1.0 大模型,官方称这是首个同时支持文生和图生的 3D 开源大模型。 ▲ 文生模型▲ 图生模型模型采用两阶段生成方法,官方表示在保证质量和可控的基础上,10 秒即可生成 3D 资产:第一阶段,团队采用了一种多视角扩散模型,轻量版模型能够在大约 4 秒内生成多视角图像。 这些多视角图像从不同的视角捕捉了 3D 资产的丰富的纹理和几何先验,将任务从单视角重建松…- 5
- 0
-
英伟达团队机器训练新方法:仅 5 次演示让机器生成 1000 个新 demo
人类只需要演示五次,就能让机器人学会一项复杂技能。 英伟达实验室,提出了机器人训练数据缺乏问题的新解决方案 ——DexMimicGen。 五次演示之后,DexMimicGen 就可以直接模仿出 1000 个新的 demo。- 5
- 0
-
AI 生成游戏引争议:Oasis 模型涉嫌抄袭《我的世界》,且质量堪忧
AI 公司 DecartAI 联合 Etched 推出了名为 Oasis 的世界模型,可以在“没有游戏引擎、没有逻辑、没有代码”的情况下运行一个大致近似于《我的世界》的游戏。 然而,这款 AI 生成的“游戏”却引发了广泛的批评和争议。 然而,Oasis 的画面质量令人失望,分辨率和帧率分别为 360p 和以 20 FPS,甚至不如任天堂 64 时代的游戏。- 6
- 0
-
OpenAI 公布新型 AI 文生图方案“sCM”,号称效率是传统扩散模型 50 倍
OpenAI 本周公布了一款名为 sCM(Continuous-Time Consistency Model)的新型 AI 文生图方案。 与传统的扩散模型相比,sCM 仅需两个步骤即可生成高质量样本,号称能够将文生图效率提升约 50 倍,且生成的样本质量能与“业界较强的扩散模型”相比较,为 AI 文生图提供了新的方案。 目前业界通常使用扩散模型生成图片及音视频,但传统扩散模型的取样过程通常缓慢,通…- 4
- 0
-
谷歌 DeepMind 开源 SynthID Text 工具,可辨别 AI 生成的文字
谷歌 DeepMind 于 10 月 23 日宣布正式开源旗下 SynthID Text 文本水印工具,供开发者和企业免费使用。 谷歌在 2023 年 8 月推出了 SynthID 工具,该工具具备创建 AI 内容水印(声明该作品由 AI 打造)和识别 AI 生成内容的能力。 它可以在不损害原始内容的前提下,将数字水印直接嵌入由 AI 生成的图像、声音、文本和视频中,同时也能扫描这些内容已有的数字…- 4
- 0
-
谷歌出品:大模型生成 RPG 游戏,情节角色全自定义
现在,大模型能生成 RPG 角色扮演游戏了。 根据初始用户输入,它能设置游戏模拟环境,并在环境中生成角色动作。 来自谷歌,北卡罗来纳大学教堂山分校新研究,他们尝试的第一款游戏叫作 Unbounded,灵感来自《模拟人生》。- 3
- 0
-
阿里达摩院开源 CoI-Agent:一键生成科研 idea 的 AI 研究助手
阿里巴巴达摩院本月开源了一款名为 CoI-Agent 的 AI 工具,旨在帮助科研人员自动生成科研想法。 这款工具通过输入特定的论文主题,能够迅速生成相关的科研 idea,从而节省科研人员的时间,提高工作效率。 只需输入一个主题,CoI-Agent 就能生成一系列相关的关键词、研究问题和研究方法。- 5
- 0
-
真·赛博菩萨!最大的开源视频模型来了,我们实测:有点东西,但不多
AI好好用报道编辑:杨文目前发布的最大的开源视频生成模型。 Genmo 当了一回「赛博菩萨」。 昨晚,AI 视频生成公司 Genmo 推出了最新的视频生成模型 Mochi 1 ,并且大手一挥,直接给开源了 。- 5
- 0
-
谷歌 Fluid 颠覆共识:两大因素被发现,AI 文生图领域自回归模型超越扩散模型
科技媒体 The Decoder 昨日(10 月 22 日)发布博文,报道称谷歌 DeepMind 团队携手麻省理工学院(MIT),推出了全新的“Fluid”模型,在规模达到 105 亿参数时候,能取得最佳的文生图效果。 目前在文生图领域,行业内的一个共识是自回归模型(Autoregressive Models)不如扩散模型(Diffusion Models)。 AI在线简要介绍下这两种模型:扩散…- 3
- 0
-
Meta 用 AI 生成北极光图片,遭网友怒喷
社交媒体巨头 Meta 昨日在 Threads 平台上发布了一组使用人工智能生成的北极光图片,并建议用户用 AI 来“假装”看到了这一自然奇观。然而,这一建议遭到了众多网友的批评。AI在线注意到,Meta 的帖子旨在借势周四晚上美国罕见地出现北极光现象,宣传自家的 AI 服务,图片展示了北极光在金门大桥、城市天际线和摩天轮上方的景象。- 13
- 0
-
-
-
-
最强文生图 AI 模型 Flux 再进化:出图速度快 6 倍,Elo 评分冲上 1153 傲视群雄
科技媒体 The Decoder 昨日(10 月 3 日)发布博文,报道称 Black Forest Labs 最新推出了 Flux 1.1 Pro,并以 Beta 版的形式推出 BFL API。黑森林实验室(Black Forest Labs)是一家位于德国的初创公司,专注于开发最先进的生成性人工智能模型。Flux 简介Flux 在 AI 文生图领域有着“最强”称号,在多个方面有着卓越表现:生成…- 19
- 0
-
10 倍速度提升,新版 Dream Machineds 可在 20 秒内极速生成高质量 AI 视频
科技媒体 The Decoder 昨日(10 月 1 日)发布博文,报道称 Luma AI 升级推出 1.6 版 Dream Machine,AI 视频生成速度快 10 倍。Luma AI 简介Luma AI 是一家专注于人工智能技术的公司,主要提供视频生成和 3D 捕捉的解决方案。Dream Machine 简介Dream Machine 是一个先进的文本转视频生成器,用户可以通过输入文本来创建…- 22
- 0
-
字节跳动发布豆包视频生成模型,这效果让我分不清 AI 与现实
9 月 24 日,火山引擎 AI 创新巡展在深圳举办,带来了豆包大模型的最新进展。豆包大模型家族迎来了新成员。具体来说,火山引擎全新推出了豆包・视频生成模型,以及豆包音乐模型、同声传译模型,同时还升级了通用语言模型、文生图模型、语音模型,不断增强各类模态以及规模化的调用量,让豆包大模型“更强模型、更低价格、更易落地”的优势持续凸显。此外,多家行业客户也在会上分享了大模型应用的实践经验。本次豆包带来…- 25
- 0
-
美图:“奇想大模型”视频生成能力已完成全面升级,可生成 1 分钟视频
美图公司今天宣布,旗下的“奇想大模型”视频生成能力完成全面升级,在实现生成能力、生成效率以及模型性能的三重进阶基础上,结合美图在计算机视觉领域的多项自研技术,实现了视频生成时长、画质、流畅性、真实性及可信度等方面的提升。据悉,美图奇想大模型的单次文生视频时长、单次图生视频时长均达 5 秒,支持生成 1 分钟、24FPS、1080P 的超长视频,升级后的视频生成功能将逐步覆盖美图秀秀、美颜相机、Wi…- 24
- 0
-
快手可灵 AI 发布 1.5 模型:新增“运动笔刷”,支持生成 1080p 视频
快手可灵 AI 今日面向全球发布可灵 1.5 模型,新增“运动笔刷”功能。据介绍,“运动笔刷”功能为图片中的元素(人或物体等)指定运动轨迹,还支持额外指定静止区域,提升画面可控性。同时,可灵 AI 的视频画质有所提升,支持生成 1080p 视频,同时构图更美观、动作更合理、文本相关性提升。快手高级副总裁盖坤 9 月 13 日在投资者日上披露,截至目前,已有超过 260 万人使用过快手的视频生成大…- 42
- 0
-
阿里通义万相视觉生成大模型升级,支持文生视频、图生视频等
在今日的 2024 云栖大会上,阿里云发布了通义万相 Wanx 视觉生成大模型的新升级,能力全面进化。通义万相除了此前的文生图能力,现已支持文生视频、图生视频等,还有插画设计、涂鸦作画、局部重绘、短片创作、配乐生成等场景化能力。据阿里云官方透露,通义万相累计创作图片数已达 7500 万 ,累计用户数已达 93 万 。通义万相官网显示,全新发布自研 AI 视频生成大模型,具备“强大的画面视觉动态生成…- 23
- 0
-
单图就能解锁全景视角,北大 / 港中文 / 腾讯等推出 ViewCrafter 开源项目
随便给张图就能从更多视角查看全景了?!话不多说,先看一波效果,单视角输入 be like:难度升级,接下来换成双视角,看起来衔接也非常丝滑。以上来自 ViewCrafter,由北大、港中文、腾讯等机构的研究人员提出,可以从单张或稀疏输入图像生成精确相机可控的新视角视频。还支持场景级文生 3D、图生 3D、以及稀疏视角重建等应用。目前论文和代码均已开源,并提供了在线 Huggingface demo…- 8
- 0
-
阿里通义将发布 AI 视频生成大模型,支持文生视频、图生视频
感谢阿里通义将在 2024 云栖大会(9 月 19 日至 9 月 21 日)期间发布视频生成大模型,目前通义 App 频道和通义万相 PC 端已上线“视频生成”入口,仅支持用户预约,但未开放使用。页面内容显示,全新发布的视频生成大模型是由通义实验室自主研发,包含“文生视频”和“图生视频”两种创作模式。AI在线测试,预约成功后,阿里通义会在用户获得使用资格时进行通知,并赠送给用户 66 灵感值(有效…- 24
- 0
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!