AI在线 AI在线

OpenAI 向部分付费订阅用户开放 GPT-4o 语音模式,可提供更自然实时对话

当地时间 30 日,OpenAI 宣布即日起向部分 ChatGPT Plus 用户开放 GPT-4o 的语音模式(AI在线注:Alpha 版本),并将于今年秋季逐步推广至所有 ChatGPT Plus 订阅用户。今年 5 月,OpenAI 首席技术官米拉・穆拉蒂(Mira Murati)在演讲中提到:在 GPT-4o 中,我们训练了跨文本、视觉和音频的端到端全新统一模型,这意味着所有输入和输出都由同一个神经网络处理。由于 GPT-4o 是我们第一个结合所有这些模式的模型,因此我们在探索该模型的功能及其局限性方面仍处

当地时间 30 日,OpenAI 宣布即日起向部分 ChatGPT Plus 用户开放 GPT-4o 的语音模式(AI在线注:Alpha 版本),并将于今年秋季逐步推广至所有 ChatGPT Plus 订阅用户。

OpenAI 向部分付费订阅用户开放 GPT-4o 语音模式,可提供更自然实时对话

今年 5 月,OpenAI 首席技术官米拉・穆拉蒂(Mira Murati)在演讲中提到:

在 GPT-4o 中,我们训练了跨文本、视觉和音频的端到端全新统一模型,这意味着所有输入和输出都由同一个神经网络处理。

由于 GPT-4o 是我们第一个结合所有这些模式的模型,因此我们在探索该模型的功能及其局限性方面仍处于起步阶段。

OpenAI 公司原计划今年 6 月底邀请一小部分 ChatGPT Plus 用户测试 GPT-4o 语音模式,但官方在 6 月宣布推迟,表示需要更多时间打磨该模型,提高该模型检测和拒绝某些内容的能力。

根据此前曝光的信息,GPT-3.5 模型的平均语音反馈延迟为 2.8 秒,而 GPT-4 模型的延迟为 5.4 秒,因此在语音交流方面不太优秀,而即将推出的 GPT-4o 可以极大地缩短延迟时间,近乎无缝对话

GPT-4o 语音模式具有快速反应声音堪比真人等特征,OpenAI 更称 GPT-4o 语音模式可以感知语音中的情感语调,包括悲伤、兴奋或歌唱。

OpenAI 发言人林赛・麦卡勒姆(Lindsay McCallum)表示:“ChatGPT 不能假冒他人的声音,包括个人和公众人物的声音,并且会阻止与预设声音不同的输出。”

相关资讯

OpenAI推全新语音转录模型gpt-4o-transcribe,语音转文字准确率飙升

继此前在语音 AI 领域引发一些关注后,OpenAI并未停下在该领域探索的脚步,现在这家ChatGPT的创造者再次发力,推出了三款全新的自主研发语音模型,分别为:gpt-4o-transcribe, gpt-4o-mini-transcribe and gpt-4o-mini-tts。 其中最受瞩目的当属gpt-4o-transcribe。 目前,这些新模型已经率先通过应用程序接口(API)向第三方开发者开放,开发者们可以利用它们打造更智能的应用程序。
3/21/2025 9:01:00 AM
AI在线

OpenAI将于2026年2月停止GPT-4o模型的API访问

据 AIbase 报道,OpenAI 已向其 API 客户发送通知,确认将于2026年2月16日正式终止其 chatgpt-4o-latest 模型的访问权限。 这意味着仍基于 GPT-4o 构建应用程序的开发者将拥有约三个月的过渡期。 OpenAI 发言人明确强调,此时间表仅适用于 API 服务。
11/24/2025 9:26:45 AM
AI在线

行业沸腾!GPT-4o动动嘴秒出设计作品!Adobe真的顶得住?

这两天大家都被 OpenAI 的 GPT-4o 刷屏了吧。 这款更新后的多模态 AI 模型,直接把“开口就出图”变成了现实。 你只需要动动嘴皮子,说出想法,专业级别的设计作品就能跃然屏幕。
4/1/2025 12:33:10 AM
彭彭