所在位置: 首页 >  新闻合集 >  手机资讯 >  正文详情

OpenAI推出新一代AI-GPT-4o来袭

作者:szh发布时间:2024-05-24 16:51:32

在去年OpenAI公司发布了ChatGPT之后,全球的AI进入了“狂飙”的阶段,之后不断的推出了全新的AI新模型,能够实现的功能也越来越多,就在前几天OpenAI又推出了强大的新一代的GPT-4o,将会利用语音、视频、图片开启全新的推理构思!

据外媒报道,在今日凌晨1点开始的春季更新中,OpenAI宣布了他们新一代的旗舰模型GPT-4o,可以利用语音、视频和文本信息进行实时推理。

OpenAI推出新一代AI-GPT-4o来袭

今天的主持人是 OpenAI 的首席技术官 Mira Murati,她表示,今天主要讲三件事:

第一,以后 OpenAI 做产品就是要免费优先,为的就是让更多的人能使用。

第二,因此 OpenAI 此次发布了桌面版本的程序和更新后的 UI,其使用起来更简单,也更自然。

第三,GPT-4 之后,新版本的大模型来了,名字叫 GPT-4o。GPT-4o 的特别之处在于它以极为自然的交互方式为每个人带来了 GPT-4 级别的智能,包括免费用户。

从OpenAI在官网上公布的信息来看,GPT-4o中的“o”源自“omni”,也就是全面、全能的意思,朝着更自然的人机交互又迈出了关键一步。而GPT-4o也的确如名字中“omni”的全能一样,是一款能力更全面的大语言模型,打通了文本、音频和图像,接受任何文本、音频和视频的组合输入,并生成文本、音频和视频的组合输出。

OpenAI在官网上披露,GPT-4o在英文文本和代码中的表现与GPT-4 Turbo相当,但在非英文文本上的能力大幅提升;在视频和音频的理解上,GPT-4o要明显强于当前的其他模型。

在官网上,OpenAI提到,在GPT-4o之前,通过语音模式同ChatGPT对话时,有较长时间的延迟,GPT-3.5平均为2.8秒,GPT-4平均为5.4秒。而由三个独立模式组成的语音模式,也丢失了大量信息,无法直接识别音调、多个说话者或背景噪音,也无法输出笑声、歌唱或表达情感。但在GPT-4o中,OpenAI训练一个跨文本、音频和视频的端到端新模型,所有的输入和输出都是由同一神经网络处理,GPT-4o也是他们首个整合了个文本、音频和视频模式的模型,能力更全面的GPT-4o,响应速度也更快,最快232毫秒响应音频输入,平均响应时间为320毫秒,与人类在对话中的响应速度相当。

OpenAI推出新一代AI-GPT-4o来袭

除了更强、更全面的能力,OpenAI也在推动GPT-4o更广泛的应用。GPT-4o的文本和图片功能自推出之日起就向ChatGPT推送,ChatGPT用户可免费使用,ChatGPT Plus用户的数据量上限将是免费用户的5倍,新版本的音频模式将在未来几周向ChatGPT Plus用户推送。OpenAI周二凌晨1点开始的春季更新,是由CTO Mira Murati主持进行,登台的还有两位研发人员,公司CEO萨姆•奥特曼并未登场。不过,未现身直播的萨姆•奥特曼,在社交媒体上对GPT-4o也进行了推广。他在社交媒体上就表示,他们最新的模型GPT-4o,是他们到目前为止最好的模型,它很聪明、速度很快,是天然的多模态。

OpenAI推出新一代AI-GPT-4o来袭

萨姆•奥特曼在社交媒体上也提到,GPT-4o对所有的ChatGPT用户免费,而此前GPT-4级别的模型仅对按月付费的用户免费。而值得注意的是,OpenAI在周二凌晨推出能力更全面的GPT-4o,无疑会给谷歌带来更大的压力,谷歌2024年度的I/O开发者大会,将在当地时间周二开始,外界预计他们会推出大量人工智能相关的产品。

GPT-4o实际测试

我们第一时间对GPT-4o进行了实测,不过目前免费用户还不能使用图片生成功能。我们使用GPT-4o来描述图片,并让其分别对一张中文图表和一张英文图表进行了分析,来看看结果。我们首先让GPT-4o描述了一张图片,发现描述的非常准确,并可以对单独人物的动作进行描述,最后还可以用文字来分析该图片场景。

OpenAI推出新一代AI-GPT-4o来袭

总体来说,GPT-4o的能力的确有了很大的提升,未来在所有功能开放的时候,小编也将继续为大家带来更详细的实测体验。

更多信息可以持续关注本站!