首页 > 互联网 > 正文

OpenAI推出了GPT-4o但为什么我们无法使用它

来源:互联网2024-06-28 11:22:56
导读 OpenAI声称,GPT-4o在理解和参与与用户分享的图像相关的讨论方面胜过所有当前模型。例如,使用GPT-4o,您可以拍摄外语菜单的照片并请求翻译...

OpenAI声称,GPT-4o在理解和参与与用户分享的图像相关的讨论方面胜过所有当前模型。例如,使用GPT-4o,您可以拍摄外语菜单的照片并请求翻译,探索菜肴的历史和文化背景,并获得推荐。此外,OpenAI还在改进AI模型,使人们更容易进行流畅的实时语音聊天,并通过ChatGPT进行视频对话。

GPT-4o真正有趣的地方在于,与GPT-4.5不同,每个人都可以使用这个新的AI模型。然而,你们中的很多人肯定想访问它,但可能无法访问。至少,我就是无法访问。

当我尝试这个新的AI模型时,我找不到在哪里可以访问它。然后我去了OpenAI支持页面,上面告诉我该公司仍在推出这个AI模型。然而,问题仍然存在,“我们如何访问它?”所以,这个问题的答案是你不必这样做。当GPT-4o推广到你的设备时,它会自动切换到你的默认AI模型而不是GPT-3.5。对于ChatGPTPlus用户,你将在左上角看到切换选项。基本上,我们只需要再等一段时间,直到这个新模型推出。

那么,有什么新鲜事吗?

GPT-4o实时翻译现场演示

GPT-4o进行了重大升级,可以处理和生成跨多种模式的输出。这包括实时文本、音频和图像。该模型通过统一的神经网络实现这些功能,与之前的版本相比,它速度更快、更具成本效益、效率更高。

除此之外,GPT-4o已在ChatGPT中推出初步的文本和图像处理功能。此外,他们计划稍后为特定合作伙伴添加音频和视频功能。

关键词:
版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

猜你喜欢

最新文章