导读 OpenAI声称,GPT-4o在理解和参与与用户分享的图像相关的讨论方面胜过所有当前模型。例如,使用GPT-4o,您可以拍摄外语菜单的照片并请求翻译...
OpenAI声称,GPT-4o在理解和参与与用户分享的图像相关的讨论方面胜过所有当前模型。例如,使用GPT-4o,您可以拍摄外语菜单的照片并请求翻译,探索菜肴的历史和文化背景,并获得推荐。此外,OpenAI还在改进AI模型,使人们更容易进行流畅的实时语音聊天,并通过ChatGPT进行视频对话。
GPT-4o真正有趣的地方在于,与GPT-4.5不同,每个人都可以使用这个新的AI模型。然而,你们中的很多人肯定想访问它,但可能无法访问。至少,我就是无法访问。
当我尝试这个新的AI模型时,我找不到在哪里可以访问它。然后我去了OpenAI支持页面,上面告诉我该公司仍在推出这个AI模型。然而,问题仍然存在,“我们如何访问它?”所以,这个问题的答案是你不必这样做。当GPT-4o推广到你的设备时,它会自动切换到你的默认AI模型而不是GPT-3.5。对于ChatGPTPlus用户,你将在左上角看到切换选项。基本上,我们只需要再等一段时间,直到这个新模型推出。
那么,有什么新鲜事吗?
GPT-4o实时翻译现场演示
GPT-4o进行了重大升级,可以处理和生成跨多种模式的输出。这包括实时文本、音频和图像。该模型通过统一的神经网络实现这些功能,与之前的版本相比,它速度更快、更具成本效益、效率更高。
除此之外,GPT-4o已在ChatGPT中推出初步的文本和图像处理功能。此外,他们计划稍后为特定合作伙伴添加音频和视频功能。