电子说
OpenAI 发布 GPT-4 Turbo 目前我们所知道的功能分析解答
在最近的OpenAI DevDay上,该组织发布了一项备受期待的公告:推出GPT-4 Turbo,这是对其突破性AI模型的改进。在这里,我们全面了解GPT-4 Turbo是什么、它的主要功能以及它如何使开发人员和用户受益。
了解 OpenAI 的最新更新、具有视觉功能的 GPT-4 Turbo 及其主要功能,包括改进的知识截止、扩展的上下文窗口、预算友好的定价等。
什么是GPT-4 Turbo?
GPT-4 Turbo是现有GPT-4大语言模型的更新。它带来了一些改进,包括大大增加的上下文窗口和对更多最新知识的访问。OpenAI逐渐改进ChatGPT中GPT-4的功能,添加了自定义指令、ChatGPT插件、DALL-E 3和高级数据分析。此最新更新带来了许多令人兴奋的新功能。
什么是GPT-4 Turbo With Vision?
具有视觉功能的GPT-4 Turbo是GPT-4 Turbo的变体,包含光学字符识别(OCR)功能。也就是说,您可以向它提供图像,它可以返回图像中包含的任何文本。例如,您可以输入菜单的照片,它将返回该照片中写入的食物选择。同样,您可以提供发票照片并自动提取供应商名称和商品详细信息。
ChatGPT默认提供“with Vision”功能,开发人员可以通过在OpenAI API中选择“gpt-4-vision”模型来使用。
GPT-4 Turbo主要特性
GPT-4 Turbo与之前的型号相比有多项改进,增强了其功能。以下是使其脱颖而出的一些关键功能:
改进知识截止
Sam Altman承诺确保ChatGPT保持最新状态
GPT-3.5和GPT-4的现有版本的知识截止日期为2021年9月。这意味着它们无法回答有关该时间之后发生的现实世界事件的问题,除非获得外部数据源的访问权限。
GPT-4将知识截止时间延长了19个月,至2023年4月。这意味着GPT-4 Turbo可以访问截至该日期的信息和事件,使其成为更明智、更可靠的信息来源。此外,OpenAI的首席执行官Sam Altman承诺“[OpenAI]将努力永远不会让[GPT]再次过时。”
128K上下文窗口
大型语言模型(LLM)的上下文窗口是衡量其对话记忆持续时间的指标。如果模型的上下文窗口包含4,000个令牌(约3,000个单词),则聊天中超过4,000个令牌之前的所有内容都会被忽略,并且响应可能会变得不太准确,甚至与之前的响应相矛盾。对于处理较长的文档或进行长时间对话的聊天机器人来说,这是一个问题。
GPT-4的最大上下文长度为32k(32,000)个令牌。GPT-4 Turbo将其增加到128k令牌(大约240页,每页400个字)。这超过了Anthropic的Claude 2模型的100k最大上下文,并使其与Nous Research的YARN-MISTRAL-7b-128k模型保持一致。
较长的上下文窗口是否会导致整个窗口的响应性能令人满意,还有待观察。斯坦福大学最近的研究表明,现有的长上下文模型只能在从文档开头或结尾附近检索信息时提供准确的响应。
还值得注意的是,128k似乎只是实现“无限上下文”梦想的垫脚石。微软和西安交通大学的早期研究旨在将法学硕士规模扩大到十亿个代币的背景。
GPT开始发售
OpenAI响应了LLM市场日益激烈的竞争,并降低了GPT-4 Turbo的价格,以便为开发人员提供经济实惠的价格。使用OpenAI API时,GPT-4 Turbo输入代币价格现在是之前价格的三分之一,从每1000个代币3美分降至1美分。产出的代币现在是半价,从每1000个代币6美分降至3美分。
GPT-3.5 Turbo模型也延续了同样的趋势,以每1000个代币0.1美分的价格提供了3倍便宜的输入代币,以每1000个代币0.2美分的价格提供了2倍便宜的输出代币。
此外,经过微调的GPT-3.5 Turbo 4K模型输入代币现在价格便宜4倍,价格从每1000个代币1.2美分降至0.3美分,输出代币便宜2.7倍,从每1.6美分降至0.6美分每1000个代币为美分。培训价格保持不变,为每1000个代币0.8美分。
这些价格调整旨在使先进的人工智能模型对开发者来说更具成本效益。
GPT走向多模式:图像提示和文本转语音
“GPT-4 Turbo with Vision”宣布即将推出。您很快就可以通过直接在聊天框中输入图像作为提示来提示GPT-4 Turbo。然后,该工具将能够生成标题或提供图像所描绘内容的描述。它还将处理文本到语音的请求。
函数调用更新
函数调用是开发人员将生成式人工智能融入其应用程序的一项功能。它使他们能够向GPT-4 Turbo描述其应用程序的功能或外部API。由于能够在一条消息中调用多个函数,此功能简化了与模型的交互。例如,用户可以发送一条请求多个操作的消息,从而无需与模型进行多次来回交互。
如何访问GPT-4 Turbo
“所有付费开发人员”都可以访问GPT-4 Turbo,这意味着如果您具有API访问权限,则只需在OpenAI API中传递“gpt-4-1106-preview”作为模型名称即可。同样,对于具有视觉功能的GPT-4 Turbo,您可以传递“gpt-4-vision-preview”作为模型名称。
请注意,这些预览模型尚未被认为适合生产使用。然而,作为公告的一部分,Altman还承诺将在未来几周内推出可投入生产的版本。
对于非开发人员来说,GPT-4 Turbo可能会在未来几周内向ChatGPT Plus和ChatGPT Enterprise用户提供。
速率限制
通过OpenAI API访问GPt模型的速率受到限制。也就是说,您每月只能向API发出有限数量的请求。OpenAI现已发布关于速率限制如何运作的更清晰指南,因此您的应用程序不会意外被切断。
此外,GPT-4的速率限制增加了一倍
由于GPT-4 Turbo目前处于预览阶段,因此GPT-4 Turbo的速率限制设置为每分钟20个请求和每天100个请求。OpenAI已表示,他们目前不会适应此模型的速率限制增加。然而,一旦公开版本可用,他们很可能会这样做。
最后的思考
GPT-4 Turbo的发布为生成式AI的未来提供了令人兴奋的一瞥,我们迫不及待地想掌握它。对于那些寻求更深入了解的人,我们关于在OpenAI API使用GPT-3.5和GPT-4的教程有很多值得探索的地方。
审核编辑 黄宇
全部0条评论
快来发表一下你的评论吧 !