画面比较友善的连结: https://hello-kirby.hashnode.dev/openai-api
来源:https://beta.openai.com/docs/introduction/key-concepts
因为最近公司希望旗下工程师研究一下 ChatGPT,
但当前 (15/12/22) OpenAI
没有释出 ChatGPT 的官方 API 或是 Paper。
(虽然有非官方版的 API,不过暂时不考虑)
基于好奇其背后开发的公司 OpenAI,
我开始进行他们的 API 文件翻译。
概述
OpenAI API 可以应用于几乎任何涉及理解或生成自然语言或代码的任务。
我们提供了一系列适合不同任务且不同功能级别的模型,
以及微调自定义模型的能力。
这些模型可用于从内容生成到语义搜索和分类的所有用途。
关键概念
我们建议完成我们的快速入门教程,
以通过实践和交互式示例熟悉关键概念。
https://beta.openai.com/docs/quickstart
提示 (Prompts) 跟 补全 (Completions)
补全系统是我们 API 的核心。
它提供了一个简单的接口可以对接我们的模型,非常灵活且强大。
你只要输入一些文本作为提示,
模型就会生成一个文本补全,并试图匹配你给的任何情境跟模式。
例如,
如果你给 API 提示「写一个冰淇淋店的标语」,
它就会回应一个补全,如「我们每一勺都送上微笑!」
设计你给出的提示是你编程模型的基础,
通常是通过提供一些指令或一些示例。
不同于大多数其他 NLP 服务是为单一任务设计的,
例如 sentiment classification 或 named entity recognition。
相反,补全系统可用于几乎任何任务,
包括内容或代码生成,摘要,扩展,对话,创意写作,风格转移等。
分词 (Token)
我们的模型通过将文本拆解成 Token 来理解和处理文本。
Token 可以是单词或只是字符块。
例如,单词 “hamburger” 被分解为标记 “ham”、“bur” 和 “ger”,
而像 “pear” 这样的短而常见的单词是一个 Token。
许多 Token 以空格开头,例如 “ hello” 和 “ bye”。
在给定的 API 请求中能处理的 Token 数量
取决于你的输入和输出的长度。
作为一个粗略的规则,
1 个 Token 大约是 4 个字符或 0.75 个单词的英文文本。
需要特别注意的一个限制是,
你的文本提示和生成的完成内容总和不能超过模型的最大上下文长度
(对于大多数模型,这是 2048 个 Token,大约是 1500 个单词)。
请查看我们的分词工具,了解有关文本如何转换为 Token 的更多信息。
模型 (Models)
我们的 API 是由一系列具有不同能力和价位的模型在背后支持着。
我们的基本 GPT-3 模型被称做
「达文西 (Davinci)」,「居里 (Curie)」,「巴贝奇 (Babbage)」和「爱达 (Ada)」。
我们的「魔鬼圣经 (Codex)」系列是 GPT-3 的后代,
它既被训练于自然语言,又被训练于代码。
要了解更多信息,请访问我们的模型文档。
注解
注1
情感分类(sentiment classification)是自然语言处理(NLP)中的一种技术,
用于对文本进行情感分析,以确定作者的情感偏好。
它的目的是通过自动分析文本中的情感指标来检测作者的情感倾向,
并将它们归类为正面,负面或中立。
情感分类通常被用于社交媒体分析,市场研究,客户关係管理(CRM)等领域。
注2
命名实体识别(named entity recognition,NER)是一种自然语言处理(NLP)技术,
用于识别文本中的特定实体,如人名,地点,组织,时间等。
它的目的是通过自动分析文本中的关键字和上下文信息来检测特定实体,并将它们归类为不同的类别。
命名实体识别通常用于搜索引擎,新闻摘要,社交媒体分析等领域。