爆火之后,各种「自制API」层出不穷,中间商们也一个个赚得盆满钵满。
这次,终于下定决心——正式开放 API!
API地址:
现在,不要耗费数年,不要投资数十亿美元,企业、个人开发者就能使用这样的当红顶流模型了!
而且,每输出100万个单词,价格才2.7美元(约18元人民币),比之前的GPT-3.5,成本直接降低了90%。
这个操作可谓拳拳到肉,所以,在背后苦追的硅谷大厂们,比如谷歌,还有活路吗?
太长不看版:
价格打1折,人手一个
从今天起,开发者可以正式将集成到自己的产品和服务中了。并且,价格比其他现有的语言模型要便宜得多。
此举,大大降低了技术研发成本。开发者将集成到自家应用和服务的门槛,将大大降低。
现在,谁都可以开发自己的了!
这无论对于企业还是个人开发者,都是重大利好,看来,全民AIGC时代,真的要来了。
唯一受到冲击的,当然就是其他研究底层模型的厂商了,比如早早宣布了Bard、但现在还没开放测试的谷歌。
显然,现在对于来说,快速占据市场,才是一等一重要的事。为了把竞争对手甩在后面,成本什么的,可以暂且先不考虑。
和模型现已在我们的API 上可用,开发人员能够使用尖端语言(不仅仅是聊天!)和语音转文本功能。通过一系列系统范围的优化,自去年12月以来,我们已将的成本降低了90%;我们会让这些节省的资金惠及API用户。开发人员现在可以在API中使用我们的开源 large-v2模型,获得更快且更具成本效益的结果。 API用户可以期待持续的模型改进,选择专用容量,以更深入地控制模型的选项。我们还仔细听取了开发人员的反馈,并改进了我们的API服务条款,以更好地满足他们的需求。
此外, API的用法也十分简单,只需「 」即可。
成本直降90%
从公告中可以看到,节省了成本的好处,API用户也可以共享了。
这次开放的模型被称为gpt-3.5-turbo,每1000个token的成本为0.002美元,比现有的GPT-3.5模型还要便宜90%。
所以,这是一场与谷歌的价格战吗?
这个领域的进入成本一直如此之高,以至于LLM服务将成为赢家通吃的市场
之所以能这么便宜,在一定程度上要归功于「系统范围的优化」。
虽然1,000个token看起来很多,但其实,发送一段供API响应的文本,可能就会花费多个token。(token是指系统将句子和单词分解成的文本块,以预测接下来应该输出什么文本。)
根据 的文档,「 很棒!」 有六个token——它的API会把这个句子分解为「Chat」、「G」、「PT」、「is」、「great」和「!」。
而提供了一种工具来检查解释一串文本需要多少token,一般的经验是,「一个token通常对应于英语中的4 个字符」。
并且,根据的说法,这个名为gpt-3.5-turbo的新模型系列是「许多非聊天用例的最佳模型」。
而早期的测试者如果想从text–003迁移到gpt-3.5-turbo,只需要对提示进行微小的改动即可。
API调用示例:
# Note: you need to be using OpenAI Python v0.27.0 for the code below to work
import openai
openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Who won the world series in 2020?"},
{"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."},
{"role": "user", "content": "Where was it played?"}
]
)
API回应示例:
{
'id': 'chatcmpl-6p9XYPYSTTRi0xEviKjjilqrWU2Ve',
'object': 'chat.completion',
'created': 1677649420,
'model': 'gpt-3.5-turbo',
'usage': {'prompt_tokens': 56, 'completion_tokens': 31, 'total_tokens': 87},
'choices': [
{
'message': {
'role': 'assistant',
'content': 'The 2020 World Series was played in Arlington, Texas at the Globe Life Field, which was the new home stadium for the Texas Rangers.'},
'finish_reason': 'stop',
'index': 0
}
]
}
官方认证:更快,更准,更强
如果要问,除了成本的差别,gpt-3.5-turbo这样的模型与旧的GPT模型还有什么不同呢?
答案是,前者处理的是「具有元数据的信息序列」,后者处理的是非结构化文本。
而且,gpt-3.5-turbo与必应使用的模型也不同,微软称之为「新的下一代大型语言模型」,它比 和 GPT3.5 「更快、更准确、更强大」。
当然,考虑到微软在上投入的资金,它能够获得普通开发人员无法获得的技术,也就不足为奇了。更何况,微软还在Bing上大量使用自己的技术,就能获得更多的反馈。
有趣的是, 有网友发现,此次开发的API比网页版限制更小,更加「狂野」。比如,它可以细节地描述黄色和暴力的场景,还可以告诉你它不是AI,甚至是有意识的。
老板再也不用担心我泄密了
与此同时,还表示,如果开发人员通过API运行大量数据,他们还能够获得专用的实例。这样可以让开发者更好地控制正在使用的模型,比如你希望它需要多长时间响应请求,以及与机器人的对话可以持续多长时间。
另外,还宣布了一些政策的变更,这些变更都是基于开发者的反馈。
划重点!除非客户明确同意,否则它将不再使用通过API提交的数据来训练模型。
这种变化,大概会缓解很多人的担忧。此前很多公司就禁止员工使用,因为担心把用户输入的数据吐给其他人,从而泄露商业机密。
表示,正在努力提高正常运行时间,现在「工程团队的首要任务就是是生产用例的稳定性。」
此前,就有很多开发者在自己的应用中使用的常规GPT API了,而如今,官方 API的引入彻底打开了闸门。
对API具体的更改包括:
语音转文字,1秒仅需0.1美分
除了 API外,还发布了 API——一个由AI驱动的语音到文本模型。
它可以用来转录或翻译音频,费用为每分钟0.006美元。
从技术上讲,模型不仅是开源的,而且还受到了开发者社区的盛赞。
但如果需要实现语音到文本的快速转录,或者在手机等边缘设备上运行,那么能够利用强大的硬件的 AI,就是最佳选择了。
和 AI一样,一下就行了。
社交、学习、购物,这些APP都已经用上了
既然开放的是API,那么我们思路就要打开了。
毕竟,AI聊天机器人能做可不只是「聊天」。
本周,Snap公司为+订阅用户推出了My AI——一项基于 API的实验性功能。
据了解,这个可定制的聊天机器人不仅可以提供建议,甚至可以在几秒钟内为朋友写一首俳句。目前,的月活用户已经达到7.5亿。
Shop
通过 API,为自家用户量达到1亿的应用程序Shop创建了一个「智能导购」。
当消费者搜索产品时,AI就会根据他们的要求进行个性化的推荐。据了解,Shop的AI助理将通过扫描数百万种产品来简化购物流程,从而帮助用户快速找到自己想要的东西。
是一个6000多万学生都在使用学习平台。过去三年,与合作,在多个用例中利用GPT-3,包括词汇学习和实践测试。
随着 API的推出,也发布了Q-Chat——一个可以基于相关的学习材料提出自适应问题,并通过富有趣味性的聊天体验来吸引学生的「AI老师」。
Speak
Speak是韩国发展最快的英语学习应用,可以为不同水平的语言学习者提供真正的开放式对话练习和高度准确的反馈。
现在,Speak正利用 API为一个新的AI语音产品提供技术支持,并迅速将其推向全球其他地区。
此前,有些开发者试着自己在应用中接入的常规GPT API,却无法达到的效果。
这次,正式打开了官方的 API,为广大开发者打开了新的大门。
不管此举是抢夺市场的商业策略,还是希望所有开发者共同参与模型功能的迭代,开发出更有商业价值和创造力的应用,现在可以说,是真正成为了全人类的财富。
最后,关注公众号互联网架构师,在后台回复:2T,可以获取我整理的 Java 系列面试题和答案,非常齐全。
正文结束