火爆的ChatGPT让上亿用户感叹到它的强大,如今它也正在加速向商业世界渗透。OpenAI近日宣布对外开放ChatGPT API(应用程序接口),并掀起大模型“价格战”。
这意味着,企业或开发者可以通过API将ChatGPT集成到他们的应用程序和产品中,并比使用现有语言模型成本低很多。OpenAI称,通过一系列全面优化,自去年12月以来,已将ChatGPT的使用成本降低90%。
就在前不久,ChatGPT高昂的成本还引发业内热议,认为这只有巨头玩得起,催生了不少靠外挂等高额收费的黑产。马斯克还公开炮轰OpenAI背离初衷:从最初的开源的非营利性公司成为一家闭源的营利性公司,并由微软有效控制。
但这次OpenAI把ChatGPT API以外界看起来很低的价格对外开放,似乎又潜藏着一颗“普惠”的心。OpenAI表示,被节省的费用将会用来惠及更多的开发者。
晟云磐盾信息技术有限公司总裁郝峻晟接受搜狐科技采访时认为,Open AI给出来的ChatGPT API的定价,肯定不是按照成本来定价,这不太像是一个商业公司的玩法。
但这对于广大的开发者和企业来说,无异是打开了ChatGPT的大门。而随着OpenAI加速ChatGPT商业化,中国大模型厂商的压力又进一步加大。
100万个单词花18元仅为原来1/10,定价不是看成本
API是两个或多个计算机程序相互通信的一种方式,是一种软件接口,可以为其他软件提供服务。郝峻晟表示,所有这种平台型的人工智能或软件产品最基础的商业模式就是通过API的方式来落地,也是作为人工智能平台对外提供服务最便捷、最标准的方式。
借助ChatGPT API,企业或开发者可以创建人工智能驱动的聊天界面。OpenAI称,对于许多非聊天应用来说,它也是最好的模型。此次API接入的模型是ChatGPT模型家族成员gpt-3.5-turbo,这比ChatGPT背后的GPT-3.5更快更准确更强大。
值得一提的是,通过gpt-3.5-turbo的使用价格是0.002美元/每1000tokens,仅有ChatGPT使用成本的十分之一。按OpenAI的解释,平均1个token对应约4个英文字符,100个token对应约75个英文单词。也就是说,输出75万个单词需要2美元(约合人民币13.78元),100万个单词则需要花费18.37元。
OpenAI是按照输入和输出的总数来进行收费,如在API调用文字输入使用100个token,输出用到200个token,则需要支付300个token的费用。但总数需低于模型最大限制,当前版本gpt-3.5-turbo-0301的限制是4096个token,即单次输入输出总数最高是3072个单词。
郝峻晟认为,目前ChatGPT API肯定不是按照成本来定价。ChatGPT的成本高主要体现在训练模型上,有数据称其训练一次就要花费430万美元。“这其实就是固定投资,前期用的都是微软等外部投资。”
对于OpenAI为何能将ChatGPT API使用价格下降90%,郝峻晟分析称,这应该是固化了模型。“当模型不变,不做额外的新训练,用它来查询,成本取决于查询的复杂度和计算能力,这个比较低,主要就是电费。”郝峻晟解释到,该定价也可能有考虑到OpenAI自身的开放性。
“我不觉得这个价格比较低,或者说比较高,因为AI成本就是早期的研发投入,当它稳定或成熟以后,边际成本会很低,基本等于零。”郝峻晟表示,这就如同讲软件成本高,其实是软件开发成本高,而不是使用软件的成本高。
因此他并不认同OpenAI在打“价格战”的说法。“现在它也几乎没有对手”,郝峻晟说,OpenAI目前应该主要是发挥先发的技术优势,更多来做规模,让越来越多的人或者企业来使用,而不太考虑盈利。
OpenAI也提到,使用gpt-3.5-turbo的开发者将始终获得ChatGPT推荐的稳定模型,同时也可以灵活选择更符合需求的特定模型版本,并将不断改进ChatGPT模型,希望能把增强功能交付至更多开发者手中。此次发布的gpt-3.5-turbo-0301将至少支持至6月1日,并在4月还将发布gpt-3.5-turbo的下一个稳定版本。
加速企业端落地应用,中国厂商压力加大
作为史上最快突破1亿活跃用户的消费级应用,OpenAI对外开放ChatGPT API,为广大开发者和企业打开了新的大门,也是在商业化之路在谋求多点开花。
据《财富》杂志此前报道,2022年OpenAI净亏损总额为5.45亿美元。而OpenAI向投资者表示,预计2023年营收将会达到2亿美元,2024年将达到10亿美元。对于搭建了盈利架构的OpenAI来说,它也需要对微软等投资者作出回报。
今年1月,OpenAI就明确表示已经在考虑如何推动ChatGPT商业化,借此保证该工具拥有长期生命力。随后ChatGPT推出了面向个人用户的付费版本,包括42美元/月的付费版ChatGPTPro和20美元/月的订阅服务ChatGPTPlus,相较普通用户都有更多的福利。
但相较而言,它最大的商用潜力还是在B端。微软已将ChatGPT集成到微软Bing搜素引擎中,并计划将其推广到Office365、云计算等全家桶产品上,可以说是ChatGPT目前最大的“客户”。
郝峻晟表示,ChatGPT API的开放在电商、客服、零售、教育等行业都有较好的商业机会。同时,这也将带来了更多的创业机遇,软件领域创业的机会更多,在特定行业里做定制化的应用,包括多模态的人工智能,文件、语音、图像相关多模态的集成,都有可能实现。
目前,拥有7.5亿月活用户的社交平台Snapchat公司、学习平台Quizlet、生鲜电商平台Instacart、消费者应用程序Shopify等都已借助ChatGPT API推出了相应服务。
值得注意的是,OpenAI还基于API客户反馈宣布了一些政策的变更,其中提到通过API提交的数据不再用于服务改进(包括模型训练),除非企业选择加入,同时还对有关数据所有权的条款更新了修订。
这也意味着,不同于在跟个人用户互动过程中,ChatGPT可以借助用户数据进行反馈学习,此次开放给企业的API要想使用企业的数据进行模型训练,则需要获得企业许可。
郝峻晟认为,从研发角度或从训练人工智能的角度上来讲,ChatGPT除了互联网上的公开数据,还需要更多的企业私有数据,最直接的方式是让企业用户来访问ChatGPT,同时从企业得到一些非公开的商业化数据,这样能够帮助ChatGPT更好地解决商业落地上的问题。
“但企业有些商业秘密数据,不太可能会把这些数据提供给Open AI来进行模型训练,尤其是不太可能给ChatGPT的统一大模型。”郝峻晟认为,如果企业做私有化模型,还是需要用企业的数据来做训练,但这种基于ChatGPT之上定制的私有化模型开发成本会更高。
对于中国厂商而言,郝峻晟提到,由于中美两地政策监管,OpenAI完全没有必要跑到中国来做这个生意。“目前国内调配使用OpenAI API唯一合规合法的渠道可能就是微软中国通过世纪互联提供的服务,目前还不包括ChatGPT API。”
不过,近日有媒体报道称,微软已带着OpenAI旗下ChatGPT等服务,开始拜访国内企业。“国内还是自己来玩,产品出来了就看质量怎么样,但比ChatGPT可能还是会有差距。”郝峻晟认为。
百度李彦宏曾表示,怎么把ChatGPT这么酷的技术,变成人人都需要的好产品,这一步才是最难的,也是最能产生影响力的。如今,OpenAI通过开放API加速ChatGPT商业化,意味着无论在技术侧还是在商业侧,国内企业的追赶压力进一步加大。