字节“扣子”加入AI战场,2024大模型能搞到钱吗?
作者|张凯旌 来源|趣解商业(ID:qujieshangye)
大模型应用爆发年,谁能率先突围?
岁末年终,大模型厂商们又秀了一波“肌肉”。
2月1日,此前在大模型领域一直保持“静默”状态的字节跳动终于有了新动作,其上线了“Coze扣子”AI Bot开发平台;与过往聊天机器人的形式不同,“扣子”更像是2023年11月Open AI发布的GPTs,可以让用户通过聊天、调用插件等方式,创建个人定制版Bot,实现“0代码”开发。
图片来源:微博截图
除了字节下场外,猎豹移动CEO傅盛创立的猎户星空也在1月21日发布了自己的大模型Orion-14B;傅盛强调,在企业应用场景中,猎户星空大模型在结合企业私有数据和应用时,即可实现千亿参数级别的模型效果。
而诸如科大讯飞、三六零等在2023年就第一时间抢滩大模型的厂商,如今则正迅速迭代;前者在近日发布了星火大模型V3.5,后者则上线了大模型搜索App“360 AI搜索”。
就在不久之前,手机厂商也纷纷涌入了大模型赛道。1月10日,荣耀发布了自研的70亿参数端侧AI大模型“魔法大模型”,自此,华为、小米、OPPO、vivo、荣耀五家国产主流手机厂商在大模型领域齐聚。同时,大洋彼岸的苹果据传也正在测试在iOS 18中引入生成式AI功能。
图片来源:微博截图
“百模大战”似乎并没有随着时间的流逝而偃旗息鼓,反而是愈演愈烈。厂商们如今都打着怎样的算盘?2024年的大模型赛道会迎来新的重大变革吗?
01.
大厂涌入,赛道拥挤
ChatGPT的出现并非毫无征兆。
创造它的OpenAI早在2015年便已成立,并在2018年就推出了初代生成式预训练模型GPT-1,这也是ChatGPT最初的原型。
在此之前,业内的NLP模型(自然语言处理)主要是基于针对特定任务的大量标注数据进行训练,能力有限。
GPT在自然语言推理、问答任务和常识推理等方面取得了突破,为此它也获得了微软10亿美元投资。随后,从GPT-1到GPT-2,到GPT-3,短短2年时间里GPT的能力不断提高。
图片来源:OpenAI官网截图
2022年11月27日,随着由GPT-3.5修改而来的人工智能对话聊天机器人ChatGPT的推出,这个一直在小圈子走红的研究成果,才第一次为大众所认识。能聊天、画画、写文案、编代码,强大的功能,使得ChatGPT一经发布迅速走红,5天时间注册用户数超过百万,两个月时间月活突破1亿,成为史上增长最快的消费者应用。
消息传至国内,一石激起千层浪。人工智能竟然已经发展到如此地步了?震惊之下,淘宝上售卖ChatGPT账号甚至都成了一门生意。与此同时,看到巨大商机的各界大佬们,也纷纷下场,表态要尽快推出自己的大模型。
从2023年的3月到9月,各个互联网大厂在该赛道争先卡位。从百度的大语言模型“文心一言”、360的智脑大模型,到阿里巴巴的“通义千问”大模型、科大讯飞的星火大模型,再到腾讯的混元大模型,国内传统的三大互联网巨头“BAT”悉数下场。
此外,华为、京东、商汤科技、网易有道、昆仑万维(300418.SZ)等等都陆续推出了大模型产品,甚至连移动、联通、电信三大运营商,长虹等家电生产企业,清华、复旦、中科院等科研院所和高校,都发布了各自的大模型。
图片来源:华为云AI公众号
2023年5月的中关村论坛上,专家口中中国“10亿级参数规模以上”大模型的发布数量尚为79个;而据GitHub的统计数据,到2023年底国内已经发布的大语言模型接近300个。“百模大战”早已不是虚言。
不过相比当初外卖界的“百团大战”,“百模大战”对资金的需求更为苛刻。
根据NVIDIA官方信息,在训练底层模型阶段,训练一次1750亿参数的GPT-3需要34天、使用1024张A100 GPU芯片,而为了维持日常推理,OpenAI至少需要3.24万张A100;以此推算,ChatGPT仅硬件成本就超过了8亿美元。
昆仑万维集团CEO方汉更是公开表示,“没有2000张A100的卡,实验都做不了”。为此,海天瑞声、因赛集团等“AI概念股”甚至接连发布定增预案,募集资金用于训练大模型。
此时,如何在缩小与ChatGPT差距的同时,尽快找到应用落地的方向,并实现自我造血,成为了“百模大战”中,每一位参与者都要面对的问题。
02.
大模型,有何应用场景?
从商业角度分析,大模型带来的机遇,可以概括为成本减少效率提升、原有市场需求再扩大、创造新的市场需求三大类。
大模型超强的人机对话、图文及音视频生成能力,不但让其在传统客服场景中获得了广泛应用,对于游戏、影视制作等也产生了深远影响。
阿里、美团的在线智能客服算法,以及中国移动的“九天大模型”、中国电信的TeleChat大模型等,都属于此类产品,将应用场景直接锁定在了智能客服、智慧政务等方面。在2023年的亚运会上,科大讯飞与中国移动联合推出了基于星火大模型的5G新通话,接完电话之后,申请服务,会即刻转成文字、生成纪要、生成待办事项。
游戏、影视制作方面,导演陆川曾在采访时表示,“用AI画电影海报,15秒出来的效果比专业海报公司做一个月的还要好。”
图片来源:微博截图
原有市场需求再扩大,则体现在对于传统业务的升级上,这也是大模型应用最广泛的领域。
以传统的搜索引擎为例,接入文心一言后,在百度搜索框里输入问题,给出的可以不再是链接,而是一个更确定的答案。以此为基础,百度地图、网盘、文库等应用都能通过接入大模型进行重构。
旗下业务众多的腾讯,对腾讯云、腾讯广告、腾讯游戏、腾讯会议等多个业务和产品,也已完成了接入腾讯混元大模型的测试,并取得了初步效果。
图片来源:腾讯混元官网截图
此外,在传统的教育、医疗、汽车等领域,大模型也获得了广泛的应用。
接入讯飞星火大模型后,科大讯飞的学习机实现了AI一对一辅助教学、中英文作文批改、口语陪练等功能;百度推出了产业级的医疗行业大模型“灵医”;华为云盘古大模型的赋能,则让问界新M7在智能驾驶领域“遥遥领先”,两个月大定突破10万台。
在创造新的市场需求方面,AI超级助理、AI机器人等需求也被不断创造出来。前者,包括文心一言、讯飞星火、通义千问等在内的各家通用大模型都有相应产品,它们大都能理解用户的语言语义,并具备图像理解能力,可以通过调用软件API,使用各种各样的工具来帮助用户完成任务;而后者则已有包括优必选、追觅、宇树在内的不少于 10 家机器人企业,展出过相关产品。
图片来源:通义官网截图
不过,在一片欣欣向荣背后,也存在隐忧。比照各家大模型的应用不难发现,不管是提高效率还是扩大需求,市场上绝大多数的应用,实现的功能都较为雷同。
以AI学习机为例,除了科大讯飞有相关产品外,接入子曰大模型的网易有道、接入MathGPT的好未来、接入银河大模型的作业帮,以及接入文心一言的百度、接入360智脑的360,都有类似的产品在售。功能方面,各自宣传的也都大同小异,AI一对一辅导、全科AI作业助手、虚拟人口语教练等,站在消费者的角度,几乎很难体会到其中的差别。
尽管各家都能拿出一堆的排名榜单来论证,自己的大模型得分更高、能力更强;但体现在实际应用中时,那百分之几甚至是千分之几的差别,还是让人不得不产生疑惑:我们真的需要这么多大模型吗?
03.
2024会出现“杀手级应用”吗?
尽管市场中的大模型让人眼花缭乱,但行业对大模型发展的趋势还是形成了一定的共识。
百度创始人李彦宏就曾表示:“人类进入AI时代的标志,不是产生很多的大模型,而是产生很多的AI原生应用。”360创始人周鸿祎也在今年年初谈及大模型发展趋势时称,2024年将成为大模型应用场景之年,会出现“杀手级应用”。
这也意味着,大模型与C端用户的距离会越来越近。
字节的“扣子”平台就是一个例子。据“趣解商业”了解,其有着无限拓展的能力集,用户可以通过添加插件的方式,来不断强化自定义Bot的能力;此外,用户还能将本地文件上传到Bot的知识库中,供其学习;创建出来的机器人,还能部署在不同的社交平台和应用程序上。
图片来源:扣子官网截图
这等于是给用户提供了自己开发聊天机器人的机会,让更多人能参与到AI生态的建设中。
与此同时,大模型也正在经历软件、硬件一体化协同的过程。
在这方面,智能手机厂商无疑是业界的代表。据“趣解商业”不完全统计,在国产智能手机中,目前华为Mate60 Pro、小米14 Pro、vivo X100系列、OPPO Find X7系列、荣耀Magic6系列等手机都已搭载大模型。
这些大模型除了能让AI助手变得更为智能外,还有一个重点的应用领域是手机相册。原来想消除照片中的其他游客,只能用PS,且考验手法和技术;现在直接应用AI抹除功能,就能一步到位且几乎没有破绽。
类似的还有美图公司(1357.HK)自研的AI视觉大模型“奇想智能”。其已与三星达成合作,用户可以在Galaxy S24系列手机上体验AI图像编辑功能;不仅可以“智能p图”,还能通过用户给出的图片进一步生成“AI画风”。
图片来源:微博截图
与手机对标的场景是PC(电脑)。1月,联想已经发布了AIPC产品,其在内嵌大模型后,有更强的算力支撑能力、人机交互更为智能、应用生态也更加开放。
而金山办公(688111.SH)推出的WPS AI就是可以在PC平台上应用的软件产品。其将重点放在了智能文档上,可以帮用户轻松创作办公所需的文本、PPT,还能自主消化PDF等文件资料,并解答有关这些资料的问题。
此外,教育也是一个重要的应用场景。科大讯飞、好未来、作业帮、网易有道等厂商都将大模型融入AI学习机中,教育类学习平板电脑的销量更是在2023年直线上升。而且基于产品的迭代,学习平板的价格还在不断走高。
深度科技研究院院长张孝荣认为,大模型未来可能会朝专业化与个性化、低门槛化的方向发展。模型的功能会更加细分,针对特定领域或特定需求进行优化;同时通过提供更友好的界面和更便捷的接口,降低使用难度,让更多的人参与到基于大模型的开发和研究中。
而且由于算力所限,大模型可能更多地部署在云端和边缘端;这样可以降低计算资源和存储资源的消耗,提高模型的响应速度和可用性。
但无论是哪种趋势,都要与实际成本相结合;否则只是一味投入,显然难以为继。
三六零(601360.SH)在2023年上半年,尽管新兴业务“360智脑”创造了近2000万元营收,但在9.1亿元的总收入中,占比不过2.1%。
科大讯飞(002230.SZ)2023年预计扣非净利润同比下降71%-81%,主要原因就与公司在自主可控平台上加大认知大模型研发投入有关。
除此之外,如何让用户更好地理解大模型的决策过程和结果,提高其信任度,也是一个关键的问题。
04.
中外大模型差距在哪?
国内大模型产业如火如荼,美国则更甚。根据《中国人工智能大模型地图研究报告》,全球累计发布的大模型中,中美两国大模型数量占近80%。早在2023年5月,美国10亿级参数规模以上的基础大模型就已突破100个。
除了广为人知的ChatGPT外,美国具有代表性的通用大模型公司还包括Anthropic、Cohere以及Google等。
其中,Anthropic被称为“OpenAI劲敌”。其研发的聊天机器人Claude能一次性总结约7.5万个单词,比ChatGPT更适合处理长对话和内容、对大量文档进行深入分析,而且具备更快的平均响应时间。
图片来源:微博截图
Cohere的特点则是其差异化的定位。不同于OpenAI,其坚定选择了toB路线,提供灵活性存储和资料隐私保护路径,强调安全性、隐私及定制化服务。
至于Google,最新的情况是推出了AI模型Gemini,特点是多模态处理和对复杂逻辑的理解能力。在行业标准MMLU(多任务语言理解)基准测试中,Gemini是唯一一个成绩超越人类专家测试结果的AI模型。
图片来源:微博截图
北京市社会科学院研究员王鹏认为,中美大模型的差别主要体现在融资水平、基础大模型发展水平和应用层发展水平三个方面。
据不完全统计,2023年上半年,美国AIGC一级市场中,硅谷在人工智能领域融资总金额约140亿美元,占世界总融资金额的55%,平均轮次融资金额为3.3亿美元。同期国内人工智能领域则要谨慎得多,投资事件数量同比下降49%,涉及总金额61.74亿元,同比下降62%。
而在基础大模型发展水平方面,国内大模型还存在数据总量缺乏、算力资源缺乏、场景渗透率有限等问题。毕竟从公开数据量上看,英文数据本身占主导优势,美国还在采取多种方式限制中国获取算力的核心资源。
至于应用层方面,中国同样处于跟随状态;其中在办公、金融及医疗领域落后美国较为明显。
针对众多国内厂商都有宣称自家大模型已经超越GPT-4的情况,张孝荣认为:“从理论上说,某些厂商有可能在局部领先于GPT4,但考虑到双方在算法、算力和数据资源等方面的投入,国内模型全面超越GPT4的可能性比较小。”
在他看来,需要正视国内外大模型的差距,这涉及到技术、人才、资金等各方面的因素。
好消息是,中国有着超大的市场规模以及丰富的应用场景,为大模型的落地应用提供了广阔的空间和条件。而且越多的数据、场景,越能让大模型更实用。这让中国在底层研发技术上略逊于美国的情况下,依然具备赶超美国的机会。
但无论中国还是美国,在大模型这条赛道上都还有很多难题待解。最典型的就是输出结果可信性不足、稳定性不强、以及安全性等问题。
对于人和AI来说,这都将是一个长期的学习过程。
编者按:本文转载自微信公众号:趣解商业(ID:qujieshangye),作者:张凯旌
品牌、内容合作请点这里:寻求合作 ››
前瞻经济学人
专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。