天天报道:第四范式版GPT发布,CEO戴文渊:参数量高达千亿,旨在重构B端软件|钛快讯

2023-04-27 14:03:40 来源: 钛媒体APP

第四范式创始人、CEO戴文渊(来源:钛媒体App编辑拍摄)

ChatGPT热潮下,又一家AI公司入局国产大模型赛道中。

钛媒体App获悉,4月26日下午,人工智能(AI)平台公司第四范式在北京推出其GPT大模型产品“式说3.0”(4Paaradigm SageGPT),并首次提出AIGS战略(AI-Generated Software),即生成式 AI 重构企业软件。而“式说”将定位为基于多模态大模型的新型开发平台,以提升企业软件的体验和开发效率实现AIGS。


【资料图】

会后,第四范式创始人、CEO戴文渊向钛媒体App表示,目前“式说”大模型参数量并不固定,最高达到千亿个,产品已经有十多家企业内测合作。

“参数量其实是一个辩证的问题,我们没有一个固定的参数,给到不同客户的参数量也是不一样的,会根据客户不同场景,可能会有几十亿、几百亿参数版本。千亿万亿参数只是代表你最高的能力,但高参数意味着思维能力要求更高、算力高,而客户场景不一定需要这么高的算力要求,因为不是所有场景都能接受千亿参数量成本,所以客户要选择(大模型)。”戴文渊强调,此前B端的企业级软件的交互体验极为复杂,拉低了产品开发效率,如今生成式AI(AIGC)对B端软件重构和改造空间足够大。“式说”每天都在进步。

据悉,第四范式成立于2014年,主要为企业端服务,聚焦于决策型 AI 领域,提供以平台为中心的 AI 解决方案,目前该公司解决方案已应用于金融、零售、制造、能源电力、电信及医疗等行业。最新招股书显示,2022年,第四范式营收达30.83亿元,同比增长52.7%,过去五年亏损净额达53亿元。(详见钛媒体App前文:《第四范式四赴港股IPO:2022年营收31亿,过去五年亏53亿元》)

相比其他产品,第四范式的大模型更偏向于企业生产力。该公司表示,在2018年谷歌推出BERT之时,第四范式旗下范式研究院就开始关注并投入在这一技术中,GPT-3出来后更加明确了方向,ChatGPT对其的帮助就是确定性的投入更大了,第四范式正把GPT模型从产品推进到商业化市场中。

今年3月,第四范式公布了企业级(To B)AIGC产品SageGPT(式说大模型),主要解决垂直行业生产力问题。戴文渊称,相比最初1.0版本,如今“式说3.0”增加了多模态、Copilot(创作工具)以及思维链CoT,具有更强的推理能力,在学习大量数据和“攻略”后,能形成中间的逻辑推理步骤,从而做到拆分并执行复杂工作。

据第四范式4月24日提交的招股书显示,ChatGPT这类生成式 AI 大型语言模型(LLM)是一种通用 AI 模型,与此前第四范式聚焦的决策类 AI 属不同技术体系,因此意味着“式说”属于该公司第二个技术体系路线。该公司引述灼识咨询称,未来 AI 技术将不会是由通用 AI 模型主导,而是可能更加多样化,当中通用 AI 模型(如LLM)和专门的 AI 系统(如决策类 AI 模型)会就不同目的共存,底层技术及使用场景两者有本质上差异,两者在价值定位上更具互补性而非互相竞争。

对于GPT是否会取代决策类 AI 软件方案,戴文渊告诉钛媒体App,从商业化角度来说,两者都在其一个解决方案中,解决两种问题。具体来说是根据客户需求分为策略和执行,如果企业策略、管理就用决策类 AI,而解决执行问题、数字化员工时用生成式 AI 技术(如GPT)。“这就是量变到质变的过程。量变是,有了生成式 AI 会变得更快,而在决策类 AI 指导下,企业能更好地完成它的‘质变’,两者间是一个相辅相成的关系。”

据悉,“式说3.0”能够处理视频、图像、语音、文本等形式的查询及任务,把这些信息转化成用户软件能读得懂的指令,软件输出响应后,能将结果展示出来。

为了表达“式说3.0”不是线上调用ChatGPT,戴文渊在现场让团队切断公网、访问内网集群。随后,他演示了“式说3.0”的文生图、对话、写文章和写代码等能力。比如问“五一要去硅谷旅游,有什么推荐的地方”会反馈谷歌、斯坦福大学等景点信息。

不过,在输出《流浪地球4》剧本大纲以及生产5nm人工智能芯片步骤等问题时,式说存在一些逻辑和回答不清等。后来戴文渊解释称,这主要是没有基于知识库的对话理解,他强调语言组织能力是否好比回答正确与否更关键。

在现场,第四范式还请了三家客户企业代表,上台演示与“式说3.0”合作的大模型应用落地产品。

其中在航空制造领域,第四范式帮助改造飞机数模软件的交互形式,研发者上传零配件图纸并输入文字要求,软件就能帮助搜索相似的零件,或者提供零件装配的建议;在医疗领域的随访管理软件上,医生可询问当天随访时指标超标的病人信息,软件便能理解医生的要求,提供相关信息,而且大模型可在用户关怀、业务绩效、医药工厂的库存管理等场景解决实际问题;在金融领域,“式说3.0”的问答形式可以准确解释、说明金融产品和其带来的风险措施。

金融客户代表在演讲中提到,他们更关心大模型在企业落地时面临的挑战,包括内容可信风险、数据安全风险和落地成本高昂,成本是其中重要的选择理由。“外面一个大模型训练一次成本要460万美金,不是我们这样中小银行能够扛得住的。我们是小玩家,因此这部分使用成本要达到我们可接受的范围内。”

戴文渊表示,由于新的交互形式的出现,企业软件的开发效率变得更高。以前月级别的软件开发时间,现在GPT洁面只需要一个“对话框”,大量语料都可以输出,只需改背后的数据、API和内容,因此开发效率变成了天级别的,而且式说大模型还会update不断更新。

当被问及与其他大模型的市场竞争时,戴文渊坦言,大家的市场策略是不同的,寻找自身定位比竞争更重要。

“很长时间很多人问我一个问题,就是你们怎么跟商汤竞争。其实我创业到今天,从来没有在一个客户那里碰到过商汤。我们把AI拿掉,可能是salesforce,如果商汤把 AI 拿掉可能是海康威视。你说海康威视怎么跟salesforce(SAP)竞争。其实大模型也是一样的,未来会是一个非常宽泛的话题。很难说怎么竞争,但至少第四范式是在AIGC领域的定位比较清楚的。我相信很快大家都会找到自己的定位,而不是所有人都是竞争对手。”戴文渊表示。

对于算力和美国制裁带来的采购影响,戴文渊坦陈,在出口管制约束下,相对美国AI公司,中国公司在大模型上的相对劣势便是算力成本,芯片无法进口。但他提到有两大机遇,一个是“东数西算”战略实施可节省计算成本,另一个是对GPU(图形处理器)的国产替代抱有信心。AI视觉领域追求的是单卡计算速度,现在大模型更看重卡间并联,国产GPU可以未来在存储计算分配、带宽调整等卡间并联相关任务上革新。

戴文渊向钛媒体App强调,GPT大模型成本比决策类 AI 成本更低、效果更好一些。前者训练一次能落地到不同的场景当中,后者成本降低需要覆盖很多生产、人力成本等,边际成本不如GPT大模型更大、更有价值。但问及第四范式何时能盈亏平衡时,他没有回应。

“AIGC 浪潮已经开始了。未来可能每一天都会给我们带来很多的惊喜,包括我们自己也在享受着每天都有新的成果的出现。今天我们分享了第四范式在AIGC领域的盈利、愿景、实践技术,我们想做的‘式说’这种生成式AI技术可以重构起生产力,即所谓的AIGS。而我们现在做到的其实只是小小的一部分,并且每天会发现这件事比我们想象的会更大。在未来的日子里面,我们也会全力以赴来实现愿景。”戴文渊在演讲结尾称。(本文首发钛媒体App,作者|林志佳)

标签:

相关热词搜索:

[责任编辑:]

最近更新