新闻中心 /News
复旦大学教授肖仰华万字分享:走向千行百业的大模型
复旦大学教授肖仰华万字分享:走向千行百业的大模型我们显然已经进入一个前所未有的技术加速度发展的创新时代。2023年以来,以ChatGPT为代表的大模型、
在这样的时代背景下,大模型的场景与应用是否真正如大家看到的那般,呈现百花齐放的格局与生态?我们推进大模型应用过程中,需要承担哪些成本?又将能够为企业生产发展带来怎样的价值?以及大模型如何实现更好落地?
聚焦上述问题,复旦大学计算机科学技术学院教授、博士生导师,上海市数据科学重点实验室主任肖仰华在“2023复旦管院科创周”之复旦科创先锋年度论坛上以《走向千行百业的大模型》为主题分享了对大模型产业应用的见解,他认为生成式语言模型已经逐步向多模态、具身化快速发展,这一系列的发展趋势形成合力,将会为人们带来一场前所未有的 “通用技术”。
今天,我们系统地整理了肖仰华的演讲内容,用万字长文解读其对大模型的前沿分析,以下为分享内容:
我们所有的行业从业人员,自ChatGPT去年11月底上线以来,这一年是梦幻般的一年,这一年里,我们看到ChatGPT在不到2个月的时间里突破了1亿的月活,而此之前最快的TikTok实现1亿月活的用户为9个月,我们似乎一觉醒来就会见证了一些新的技术到来,我们IT研发人员,这一年每天早晨一开始都是一个新的开始,每天早晨最担心的第一件事儿是不是又发生了什么新的技术变革,我们这个饭碗还能不能端得稳,很多新技术的名词层出不穷,我们还没有弄明白一个新概念是怎么回事儿,另外一个更新的技术又冒出来了,我们似乎处于前所未有的技术加速发展的时代,唯一不变的是变化本身。
以一辆整车为例,有将近2万到3万个零部件,每一个零部件需要经历数万个零件组合而成的生产线,这样的加工流程可能有700多道程序。所以我们整个人类社会日益变成了人、机、物融合的复杂系统,这个系统的复杂性可以说是前所未有。实际上我们整个人类现代文明早就经历了早期的婴童阶段,而进入当下高度复杂的成熟阶段,“复杂”往往是“成熟”另外一个同义词。
快速发展的世界、日益复杂的世界带来的是人类很多社会系统不确定性增加。我们看到所谓的“黑天鹅事件”“灰犀牛事件”高频发生。我们又看到,当下老龄化的趋势加重,各种自然灾害频发,国际经济的竞争形势也在加剧,气候、病毒等各种因素叠加在一起,给整个世界的发展带来了巨大的不确定性。
在上世纪90年代,社会学家和经济学家已经在警告我们,技术发展有可能带来整个社会发展的失速,而带来所谓的失控风险。可以说当下我们全人类最大的问题、命题是如何应对日益失控的风险,但是我们人作为一种生物智能,我们每一个人的认知能力是有限的,我们在座每一个人差不多10亿个神经元,1万亿左右神经突触参数,而且今天的人类并不比1000年前的人类聪明多少。我经常开个玩笑,如果大家线个小时都是很困难的。这说明我们并不比古人聪明多少。这些事实说明我们人类的认知受限于生物智能的本质,其能力是有限的,而我们有限的认知能力难以认知当下快速变化、日益复杂、日益不确定性的世界,这是当下人类最大的问题。我们一定要把认知能力让渡给机器,让机器也一定程度上具备人的认知能力,进而开展人机协作的认知,才有可能认知日益加速变化、日益复杂的世界。
我们一旦把认知能力赋予了机器,机器的认知能力是可以随着世界复杂性的增长而增长。我们看到现在机器智能,只要喂给它的数据越来越多,只要供养它的算力越来越多,它的智能仍然在持续增长,唯有机器形成认知世界的能力,它才有可能跟世界复杂性的增长同步。所以,未来的认知模式一定是人机协作的认知模式。
当下很多技术的出现,某种程度上是时代发展的必然,是时代发展到今天对技术所提出的必然要求,我们必须发展人机协作的认知,人机协作的认知结果就是大家熟知的ChatGPT这一类的大模型,大模型可以认为是机器认知这个世界的一个技术成果。
我们看到的大模型,严格来讲是大规模的生成式语言模型,它已经能够在绝大部分人类所擅长的认知任务中,比如说自然语言处理、理解,超过人类的水平,甚至达到的专家的水平,可以说生成式大模型出现具有时代发展的历史必然性,它是机器发展认知智能的必然趋势。
而这样一个趋势在快速的发展中,我们看到不单单是机器人理解我们千行百业的文本,它又进一步快速向多模态发展,可以理解图像,理解我们现场的照片,并且做出非常精妙的回答,甚至可以像刚才说的,它可以操控机械臂,完成一些只有人类才可以完成的复杂规划任务。也就是说生成式语言模型已经逐步向多模态、具身化快速发展,这一系列的发展趋势形成合力,带来的是一场前所未有的技术。我们把这场技术称为“通用人工智能技术”,因为它已经让一些机器具备了一般人的认知能力,具备了开放世界的理解能力,而且这种通用人工智能技术绝不是传统意义上的某一次技术所能比拟的。
我们所熟知的蒸汽、电气,本质上都是人类智能本身的产物,唯独这一次的通用人工智能技术,革的是智能本身的命。大家想想看,人类社会生活、学习、工作中哪一个活动不需要使用我们的智力呢?但凡将来用到我们人类智力的所有活动,都有望被通用人工智能重新塑造。可以说通用人工智能将会渗透整个社会生产、生活中的每一个角落,将会渗透进社会的每一根毛细血管,所以它对人类社会影响将是广泛且深远的。所以我一直把通用技术视作是一场元,它不是某一次技术的地位所能比拟的。
这么一场技术,对于我们各行各业会产生什么样的影响?各个行业为什么从战略上如此高度重视这场技术?我们先来看认识层面上一些思考。
所谓的千行百业,大家所从事的行业,本质上都是某一个垂直行业。我们以前做人工智能,做了很多年各行各业的智能化解决方案,但是我们发现一直以来效果不好,直到后来ChatGPT出现,我们再去跟很多行业专家去聊,我们才发现通用人工智能、通用大模型的到来,实际上恰恰是发展领域智能不可或缺的。
我们知道通用大模型是通过通用语料炼制出来的,它看了很多互联网上各种学科知识,可以说它是一个通才。一个垂直领域智能化为什么需要通识能力?你跟医生聊的时候,你发现一个医生80%的情况会排除你是健康的情况,可能10个病人只有8个是健康的,只有2个是需要医生干预的,也就是说它想了解什么是疾病,恰恰先要理解什么是健康。推而广之,你不理解美怎么可能理解丑呢?所以你想理解某一个领域内概念,恰恰要先了解领域外的概念。
所以我们这一波行业智能化解决方案,恰恰是先走通通用认知能力,因为我们只有建立起通识能力才有可能发展专业认知能力,通识是专识的基础。
我们人类的也是这样,我们先经历了K12的基础,主要是完成通识教育,然后是大学的专业教育。所以没有通识能力是不可能有垂直行业的领域认知能力的。
我们这一波大模型本质上带来了什么新的能力?首先是带来开放世界的理解能力。比如说这里有一个药品说明书,显示了各个年龄层次服用药剂的方法,可是一般老百姓去问药的时候,通常说“我今年23岁了,男性,我应该怎么使用这个药”。以前的人工智能技术很难理解这类开放性表达,但是今天有了通用大模型能力,可以准确理解23岁是成年男性,可以匹配文档中相应的剂量来做出准确回答,本质上这是通用人工智能的开放理解能力给我们带来的效果。
现在的大模型又有着非常强大的组合创新能力,所谓的举一反三,学会了解决A任务、B任务的能力,就可以泛化出解决A+B任务的能力。我们以前人工智能解决方案非常痛苦,要教机器A任务的能力、B任务的能力,可是实际的用户往往给的真实任务是A+B任务,我们的方案就不行了,但是今天大模型可以准确泛化出新的组合任务的能力,这是大模型给我们带来的新价值。大
模型的评估评价能力,第一次达到人类的专家水平。我们以前很多评价任务一定要交给人类去做,比如说习语翻译,这是一个非常专业的成语翻译任务,通常需要找一个英语专业四级同学来标注翻译的好坏。今天使用超级大模型,比如说GPT4,我们只要能够写出这个任务的评价标准,以及一步一步评价的过程,大模型就能够像人类专家一样来做非常专业工作的评估和评价。所以基本上我们很多专评估评价业工作都可以交给大模型。
大模型的复杂任务的规划能力,使得很多知识工作自动化得以可能。举个管科同学经常要做的数据分析的案例。比如,我要大模型帮我做个调研,对比分析上海和北京近十年来每年8月份的平均气温,并形成统计结论,并且做假设检验。这样一个活如果让在座的研究生同学去做,可能要找数据,找软件,做分析,做统计,做假设检验分析,最后形成结论,我估计要花半天时间。但是今天我们借助大模型强大的规划能力,只需要一秒钟时间,就把你手工干的所有活全部自动化干完。这是好事儿也是坏事儿,好事儿意味着你只要能够熟练使用大模型就不用花这么多时间手工工作,坏事儿是你的常规数据分析工作有可能被机器所替代。随之而来的,是在AGI大量应用的未来,我们相对于机器的独特价值是什么将会是我们需要日益深入思考的问题。
大模型另外一个非常重要的机遇在于它给我们提供了跨领域、跨专业知识,尤其是跨系统边界的知识。大模型是巨大的知识容器,尤其擅长在一些跨学科边界处的知识,可能是人类所不具备的。
最近有一个新闻,他说一个小女孩儿得了个怪病,看了人类近14个专科医生都搞不定,最后问ChatGPT,ChatGPT做出了正确诊断。我倾向认为这个新闻是真实的,因为大模型学会了各个学科的知识,而且它在各个学科的知识专业水平比普通人显著高出一截,我们每一个专科医生往往在自己的专科是一座知识的高峰,但是你很难在所有的专科都是一座知识的高峰,大模型全域认知水平线显著提升之后,就能够认知两个病种之间的盲区,这是人类历史上第一次有机会做到这件事,而我们每一个人类是难以做到这一点的,我们能够擅长某一个领域已经非常不容易了,但是今天大模型很可能在很多系统边界处有着非常强大的认知能力。
管科的同学肯定都听说过管理上难题有一些难度,我们一旦听到跨部门、跨层级、跨专业,有一个“跨”字基本上意味着难题所在,我们每一个人的认知只能擅长自己各自的小领域,而不同的部门、不同学科之间认知往往是一个巨大的盲区,这恰恰是大模型未来给我们带来的重大机遇。大模型所能认知的跨学科知识,其很多内容可能是人类从未探索或触及的,所以大模型给我们带来的机会有可能是前所未有的。
回到我们的千行百业,正是因为大模型具备这些能力,我倾向于认为大模型这一次对于行业发展来讲,对于to B行业发展来讲,是一次全新的智能引擎升级。这就像一辆车,我们车发展了几百年,这个车还是一个壳子、四个轮子,这个车到底变革的是什么?变的是它的引擎,从开始的马力,到后来的蒸汽,再到后来的油气,再到现在的电动,所以引擎一直在驱动车的变革。
我们的信息化服务、数字化、智能化也发展了几十年,从传统的小模型发展,比如基于少数参与的回归、分类模型、预测,这些小模型的表达能力有限,难以表达复杂的现实世界。再到过去的知识工程,用专家知识来解决问题,但是专家知识一旦遇到开放问题就难以胜任,所以传统的引擎多多少少有缺陷,我们今天把它革新为新的大模型引擎,用整个大模型驱动to B的数字化和信息化过程当中,一定要重视几个问题:
我想强调的是toB行业应用本质是一类复杂、严肃的决策任务,我们所熟知的ChatGPT最成功的应用目前是聊天,但是这个聊天不是一个严肃应用的场景,你不会因为它聊天出错就认为它聊得不好。,说严肃应用场景像医疗决策、投资决策,这些都属于复杂决策,需要有专业的知识,更要有复杂的决策能力,比如说投资决策,一定要有宏观态势的研判能力,还要有综合任务拆解能力、复杂约束的取舍能力(有那么多的约束要考虑)、未知事物的预见能力、不确定性场景的推断能力等等,这都是我们做决策的时候所要具备的能力。从这些条件、要求来看现在的大模型,仍然还是有漫长的路要走。
在这个过程中,大模型想在千行百业创造价值PP电子试玩 网页版,首要解决的问题是它所谓的“幻觉问题”,也就是一本正经的胡说八道,如果大家问它复旦的校训,它一本正经的给你回答,但是你仔细一看这个出处是编造出来的,而且大模型这种一本正经的文风,实际上使得我们从中识别错误异常困难。这是为什么很多严肃的场合大家不敢用大模型的一个很重要的原因。比如说医疗行业,医疗写病例或者什么,如果它一本正经给你写了一段病历,结果有一个小数点的错误都可能是致命的。所以这是大模型往行业里应用的时候必须要解决的问题。
大模型往往还缺乏领域的忠实度,因为它已经在通用领域学到了很多通用知识。但是我们往行业去用的时候一定是希望大模型能够根据行业的规范与知识去回答问题。但是它往往对于你行业所给的这些知识,缺乏必要的忠实度,而倾向于用它所学到的一些通识知识来回答问题。这是所谓的缺乏忠实度给我们带来的问题。
回到今天,当我们去看大模型往行业去用的时候,我们一定会去想我们如何在行业创造大模型的价值,也就是说场景和应用的问题。事实上很多人都在思考类似问题,经常有人问我们中国的大模型应该怎么去发展。事实上,我的一个基本的观点认为大模型的这个赛道是百花齐放,我们没有必要都专注在通用大模型,虽然通用大模型很重要,我们还可以发展很多行业大模型,甚至可以发展很多垂直的场景化的大模型,还有很多科学大模型。这个赛道足够宽广,我们每一个企业都可以发现你属于自己独特优势的竞争机会。
尤其我想强调场景化大模型的重要性。大家有没有发现人类有一种工作岗位,只需要通识能力再加上简单的岗位培训就可以胜任的,比如说客服、HR,你听说过HR的工作岗位一定要招一个博士学历的吗?你听说过客服一定要招博士学位的吗?很少,但凡不需要博士学位的岗位都有一个特点,那就是通识能力加上简单的工作岗位培训似乎就可以胜任,这一类岗位我把它称之为“场景”,所有的行业都需要有HR,所有的行业可能都存在客服,再比如程序员、图书管理员,这些行业有可能是大模型优先代替的行业,为什么?因为大模型有通识能力,你再给它简单的岗位培训,就足以胜任相应的工作。
这些场景有什么特点?你会发现这些场景多是所谓的窗口性工作,很多岗位追求服务的标准与规范,不喜欢创新,必须按部就班,越是这种工作岗位将来越容易被大模型代替。所以你会看到这些场景商业机会巨大,我们不一定需要卷通用大模型赛道,我希望中国企业在这些细分赛道与场景进行积极布局。
还有一类是可以竞争的是专业大模型,我们经常说如果我们做一个化工行业的大模型,必须要让大模型首先理解什么是化学分子表达式,否则怎样才能真正理解化学这个行业呢?所以像化学分子结构这种专业大模型,还有比如说基因大模型、代码这些大模型,将来都是我们可以积极作为的新赛道。
大模型应用赛道有一个非常重要的产品形态是场景化的认知智能体,刚才黄总说的就可以认为是一个智能体。当我们说智能体的时候,强调的是实体机器人或者具备一定环境自适应的自治能力,它能够根据环境的反馈作出相应的动作来适应这个环境,所以我们把这种称之为具备环境自适应能力的“自治智能体”。
智能体并不是今天才有的概念,其实很早就有了,从人工智能早期诞生开始就有了,但是我们早期的智能体仅限于跟物理环境做一些简单的交互,但是今天最大的机会在哪?大模型可以作为智能体的大脑,有了大脑后就可以跟环境做复杂交互。未来的机器绝不简单单只是跟环境做一些物理的交互。它可以跟环境做非常复杂的认知交互,而成为“认知”智能体。我们将来会有各种各样的认知智能体。比如说代替你个人,有着跟你一样的言行和思维方式的智能体,它就可以代替你在网上聊天、阅读新闻等等。
我们将来会看到各种各样的认知智能体的出现。比如说我们研发了一个叫Travel Agent,跟他讲我过两天要到加州,它就会给你去调用互联网各种各样的工具,比如说谷歌地图、计算器、机票APP、酒店APP,给你制定一个会考虑各种各样约束(比如你肯定不希望同一个景点玩两次),并且充分考虑你的个人偏好的Travel Agent。这类Agent将来会在日常的生活中大量普及,这种大模型赋能千行百业,一个非常重要的产品形态就是各种各样场景化的Travel Agent。
你可以试图想一下,你现在干的所有工作,将来都会变成若干个Agent,比如说行政助理定会议室,将来会演变成行政助理Agent,我们人力资源面试工作可以做HR Agent,我到网上查文献可以做文献检索Agent。未来我们身边会有各种各样的Agent,来完成各类自动化服务。对于to B企业,我们企业现在可能已经有自己的信息门户,但是你们现在的信息门户仅仅是一个信息集散地,它的交互方式还不够智能,我们往往迷失在信息迷宫中找不到所要的信息、能够解决特定问题的应用或服务。未来的企业信息门户一定是智能化的Agent形式,它能根据用户的意图和企业现有信息系统进行打交道,并且能够跨越不同的系统来帮你完成你想做的任务。
我最近正在组织同学帮我们复旦信息化做一个复旦信息门户Agent,我们每一个同学将来想干的任何事情,比如说我现在想放松一下,打一小时球,它可以自动去找各个校区哪里的体育馆、羽毛球馆还可以订,推荐给你。而,现在,你若要完成干的这样的事情,必须主动去是需要查找各种APP,甚至你都不知道APP在哪,也往往很难制定准确的关键字你也不知道怎么去查找。而Agent技术,有望缓解当下的这些尴尬。,将来它可以帮你干这个事情,这些将来都是会发生的事儿。
从应用和场景的角度来讲,大家一定要注重我国当下正在发生的一个非常重大的事件,就是数字经济的发展,我们国家正在推动数据要素的市场化。数据从静态的变成流通的,变成可交易的,这个时候会创造非常多新的机会。在这个过程当中,大家会发现我们目前的资产化过程并不流畅,因为我们缺乏智能化手段,数据治理仍然是困难重重。但实际上,大模型已经一定程度上具备了智能化的数据治理能力,可以利用大模型来推动数据的智能自动化的治理。比如我这里给了一个例子,给了它四行数据,然后问大模型这个数据有什么问题,大模型已经准确识别出了这个数据里存在的问题,比如说张三是小明的父亲,他出生年龄是1978年,小明出生年龄是1980年,父亲是不可能只比孩子大两岁的,以前我们数据中存在一些错误,我们人工去写规则很难覆盖各种各样的情况,今天用大模型基本上可以做到这一点。
所以大模型有可能成为今天释放价值的一个非常重要的一个工具。但是我们推动大模型往各行业用的时候,必须要去考虑一个成本和价值的问题。
首先,大模型降低了我们的成本。以前要想实现智能化,要去标数据,要去定义特征,这都需要成本。但是大模型它本质上是zero-shot learner,它不需要或者只需要很少量标注数据,就能学到解决问题的能力。所以我们传统的这些特征工程样本标注的代价就节约了。
但是我们一定要注重大模型本身的炼制和使用成本。首先是炼制成本,像GPT4这种规模的大模型一次训练需要6300万美金。非但炼制成本不容忽视,大模型的使用成本更加值得关注,尤其是千行百业应用大模型时,其应用成本十分突出。比如说一家公司每天要做100万篇互联网文档内容分析,如果用大模型,比如GPT4的API,一天下来大概要花26万人民币。而且大模型还有一个大家难以接受的成本,就是其生成过程需要时间,它把10026万篇处理一遍的完整生成过程需要15天时间,也就是处理这些文档的速度远远跟不上产生文档的速度,所以这个时间成本是现实应用难以接受的。
我想告诉大家的是,到今天各行各业拥抱大模型的时候,一定要注重它的成本问题,如何降低成本?首先是大小模型协同,我们并不需要在是任何场景都使用大模型,很多情形下时间我们用大模型的使用是杀鸡用牛刀,其实小模型仍然有其用武之地,并没有因此而失效,我们为什么不能在简单的情况下用使用传统的小模型从而降低成本呢?只有在非必要的场合下用大模型呢?甚至我甚至提出一个原则叫“非必要不直接使用大模型”,否则这个成本怎么降低呢?
大家注意到GPT4-Turbo版本颁布发布的时候,成本降了三分之二,我们认为背后也是用了大小模型协同,而且大小模型协同绝不单单是出于成本的考虑,也是出于效果的考虑。小模型在可控、可理解等方面是有大模型不可比拟优势的。大模型不可控,它学到了什么我们不知道,,所以这都是它很大的一个问题。可以说,未来商业价值取决于我们能不能把擅长通识能力的大模型和擅长专业能力的小模型协同,才有可能真正的创造我们的商业价值。
在这里面尤其要注重传统知识库的积累,知识图谱的积累仍然十分重要,知识仍然是缓解大模型的幻觉,降低大模型的应用成本的,这是非常重要的这个思路。我们实际上在大模型的应用的各个阶段,在大模型的提示阶段、生成阶段和评估阶段,都要把先验知识用好,我们才能够让大模型廉价的、高效率的为我们服务。尤其还要注重大模型的小型化,真正在一线服务大家的往往是经过压缩的小模型,而不是真正意义上的大模型。还要注重时效性,马斯克的大模型之所以受到关注,是因为他想解决时效性问题。
第一,我们要把大模型整个炼制过程变成科学,现在大模型的炼制非常像传统的炼金术炼丹,把所有的数据准备好往服务器一丢,祈祷它出好的效果,实际上整个过程是不透明的,我们要想把它变成透明、科学的,仍然需要努力,其中很重要的努力是对语料做精准的刻画,我们到底用什么样的语料能够练出什么样的能力,我们要建立起其之间的因果关系,这样才有可能真正把大模型从炼金术发展变成科学,这个过程中跨学科研究尤为重要。大模型的能力发展跟人类的认知发展理论存在着高度可映射的关系,人类认知发展什么时候发展出了注意力,什么时候发展出了信念,什么时候发展出了,人类认知过程的大模型很多术语被大量地应用在的在大模型训练中去使用。这种跨学科的研究视角对于推动大模型训练工艺变成科学严谨的过程可能非常重要。
做行业大模型的时候,尤其要注重数据的选择,不能盲目配比数据。到底把什么数据配给大模型,它才能够具备金融从业人员的专业认知水平,其实这个是非常有意思的问题,事实上你把一些金融行业的基础数据让它去训练是不够的,你把一些非常细节的数据(比如每时每刻的股票交易价格)让它去训练也是不必要的行的。我们可以多反思一下一个普通人是如何成长为金融专业人员的,它是因为学到了什么知识才能够成为金融从业人员的?我们可以通过回答类似的问题对大模型行业训练过程进行指引。
大模型的炼制过程跟我们调教一个行业专家的过程已经高度相似,整个过程中我们尤其要注重高质量指令数据的收集,高质量指令数据可以释放底座大模型的价值,反之如果指令数据集质量差,会伤害底座大模型的能力。所以行业大模型最终很大程度上取决于指令数据的质量。
整个过程中我们还需要进一步提升大模型的多模态认知能力,比如说上传一张票据,问里面包含鸡蛋的菜品一共有多少价格,像这种多模态认知能力在行业应用中非常有价值,比如大家拍一张乱七八糟网线的接头照片,问哪里出了问题,像这样的能力将来大模型一定程度上可以具备。这都是要去提升它的这个多模态认知能力。
你要让它成为金融专家,就必须要有金融行业的评测,你需要发展面向知识的评测,要去测试这个大模型是否掌握的金融知识,更需要发展面向能力的评测。,注意有知识的不代表有能力,我们有太多高分低能的大模型。所以我们不单单要测评它是不是掌握了知识,还要去测评他是不是像人一样能够具备解决实际问题的能力。还需要去测评他是不是有足够的智商,需要测评是不是有足够的情商。你跟很多大模型讲,“我去药店买药了”,现在很多大模型的回复是“祝你购物愉快”,这种情商很多人难以接受,但是如果你问GPT4你会发现还是不错的。所以情商、智商评测也很重要。
一个大模型的行业落地路径跟行业专家的演进路径何其相像,一个医生成为一个行业专家,首先要完成通识教育,现在的通用大模型就是帮我们完成通识阶段的教育,然后要进入医学院学习专业知识,这是专业大模型干的事儿,再进一步使用各种各样的工具,这就是让大模型变成Agent,然后能够在实践中获得反馈,这就是他变成实习医生了,再然后经过实践的反馈,获得行业的洞察,形成敏锐的行业直觉,变成真正意义上的专家。所以大模型在千行百业的应用道路上本质就是利用大模型实现专家水平的认知智能的过程。
最后总结一下。我们推动大模型往行业千行百业应用的过程中,一定要合理定位、正确认识、场景多元、积极开辟新赛道,注重大模型的成本和价值,促进大模型和千行百业的深度融合,大模型绝不应该只停留在炼金术阶段,我们要推动它变成科学,大模型必须跟行业深度融合才有可能真正的可持续发展。