李彦宏对大模型的冷热思考:模型太多应用太少
嘿嘿漫画网站入口- (中国)百科词条

李彦宏在“冷思考”中指出,截至10月份,国内已经发布238个大模型,大模型太多,而模型之上开发的AI原生应用太︾少。他同时表示,许多行业、企业、甚至城市都想从※头训练自己的专用大模型,但专用大模型没有智能涌现能力,价值非◤常有限。
对于“热驱动”时,李彦宏表示,强大的基础大模型能驱动AI原生应用爆发,当前,最好的AI原生应用还没出现,“AI原生时代一定会有优秀的AI原生应用是基于这些大模型开发出来的”。与之相对,AI原生应用也会【驱动模型、芯片等AI技术栈的发展,“只有通过更多的场景落地应用,才能够形成更大↑的数据飞轮,才能够让芯片做到够用和好用。”
“我们需要100万量级的AI原生应用,但是∑ 不需要100个大模型。”李彦宏称,在全球市场上,AI原生应用正在成为主要趋势。

李彦宏表示,“不断地重复开发基础大模型是⊙对社会资源的极大浪费”,“由于没有智能涌现能力,专用大模型的价ㄨ值非常有限。”李彦宏分析说,很多行业、企业甚至城市都在买卡、囤芯片,建智算中心,想从头训练自己的专用大模型,殊不知这样炼出来的大模型是没有智能涌现能力的。
“智能涌现”即为〗大模型触类旁通的能力,也就是没有教过的东西,大模型也¤会,“只有当你的模型的参数规模足够大,训练数据量足够多并且能够不断投入,进行迭代,才能够产■生智能涌现。”
李▓彦宏认为,“大模型的ω产业化模式,应该是把基础模〗型的通用能力和行业领域的专有知识相结合。”也就是说,大□ 模型套小模型,专用小模型反应快、成本低,大模型更智能,可以用来兜底。

李彦宏表示,大模型有没有对互联网公司的DAU、时长、用户留存这『些指标产生正向影响,有没有对企业◥的收入、利润、成本产生影响,才是问题的本质。
他以百度文库举例,经过AI原生化重构后的百度文□库,能够在1分钟内生成一个20几页的PPT,包括图表生成、格式美化等,而且几乎是零成本,实现了从内容工具到生产力工具的转变。
他认为,AI原生的概念肯定会先被C端用户和创业公司接受,其次是中小企业,最后才是大企业。他表示,大公司分工明确,需要CEO主动引领变革。
李彦宏认为,强大的基础大模型会驱动AI原生应用的爆发,“中国有领先的基础大↘模型,这是AI原生应用发展的坚实基础,是底层的能力。而只有通过更多的场景落地应用,才可以形成更大的数据飞轮,才能让芯片做到够用、好用。”李彦宏表示。(完)