日期:2023-06-05 07:00:54 来源:企业思想家
“未来,我认为最具革命性的AI2.0应用是AI-First。”创新工场董事长李开复在演讲中说道。
什么是AI-First应用?就是指那些离开大模型就无法存在的应用。
(资料图)
5月28日,创新工场董事长兼首席执行官、创新工场人工智能工程院院长李开复在2023中关村论坛上,发表了题为《AI1.0到AI2.0的新机遇》的演讲。
他在演讲中针对那些对大模型发展存疑的声音,从大模型发展的商业价值、AI2.0对未来应用生态的影响以及中国大模型发展的展望等方面,给出了自己的见解。
他表示,即便是不完美的大模型,也存在几十万亿美元的商业价值。未来的AI2.0市场预计将是移动互联网规模的10倍,容纳得下巨头、中小企业、初创公司在三个层级的赛马。期待能形成巨头、中小微创新企业一起发展的“创新综合体”。
以下是李开复演讲全文(有删减)
很高兴有这个机会从我们投资机构的角度来看最近的AI2.0,我可能是投资机构里最懂AI的,也可能是AI领域里最懂投资的。这两年看到整个AI2.0和大模型的启动,我感到很兴奋,几乎把过去5年的相关论文都读了一遍。创新工场的投资、科技团队也都在研究这个领域,为此还特地到美国去了解OpenAI、Google和微软的一些最新动态。
今天我想介绍的不是创新工场投资的公司或者其他实际的业务,而是针对近期很多关于AI2.0大模型方面的质疑,希望能够做一个比较通俗的讲解,对大家有所帮助。
01
大模型的商业价值
什么叫AI2.0?在我们创新工场看来,从投资产生经济价值的角度,将AI的发展阶段划分为AI1.0和2.0。AI1.0是AlphaGo之后发生的深度学习,以及这种深度学习进入各行各业并创造了价值。
AI1.0从八九年前就开始发展了,但是这两年碰到了一些瓶颈,而这些瓶颈正好都是大模型能够解决的。AI1.0遇到的瓶颈是什么?当时还没有大模型的时候,我们要做一个领域的AI应用,需要去该领域收集、清洗、标注数据,然后再拿去调整模型,整个过程的成本是非常昂贵的。
对于像抖音、阿里或者百度这样的大公司来说,那是没有问题的,他们收集的数据实在太多了,可以用来赚钱的机会也很多,但是如果你是一家银行、保险公司或者工厂,那么在AI应用的落地方面就存在巨大的问题,成本高得难以承受。
而大模型的特点就在于可以一次性训练一个大模型,然后当你要应用的时候做一个迁移学习或者微调就可以。AI1.0时代每个应用都是一个孤岛,但有了大模型之后,一次性用海量的数据去训练一个基础大模型,再用这个模型去调适所需的应用,这样成本就降低了很多。比如类似“小爱同学”这样的音箱产品,可能会碰到一旦跳出“小爱同学”懂的领域,它就蒙了,你会发现智能音箱其实并没那么智能,它只能做一些放音乐、查天气的简单事情,还有很多事情都做不了。但是当你放了一个类似ChatGPT的东西进去,它的知识储备就被激活了,只要你把它的对话模式调整好,就能成为一个非常好的对话机器人。
即便一个非常完美的大模型,它还是有相当大的商业价值,甚至是几十万亿规模的商业价值。这就看人类如何与它协作,也就是所谓的Human in the loop。
记者用AI来帮助他写作,或者律师用AI来帮他做诉讼,最后只要这个文章或者诉讼还是由人来把关和负责,AI只是做一个初步的撰写,那就没有问题。人知道AI会犯错,所以只是让它打一个草稿,并不会让它直接服务用户,确保用户不会被它错误的信息伤害。
AI充分发挥其海量数据基础的优势,比如可以在看了1000篇文章的基础上写出新的总结,看完过去一万个历史诉讼的基础上写出总结,这些高质量的总结可以让记者或者律师得到有用的信息,让人来把关AI有没有犯错。
还有就是在某些领域里,大家其实不在乎AI犯错,比如在娱乐的应用里,做个游戏里面的英雄,胡子长一点短一点,都是无伤大雅的,或者它讲错了一句话也没什么关系,反正在游戏里都是杜撰的。其实很多应用领域是可以容忍这些不完美的大模型的,基于这个事实的分析,AI在生产力方面的应用有着巨大潜力。当然有些领域非常关键,是不能容忍犯错的,比如新闻搜索、政府的网站或者是医疗教育相关,这些领域就很难做,未来需要解决大模型犯错这个问题。
02
AI2.0改写应用生态
我们完全可以想象今天的Word、PowerPoint、Excel、Photoshop等应用通通都会用AI大模型重写一次,而且重写之后它的用户体验会变,甚至商业模式也会变。还有一些领域,他可能犯错的代价不是太大,比如用来做广告的推送,一个广告推错了,也是无伤大雅的。今天我们本来就被错误地推送了很多广告,我们打开电视和网站所接收到的广告也不是有针对性的,但是AI可以让广告变得更有针对性,虽然偶尔它也会犯错。
所以仅仅是上面这几个领域,我觉得就是一个几十万亿美元的机会了。当然我们还要继续努力,降低它胡说八道的频率,这里有一整套的方法,从预训练的数据到训练的对齐,再到之后的处理,还有一些预警和临时能够快速修正的方法,这些结合在一起,我相信是可以做到的。
生产力是最大的机会。AI2.0大概有三个生态,我们平常谈到最底层的是基础模型,刚才上面谈到的是最上层的应用层,比如帮你们写稿子、写诉讼、画图、抠图等。还有一个中间层,提供模型精调、推理迁移学习的各种工具,帮助大模型更高效地实践。中间层有两个部分,第一种是从基础模型层往外扩展,比如说模型做得这么大,需要做推理的时候能不能把它缩小,针对某一个领域把一个大模型变成一个小模型,或者刚才讲的去降低胡说八道频率的问题。
另外一种是从应用层往下的调整,比如我们要重写一个photoshop的时候,你可以讲一句话图就出来了,但是可能还要再进一步说我要把彩虹颜色变一变,或者里面的观众男女比例调一下,这就需要大模型有一个智能的切割,对一些物体有理解才能做到。这些其实跟大模型本身没有直接的关系,但是你没有这些功能,就不可能把photoshop推送给一个想做图的人。
中间层其实非常重要,中间层让我们想到什么?比如说windows、安卓、苹果提供的中间层目的非常简单——让应用开发的成本降到最低。这样才能让应用的数量变多,打造一个用户带来更多应用的良性循环。
之前我也讲过AI2.0时代的来临,是一个平台+应用的模式,当你有这个平台技术之后,它会改写每一个领域。我们可以明显地感觉到,比如说在制造游戏的时候,你所有角色的产生,包括背景、道具、衣服甚至所有的代码,最终都会用AI来写,所以很可能以后一些小朋友在社区里面把他想玩的游戏写出来,大家彼此用文字做一个游戏的介绍,几秒钟以后就可以玩了。
刚才讲的电商和广告也是一个例子,我们可以针对每一个人,根据他的需求、认知、受教育程度以及购物习惯,为其量身定做广告和图片,这样会最大程度地提高他的购买欲望。当然这里会面临监管的问题,如果你写的是假的,或者伤害了用户怎么办?这还是需要法律的监督,但希望这两个例子大家可以理解,大模型真的不只是一个问答引擎,它改变了所有APP的生态,它会让我们今天用的每一个生态系统都被改写一次。
03
要做大模型时代的AI-First
大模型改革的不只是人工智能,还会带来一些平台式的巨大差距。所有的应用里面,AI-First将是最重要的应用,什么是AI-First?就是这个应用没有AI,它就不成立。比如我们现在用的一些Mobile-First应用,像美团、滴滴、抖音这类公司,它们开发的应用是基于移动手机全天候在人身上的前提下,离开手机,这些应用就没办法用。
这些公司是充分完整地利用了移动手机带来的功能,开发出了适应移动手机的新应用,获取了我们的地理位置,我们才能用它们完成打车、外卖这些活动。那么其他公司,比如新浪、网易、豆瓣等,他们在移动互联网时代也做得挺好,但它们只是把PC的应用平移了过来,所以并没有得到同样的爆发。当年如果要选择在移动互联网创业或者投资,那一定要选那些非有移动不可的APP,那么今天要在人工智能领域创业,就一定要做非有人工智能不可的APP。
AI-First简单来说,就是如果把大模型抽掉,应用就会完全瘫痪无用。这种应用是我们今天特别需要做,它将是这个时代未来的宠儿,它的整个用户体验可能更多地是用人类的语言来学着跟我们交流,而不是逼着我们去学计算机的语言。
当然我们都知道还有很多的挑战,这里包括虚假信息、隐私保护等问题。所以加强监管是必不可少的,但同时我们也需要更多技术来帮着解决这些问题。如果仅仅用监管或者技术肯定是不够的,两种方式应该结合起来做。
最近市场上出现了一些有争议的声音,比如“使用海外的开源大模型就可以做出中国版OpenAI”“不需要做大模型,小模型就足够了”“大模型烧钱且耗人,只有巨头才有入场券”“中国大模型创业公司过多”等。在我看来,开源是非常重要的,中国的技术未来肯定需要开源,因为高校还有创业者没有开源,很难得到启动的力量。
但是我们千万不要相信一些网上说的我拿了一个开源模型,比如说GPT-4去训练,突然发现模型跟GPT-4一样好了,所以大模型没有价值了,你们都不用做了,这个是绝对错误的。
因为第一,开源模型本身可能有局限性,当你做大模型训练的时候,需要非常多的GPU,成本比较大。开源模型基本是把你这个模型的天花板定下来了,然后你再做里面的对齐调整和学习的工作,这些工作带给模型的提升是由你的天花板决定的。如果一开始你的天花板就是GPT-4,那肯定没办法做出超过它的大模型。第二,很多人用GPT-4来训练它们的开源模型,但我们真的不能保证GPT-4未来会继续开放使用。还有第三个问题是拿这些海外训练出来的模型在国内来做微调,这是非常危险的。因为国内外的文化、习惯、法律法规都不一样,拿一套美国训练出来的模型来中国调试,你觉得那些框架能解决国内的问题吗?
所以我还是相信大模型开源是有必要的,当然未来不可能有50家大模型公司存在,这个会收缩到一个比较小的数字,就像美国搜索引擎刚开始的时候也有10来家,后面通过并购,剩下来的五六家都发展得很好。像Google是最后起来的,反而发展成第一,所以我觉得其实具体会有几家,是以大公司为主还是小公司为主,现在都还没办法太早下定论,大家都还有机会。
今天尤其在这个领域我们还在赶追的时候,还是应该鼓励各种不同的发展模式,因为我们也很难知道谁能做成。
大模型演进有三步,第一步是中等规模的大模型,大多数中国参与者都在这一步,第二步是跨越“涌现”门槛,成为主流大模型,目前中国部分大模型公司已经达到600亿的数据规模,大致处于第二个阶段了,但是中国的数据质量还不够高,想要迈入第三阶段,数据质量和数据规模都很重要;第三步是成为领先的大模型公司。目前只有国外的两家公司到了第三步,他们的模型数据规模和数据质量都很不错,还有一个人类反馈的强化学习,它能链接到很多下游的应用。
我想讲的一点是在模型方面,特别我觉得OpenAI的GPT-4里面有一点大家都没注意到,就是它的模型扩展(scale up)功能,这个功能号称可以用千分之一或万分之一的时间来预测一个模型的训练是否会成功。
当我们训练一次大模型要一个月的时候,如果犯错了,那就浪费了几千个GPU,那么这一套scale up的功能一定程度上量化了训练成功的可能性,可以减少浪费。不过我们现在并不知道OpenAI如何操作这个scale up的,只能从他们发出的一些论文里去试着做这个事情。如果我们面临GPU匮乏的情况,还是需要去了解如何将我们的GPU用到极致。
模型大小并非大模型发展的唯一决定因素,数据质量更重要。在AI1.0时代,我们训练各种不同的语言模型的时候,数据是越多越好,有一点小错也无伤大雅,但是大模型训练我们得到的经验是数据质量跟数量都重要,但是相比来说质量是不可牺牲的,这一块我认为需要国家的力量来帮助和推动。
美国的互联网数据比中国的质量要高,比如说我们家人健康上有任何的问题,我一定是去WebMD或者Cleveland Clinic上去找,但中国就没有类似的网站。中国目前还没有公益性的数据汇集平台,所以我们还是需要国家政府的力量去推动高质量数据的汇集,缩小与国外数据质量的差异,接下来中美的差距可能就体现在这个数据质量上面。
04
AI2.0展望
未来,我认为最具革命性的AI2.0应用应该是AI-First。最终能够脱颖而出的是那些敢于全力投入新技术的先驱者。以前是人类需要学习计算机语言,那么以后很可能就是计算机学习我们的语言,这会大大解放我们的时间。我们只要把想做的事情告诉AI它就会帮我们完成。比如我可以跟智能助手说,明天是我太太的生日,我需要鲜花、蛋糕、礼物,它就统统帮我搞定,这个就节省我巨大的时间。现在我们是招助手来帮我们做这些事情,节省时间,未来这些都可以用AI助手解决。
未来,我也相信大模型不会只是一个聊天工具,会慢慢超出用户的期望,发展成一个智能生产力工具。最终这一天到达的时候,我们就会发现目前的商业模式将改变,App Store就不存在了。
比如当我跟AI说我老婆生日帮我买蛋糕、鲜花时,它就不用去电商网站了,可以直接跟仓库下单,所以会颠覆现有的商业模式,带来更多的经济机会。现在我们看到的AI应用基本都是在虚拟世界,但是未来AI将走向实体。我们有一个理念叫Embodied AI,就是说你将海量的视频作为训练数据,也有可能让机器人了解你的需求。你跟它说来点薯片,它就知道需要打开抽屉,需要拿盘子,需要倒出来等等,当然未来三五年之内可能很难见到它们进入实际应用的场景,但学术和产业的结合让这一切看起来并不是遥不可及的。
所以AI大模型是中国不能错过的历史机遇,这是有史以来最大的一个平台革命,它比windows、安卓带来的变革要大10倍。它会改写所有的应用,重构人类的工作,让有创意的人能更好地聚焦于研究工作,将他们的聪明才智放大10倍或更多,同时很多重复性劳动会被取代。
中国目前的起步比美国晚了一些,但是我们有庞大的应用市场,我国经济各方面的连接性也很强。中国政府在面对资源调配和工作安排上能比西方国家做得更好,能有效地让更多中国人走向适合他们的岗位。中国还有着巨大的人才优势,中国的AI工程师、AI科学家数量都非常多,可能顶级的还是在美国,但中国很多年轻的科学家也都非常厉害。不过我们还有一个挑战,就是过去的算力不如美国,在大模型上的经验会比较少,但是我相信在政府、大企业和投资公司的共同努力之下,我们一定很快能够克服这样的问题。
美国著名的投资机构的安德里森·霍罗维兹对这个领域有一个预测:“这个市场的潜在规模难以把握——将介于所有软件和所有人类的努力之间。”AI2.0市场预计将是移动互联网规模的10倍,期待能形成巨头、中小微创新企业一起发展的“创新综合体”。
来源:中国企业家杂志
标签: