一个新任务来不需要学习,给它少量的样本或者少量的学习就可以进入到领域里面去。这是3个强大能力,我们主要发展今后的产业用到的。
1大缺陷就是“幻觉”,它会胡说八道。大家看到1大缺陷跟3大强大能力是同时出现的,因为我们要求它有多样性的输出,必然它会产生错误。这个错误跟机器都会产生错误非常不一样,机器产生的错误往往是我们可以控制的,这个错误是本身的错误,是一定会发生的,而且我们不可控,这个错误不是一般的机器错误,而是它本身的错误,而且错误一定会发生,而且我们不可控的。所以,这点也是我们后面考虑它应用需要考虑的问题。
大模型出现以后对产业发展有什么影响?主要影响这里提出三个方面。除百模大战外,将来做通用大模型的肯定是少数企业,但是大部分大模型企业往这三个方向转移。第一个方向是做垂直领域的大模型,现在不管是金融、石油好多部门都在考虑这个问题;第二个重要的问题是模型提供通用、开源的模型或者闭源的模型,让大家在上面进行开发利用;第三个就是跟其他工具和其他技术结合起来,开发新的应用或者把应用往前提高,这点是非常重要的。
利用大模型,最主要要场景,这里提出来这么多场景,我们现在大模型可以在这个应用场景里发挥作用。但是我们可以看到这里困难性在于应用必须对于错误的容忍程度要高,如果对错误的容忍程度低的话,这个就不好用了。
所以,大家可以看到目前的应用来讲,从产业整个情况来看,头尾两部分用起来比较困难,核心的部分用起来比较困难。前面的部分主要属于规划、设计、调度,这些内容要求多样性,对错误的容忍程度比较高。所以,这个应用的前面部分非常好用,后面部分也好用。比如服务、推荐、提供用户服务等等这些方面也要求多样性,对错误的容忍程度相对比较低,但是中间部分要根据具体的情况考虑。
这个问题不管怎么样,但是这个模型一定要用的,要用的原因很简单,因为有了模型,有的底座以后,应用的效率和质量一定会提高。大家想想过去应用场景,我们用什么手段解决的?是用空的计算机,在空的计算机上开发软件提供服务,空的计算机相当于白诗或者文盲,现在这个平台至少是个高中生。在这个平台上开发效率一定会提高,尽管它有这些缺陷,但是以后的方向一定是这样的。
下面再看一下它的问题出在什么地方?为什么会出现这样?正是因为这个模型根本性的限制,这个根本性出现在什么地方?出现在所有机器所做的工作都是外部驱动的,都是人类教它做什么、怎么干,它只能按照人类的驱动或者提示下做的,都不是自己主动干的。这跟人类完全不同,因此会表现出来三个人类没有缺点的,这个缺点一定存在的。一是质量不一致、质量不可控;二是不可信;三是受外部影响非常大。我们叫它干什么、怎么干,但是人类完全不同,所有的工作都是在内部意图的控制下做的,即使这个任务是别人交给我们的,也是在我们的意识下控制做的,因此这个完全是可控的,而且是可以自我复杂的、可信的,受外部影响比较小。换句话讲,目前的大模型至少这个缺陷是存在的。
举个例子来说,它知不知道自己的错误,很多情况下不知道自己错了。比如我这里问ChatGPT的,包括在GPT-4o我问清华大学校歌歌词是什么,结果它自己胡编了一套,而且还说出来谁作词谁作曲。我就告诉它你错了,清华大学校歌并不是这样,我告诉它以后,它马上承认说我错了,清华大学校歌应该是我提示的两句,这就说明它不知道自己错了,所以这个致命的问题其实机器在很多情况下没有判断对错的能力,就出现这样的问题。所以,所有现在大模型的更新也好,所有人工智能里所有更新,都是人类驱动下,人类帮助他更新的。如果不通过这一点,机器就不可能自我进化,都是在人类推动下进化的。
但是,我们要看到这个也不是绝对的,换句话讲,它在很多情况下,不能自己判断对错,但是在外部提示下,它往往会发现自己的错误,但必须在外部的提示下才能做到。
下面重点要介绍目前大模型的4个发展方向,这4个发展方向对今后如何改进大模型非常重要。