如何和AI融合是一个重大问题。

高智化AI技术将颠覆教育?脑科学科研人员这么说

2023-04-07 14:37:08发布     来源:多知网    作者:Carey  

  来源|多知网

  作者|Carey

  图片来源|AICG生成

  前言:

  因为ChatGPT,高智化的AI技术引发了巨大的关注,很多观点提到“高智化AI技术将对教育产生颠覆性影响”。那未来的教育场景是怎样的?老师的角色是怎样的?培养人的方向是怎样的?和AI相比,人的价值会体现在哪里?基于这些问题,我们对话了国内某985高校脑科学科研团队负责人,他从不同的角度作了回答。

  以下为对话实录:

  多知:很多人都关注到ChatGPT已实现一步一步启发式提问,这是非常高智化的体现,也是过往的技术从未实现过的。

  答:确实,目前这种启发式提问是让人很惊讶的。也说明当前大语言模型有很强的理解能力。从技术原理上看,这也很容易理解。我们可以把前面对话内容编码后当成下一次对话的输入来辅助后面的预测,原理上是比较可行的。这种形式本身并不难,难的是GPT-4的问题质量很高,这很不容易。

  比如这两天我写论文的时候,让ChatGPT帮助优化某个方法描述的英语表达。比较有意思的是,这个方法包含6个步骤,我特意将一段不完整的方法描述发给它,结果它完全补充了后两个我完全没有展开的步骤,描述得也挺好的。

  多知:但有一个问题就是,怎样保证这个“互动”过程是正确的,或者符合提问者需要的?

  答:永远无法保证绝对正确,只要保证比人强即可。这个可以通过在大量标准测试集上验证。3.5版本的ChatGPT就有很多错误,尤其是很多似是而非的回答,但是到了ChatGPT4就好了很多。提升准确率只是时间问题。

  另一方面,从实用的角度,使用者也需要根据模型的特点扬长避短。

  多知:如果通用大模型不断进化,变得更加聪明后,细分领域的垂类模型是否还有它的价值?

  答:垂类模型当然会一直有它的价值。有两方面的原因:

  1. 第一,垂类模型可以做得更小,意味着它的能耗更小,成本更低;

  2. 第二,垂类模型可以做得更专业,更准确。

  比如针对教育场景的垂类模型,就可以在教学流程设计、场景选择、课程设计上做定制和优化,这些都是需要大量的专业知识的。

  多知:那高智化的AI技术会不会引发教育不公平?

  答:我认为不但不会引发不公平,反而会促进教育公平。它降低了知识获取的门槛。未来大家可能大概率用同一个模型。当然在通用模型的基础上,每个人都可以根据自己的需求自定义一个模型,比如根据过往的提问历史、互动轨迹,AI会根据这个人提问特点生成自适应和定制化。但是从本质上讲,未来大家所依赖的AI技术都是相同,所有人只要能连上网,能够获取的信息是相似的。其实实现了教育同权。

  多知:之前有个图说AI可以替代哪些工作岗位,其中就包括初级码农、文字工作者、教师等等,您感觉未来教育场景会发生怎样的改变?

  答:确实绝大部分的教学都可以被取代。比如写作文、口语陪练,甚至包括需要严密逻辑推理的科目,数学、物理等等。

  未来“知识型”的老师会被取代。可能每个人会有自己的AI伴侣,就像钢铁侠的助手贾维斯。教育场景可能只是AI助手的使用场景之一。甚至可以根据需求,将教学场景设计成虚拟环境,每个人进入系统进行自适应学习。里面的情景可以设计得很有趣,像个游戏一样。之前有部分教育产品用虚拟现实技术实现了沉浸式教学,但其中的线索和场景是固定的,并没有达到真正的自适应效果。而高智化AI是可以实时动态调整学习路径的,可以达到真正的自适应学习效果。

  就目前的研发速度来看,未来这个模型不仅可以打字,语音、视频、图像都可以,会逐渐演变为一个多模态的模型。

  多知:那老师的角色会如何演变?

  答:未来的老师,可能不再是知识型老师,而是会出现少量类似于“人生导师”这样的角色,他们告诉我们处事规则、把握大方向、激发人们的想象力和创造力。

  多知:目前美国有些学校在禁用ChatGPT,您怎么看?您觉得用了高智化AI技术,是否会带来评测不公平的问题?

  答:当高智化AI技术普及后,评估的问题并不难解决。假设我们都有AI教学伴侣,老师可以去看AI记录,这些都是后台数据,后台可以看到,并且还可以进行统计分析。甚至说,在和AI互动的过程中,AI就是在“评估”你。这样的评测可能比一次考试会更准确。

  当一个新技术来临时,禁止并不能阻止它的发展。从既往历史来看,凡是能提升效率的技术,最后都会被广泛应用。因此,我们需要思考的不是如何禁止类GPT技术,而且需要如何合理地利用类似技术,并规避可能出现问题。

  现在我们很多学生会用它来做总结、评语,我也会用它来改论文。但它并不能完全替代人,因为它不知道你的场景和思维。比如我们需要写好一个初稿或者框架,最后让它来做写作上的优化。

  多知:未来我们如何和AI共存?

  答:人类和AI共存,第一阶段肯定是将它当成一个工具,让它做很多重复性、甚至知识型的工具。但在这个阶段,很多行业就会发生颠覆性的改变。

  但是,后期高智化AI是否会出现独立的思维?是否会出现真正的数字人世界?这个是不确定的事情。这也是为什么很多人呼吁要暂停新GPT的研发。其实到目前为止,科学界对思维的原理,以及思维是如何产生的,并没有定论。

  而现在,新版本GPT已经有“涌现”的现象,这是让所有人既担忧又兴奋的事情。

  多知:就眼下,它会对人类的学习、生活方式产生哪些影响?

  答:人的一部分能力,比如做重复性信息提取或者操作的能力会被剥离出来,也就是说人会向着创造力方向演化。然后,知识和重复性的思考一定会被机器给替代,而且现在来看这个是很快就能实现。

  但是,涉及到创作性的东西,人依旧是很难被替代的。

  多知:但是现在AI作画、AI写作都可以完成得很好了,那您感觉个人的创造性还能体现在哪里?

  答:AI的创造性是什么呢?就是它可以组合,但是他不会创造出超出你认知范围之外的东西。但是人可以。比如说,刘慈欣写《三体》,它里面提了很多新的规则。不管是否正确,这个是计算机一定创造不出来的,因为他它只能在当前的有限世界里得到的这些规则去排列组合。他得不到新的东西,这就是人的创造力。

  所以你看很多AI绘画,画得很好,但这不是真正的创新,真正的创新是都没见过的,没有提出来过,你通过现有规则得不到的,这才是真正的创新。

  所以未来的话肯定会两极分化,就是说一部分成为特别顶尖的创新者。但这注定一定是少数的的。绝大部分人可能会变得更懒、更笨。不主动思考的人就会退化。

  多知:人脑和机器脑的本质区别是什么?

  答:这个问题有点复杂。人脑和机器最大的核心区别在于它的资源。就是说人脑的资源,受到能源消耗物理容量的限制,是一个小系统,这方面差别很大。第二、为了适应这种差异,人脑里面有很多特殊机制,比如说直觉、情感。这些东西有好的一方面,有不好的一方面,但是对于一个小系统来说,必须要有这种直觉和情感去解决复杂的问题。因为它的算力不够。所以这也倒逼了人脑要非常高效,利用有限的资源去解决特别复杂的问题。

  这也是为什么人可以做出一些意想不到的举动。比如说我们定义的天才,就并不完全基于一个确定性的逻辑算出来,它可能是跳跃性的思维,这种思维是机器不具备的。这可能是一个核心的区别,在若干年之内可能也还会是一个主要区别。现在的机器想要达到这种能力可能也比较难,因为人自身也不理解这到底是怎么实现的。但是,这并不是说机器就比不过人。

  机器未来一定会比人强。因为人有的这些限制机器都没有,那么一旦我们知道人脑的工作机制,借鉴一些人脑高效运作的逻辑,那么机器一定会超过人脑太多。

  多知:那人脑的价值又在哪?

  答:有几点:1、情感能力。

  2、 想象力。现在整个社会的评价体系大部分以知识和经验作为评价等级的区分,未来可能这套逻辑就不再适用,知识评价的权重会下降,更多会转为比如想象力、直觉等一些个人特质的评估。

  3、个体差异性的价值。从进化论的角度,个体的差异性对于社会的多样性和种群的延续很重要,如果没有差异性,意味着出现不了新的东西。而计算机很难做到这一点。这也是个性、情感的来源。

  多知:那未来我们应该重点锻炼怎样的能力,可以在高智化的AI时代里扬长避短?

  答:应该将更关注人类特有的能力上,比如想象力和直觉的培养,把知识性和重复性的知识下放给AI,实现更合理的分工。

  但有一点需要注意,这并不是要我们不要学习知识,因为所有的想象力和直觉本质上是依赖于大脑中现有知识基础的。所以如何和AI融合是一个重大问题。

  (应受访者要求,文章采用匿名的方式)