教育学教授警告:随着AI能力增强,人们的工作和学习能力可能被摧毁

发布时间:2023-09-08 浏览量:180

在这个时代,人类已经达到了历史上的“顶峰”,全世界有最多的人获得了高标准的教育、推理、理性和创造力。然而,人工智能(AI)的快速采用可能会逆转这一进步,“剥夺”人们个人和集体成长和进步的动力。因此,有教育学者认为:人类存在着“脱节教育、与未来脱钩”的“严重风险”。近日伦敦大学学院教育学院Arran Hamilton以及墨尔本大学教育学教授Dylan Wiliam联手发表了一篇新学术论文《人工智能在
豆绘AI(douhuiai.com)09月08日 消息:

在这个时代,人类已经达到了历史上的“顶峰”,全世界有最多的人获得了高标准的教育、推理、理性和创造力。

然而,人工智能(AI)的快速采用可能会逆转这一进步,“剥夺”人们个人和集体成长和进步的动力。因此,有教育学者认为:人类存在着“脱节教育、与未来脱钩”的“严重风险”。

近日伦敦大学学院教育学院Arran Hamilton以及墨尔本大学教育学教授Dylan Wiliam联手发表了一篇新学术论文《人工智能在教育领域的未来》。这篇论文警告称:

随着人工智能能力的增强,我们的学习动力可能会减弱。我们中的许多人甚至可能失去阅读和写作的能力,这并非不可想象,因为这些技能对许多人来说在日常生活中没有任何用处。

与其他有关人工智能潜在危害的警告不同,这一警告来自AI供应商声称将从该技术中受益最多的行业:教育。

上述论文指出:

在所有关于人工智能的炒作中,我们需要正确评估这些风险,共同决定人工智能的优势是否值得,以及我们是否应该“坚持或扭转”。

在人工智能热潮中发表这篇文章,作者的希望引起相关影响的关注,减少“人们被推到自己不想要且无法逆转的目的地的可能性”。

抛开复杂的隐喻不谈,他们建议放慢我们(在AI)的集体进步,以便社会有时间做出明智的选择,而不是按照技术专家规定的速度前进。当然,越来越多的专家和领导者分享了建议。

那么,这些著名的教育学教授到底在担心什么呢?

四种可想象的未来

他们设想了四种可能的情况,这些情况可能是由炒作周期和战术性、模仿性的采用热潮造成的。

首先是限制该技术的使用,因为人工智能“大大超越了人类的推理能力——可能非常快”。但作者表示,政府不太可能全面禁止,他们指出:

可以放慢开发速度,以确保更好的监管和安全,并留出时间仔细考虑我们想要的其他三种情况。

然而,如果人工智能的未来发展被禁止,人类仍然处于主导地位,仍然需要教育。利用迄今为止开发的人工智能系统,也可能会给人类学习带来重大好处。如果有令人满意的护栏,这可能会被排除在任何禁令之外。

这是值得思考的一个角度。我们需要人工智能做哪些它们目前无法做的事情?为什么我们需要它们这样做?当然是值得提出的问题。

该论文警告称,第二个更可能的情况是“虚假工作”的兴起:发明工作是为了让人们在不久的将来保持忙碌,届时人工智能将能够以高级水平执行每项任务:

[一种场景]人工智能变得如此出色,以至于它可以完成大多数(如果不是全部)人类工作。但政府立法强制公司将员工留在劳动力市场,给我们早上起床的理由。

我们认为,随着大型语言模型 [LLM] 和其他形式的人工智能变得越来越复杂,这种情况在中期(2035 年之后)是可能的。但当人工智能做出决定时,人类却“在房间里”,而不再站在想法或决策的最前沿,这可能会让人非常沮丧。

即使接受了更多的教育,我们也不太可能克服这个问题,也难以跟上机器的速度和复杂程度进行思考。

实现上述情况的时间尺度可能比作者预测的要短。所谓的“提示工程师prompt engineers”,即在人工智能进行创造性工作时受雇按下按钮的人,已经在我们身边了。与此同时,即使是长期以来为读者生产人类可读内容的行业,似乎也将其业务重新集中在机器生成的内容上,以供点击和其他机器使用——主要是为了给投资者留下深刻印象。

第三种更极端的情况是超人类主义,在这种情况下,我们只是接受自己的命运,并开始与机器融合以改善自己的渐进过程——这也许是工业化和自动化的逻辑终点:进化变得机械化的时刻。论文称:

[在这种场景下]我们选择通过脑机接口来升级自己,与机器竞争并保持在驾驶位上。

我们认为,从长远来看,即 2045 年之后,这是可能的,因为脑机接口的侵入性越来越小,也越来越复杂。但当我们的思维变得更加“像机器”时,我们可能会面临失去人性的威胁。

这是学术界早该提出的有用观点。多年来,科幻小说作家一直警告机器变得更加人性化的危险,从而忽视了人类变得更像机器的更大风险。作者补充道:

也不再需要学校教育或大学,因为我们可以从云端“下载”新技能。

这是一个令人不安的场景,因为它意味着终身学习和自我完善等珍贵的概念可能会被即时、被动、消极的消费所取代,从而在这个过程中贬低人类的创造力、参与度和多样性。

或许,在一个以左脑为中心的世界中,右脑技能会被削弱,并被留给机器——留给那些仅仅对人类才华进行衍生模拟的人工智能。(想要披头士乐队的新歌吗?只需点击“生成”即可。)

第四个可能的结果是引入全民基本收入(UBI),每个人都获得了一条财务生命线,以便他们能够在一个真正的工作稀缺、人类社会变得日益分散的世界中生存。论文称:

[在这种情况下]我们与经济脱钩,让机器来开发所有产品和服务;并做出所有重大决定。我们每个人每月都会收到一份“自由红利”,可以按照自己的意愿消费。

UBI 的社区级实验已经进行,到 2040 年这种方案可能会得到广泛采用。包括 Sam Altman [OpenAI 首席执行官] 在内的一些人工智能开发人员已经在倡导这一点。

它将使我们能够通过拒绝数字植入来拯救我们的“人性”,但我们可能没有理由继续学习,因为大部分知识工作和创新都是由机器承担的。我们可能会通过玩室内游戏、举办盛大的舞会、或学习和执行复杂的仪式来打发时间。我们也许还会对艺术、音乐、舞蹈、戏剧和体育变得更加感兴趣。”

事实上,这是一个黑镜式的结果——具有讽刺意味的是,科技创新者为人类提供的艺术、音乐、写作和其他创造性能力,最终使得这些创造性产品变成免费玩具——也不用为对应人才付费了。 

这种情况没有考虑政治因素。例如,很难想象任何右倾保守政府(欧美) — — 目前这样的政府有很多 — — 会接受这样一种社会转变的理念,即付钱给人类来娱乐自己。

然而尽管如此,从任何肤浅的意义上来说,作者既不是反对者,也不是推动末日的商人。相反,他们只是通过自己高度发达的批判性推理能力进行思想实验:这种技能在 2023 年还非常稀缺。

我们可以关注这种批判性推理,而不是被动接受炒作,这是人工智能辩论中少有的明智前进之路。听那些将自己视为大型科技“耶 稣式”传道者的声音,在分辨能力上是没有任何收获的(例如“我们必须在创造性破坏的浪潮中冲浪。”)

人工智能对教育工作者的好处

值得肯定的是,作者列出了人工智能对教育工作者的许多优势。其中包括:教育更加个性化;自适应内容;准入门槛降低;减少成本和教师工作量;更多文化相关内容;持续评估和反馈;新的辅导和决策支持系统;辅助数字导师;评估学生需求时进行更深入的推断;为神经多样化的学习者和残疾儿童提供更多、更有针对性的支持。

但他们警告说,缺点也很多。其中包括:人工智能可能不准确,产生听起来自信但不正确的答案;其存在偏见的能力,更不用说剽窃以及数据隐私、安全和保护的风险;对学生和教师的侵入性监视;算法歧视;决策不透明;教育过程中失去重要背景;专注于肤浅的事实勾选;以及使用不良教学推理来加速教学本身的系统。

简而言之,这是一种基于目标的自动化教育形式,依赖于不专业的、经过供应商培训的系统准确性,而不是经验丰富的人员专业知识。论文称:

值得庆幸的是,未来还不是一成不变的。有很多不同的可能性。有些问题利用我们的教育和集体学习,仍然让我们牢牢占据主导地位。然而,在其他不太积极的未来中,人类可能会失去批判性的推理技能,因为机器的建议总是那么好,那么像神谕,以至于我们自己思考或学习变得毫无意义。

我们的许多明显的人类能力,例如情感、同理心和创造力都可以通过算法来解释和建模,这样机器就可以越来越多地假装像人类一样。

假装成为人类

这种假装是一个关键点。人类目前面临的划时代问题不是人工智能本身——工具就是工具。相反,人类将智能和人工智能投射到两者都没有的系统上,并急于采用它们——因为其他人都这样做了。 

无数人称赞 ChatGPT 和其他工具的智能水平,从而将数百万人的智慧归功于这类衍生工作引擎,但这些智慧只是从网络上训练而来的——首先还是要相信人类。

尽管如此,作者警告说:

即使时间需要更长,通用人工智能需要几十年的时间才能实现,每年的增量改进仍然可能是变革性的和令人不安的。鉴于时间可能很短,我们需要迅速建立一个全球监管框架——包括国际协调机构和国家级监管机构。

目前,这一过程是自愿且零散的。

可以做什么?

那么,除了上述两条之外,作者还给出其他建议包括:人工智能公司在获准开发和发布系统之前应经过组织许可流程;最终用户应用程序在可供公众访问之前应经过额外的基于风险的批准。这些流程应与风险/伤害的水平相称——涉及儿童、弱势或边缘化人群的应用程序应受到更严格的审查...;任何违反人工智能法规的行为都应受到相应的处罚。重点可能是在人工智能行业和最终用户中创建一种责任和问责文化等。

作者补充道:

我们自己的立场是,未来存在很大的不确定性,我们都需要保持警惕,并假设——从现在开始——在任何时候,我们都可能只需要两年的时间就可以使用至少与我们一样有能力的机器。因此,我们不能视而不见。今天我们需要努力解决这些想法及其含义。

上述论文观点,尽管有些人会认为带有危言耸听的语气,但这在AGI追捧热潮中仍是一部及时的作品和提醒。

该论文与国际劳工组织的一项(非人工智能相关)运动相吻合,该运动指出“体面工作”和优质工作有助于减少贫困、提高教育水平、工作场所平等和社会正义,并称这是“公平和负责任”经济增长的基础。

因此,在这篇新的人工智能论文背景下,其含义可能是,假工作的兴起(AI主导下仍要让人类继续就业)可能会导致所有这些领域的逆转。结果可能是贫困加剧、平等下降、社会公正减少——再加上实际教育标准的崩溃。


声明: 本站所有文章,如无特殊说明或标注,均为网友发布。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

最新热文 7天