从 AI 批改精度检查思考 AI 与人的关系
我们正在开发中的产品中推进 AI 文章批改的导入。此前已经追加了实验性功能,但面向正式导入,我们正面比较 AI 与人并进行质量检查。结果,我重新认识到 AI 的限界与人的强项。本文通过 AI 批改的精度检查,思考 AI 的强项、人类的强项,以及 AI 与人的共生。
AI 的强项
随着 AI 进化,教育现场的效率大幅提高。特别是在批改作业中,AI 可以准确且迅速指出语法错误、单词选择改善建议,并提出修正案。AI 压倒性有利的一点,是能够瞬间处理大量数据。
AI 不仅能检测人的错误,还能学习背后的规则和 pattern,并活用于之后的批改。例如,我们为 essay topic 准备批改 TIPS。人类每次都完整阅读往往会跳过,而 AI 可以每次都尊重这些内容,并提出针对个别 topic 的批改案。
这种个别对应如果完全由人来做,会很快碰到限界。一个人逐篇读完文章、确认规则、再结合 topic 特性提出改善案,需要大量时间。AI 则能把这些步骤以低成本、稳定速度执行出来。至少在“按照既定规则认真处理大量文本”这一点上,AI 已经非常强。
简要总结如下:
- AI 比做事随便的人表现压倒性更高
- 另一方面,认真工作的人仍然能赢过 AI
- AI 能瞬间处理大量数据,批改成本预计可提高 10 到 100 倍效率
这些只是现阶段的 AI 处理。今后几年 AI 还会继续进化,成本肯定会更高效。重点是,它是否会超过认真工作的人类质量。现阶段还不知道。
人类的强项
思考教育根本时,将来仍会存在仅靠 AI 无法补足的部分。那就是“教育的核心部分”:面对每一个学生,理解他们的个性、情感和成长过程,并适当地引导。
AI 的限界首先是“深层文脉理解”和“情感上的照顾”。文章的语法正确性和词汇适切性 AI 可以处理,但很难读出学生写下那篇文章的背景和意图。如果某个学生在作文中写自己的经历,并表达情感摇摆和葛藤,AI 可能会把它当作单纯文章结构问题来处理。能汲取其背后的心理和文化要素,是人类独有的能力。
大胆预测的话,现在“优秀”的定义常被理解为高智能,但以后也许会变成高共感能力,或高认知修正能力。AI 被指出错误时会表现得像认识到错误,但那终究是 interaction。人可以实时共感他者,并内省地修正自己的认知。
另外,引出学生 motivation、促进自发学习,也是人类才可能做到的角色。无论 AI 给出多准确的 feedback,如果接收它的学生心理状态或学习意欲低,效果也有限。教师通过认可努力、赞美进步,传达学习的快乐和成就感。AI 没有传达这种共感的能力,因此教师不可或缺。
也就是说,重要的是 AI 与人的关系。AI 能提供高效率的 feedback,但学生是否愿意接受、是否能把它转化成下一次行动,仍然很大程度上取决于人与人之间的信任关系。
AI 与人的关系
教育中构建“人际关系”不可或缺。教育不只是知识传递,而是建立在学生与教师、学生之间的信赖关系上。教师成为学生的 role model,学生也从教师那里学习社会价值观和伦理观。无论 AI 如何进化,这部分都很难替代。
AI 作为教育中的强力工具,可以减轻日常负担,提高效率。但需要人介入的领域,也就是深刻理解学生成长、共感并引出学习动机的角色,今后仍应由人承担。AI 与人相互补完,才能进一步提高教育质量。
在思考这些时,我遇到了 J. C. R. Licklider 的论文 Man-Computer Symbiosis。论文提出了人和计算机相互补完的关系。Licklider 同时提出与“由人扩张的机器”相对的“人与计算机共生”,并指出在大规模计算机中心的信息控制系统中,人类 operator 主要会负责不值得自动化的功能。
- Computing history article: https://kyototextlab.org/2024-12-02-licklider-bbn/
- Man-Computer Symbiosis: https://groups.csail.mit.edu/medg/people/psz/Licklider.html
现状由大规模语言模型制作出的 AI,也许更接近“由人扩张的机器”。在写作批改精度检查中,我发现人对人的错误有一定容忍,但对 AI 的错误很严厉。大规模语言模型的行为是概率性的,所以一定程度的错误和 hallucination 会发生。但如果这些错误都由人检查,就会接近“充满做人类不值得 AI 化工作的未来”。
Licklider 所说的共生,是计算机支援人的知性活动,人也活用计算能力,由此产生新的知识和发现。可是现在的 LLM 产品,如果设计不慎,就会让人变成机器的补助者。AI 先大量生成,再由人类检查 AI 的错误;人负责那些自动化成本不合算、但又必须有人兜底的部分。这不是我期待的未来。
在这次写作批改的精度检查中,真正难的是如何处理 AI 的错误。AI 错一次,使用者会立刻怀疑系统整体;人错一次,则常常被理解为个别失误。为了让 AI 可用,就需要人类进行检查。但如果检查本身变成新的主要劳动,那么效率化的意义会被削弱。这里正是 AI 与人共生设计中最需要注意的点。
总结:我们期待 AI 什么
思考 AI 时,人类的强项之一在于作为一个有机体存在,以及其多样性。我们必须思考如何维持这一点。在 AI 与人的共生中,允许 AI 犯错,同时不要过度信任 AI 很重要。否则就会走向“由人扩张的机器”的未来。这会根据我们期待 AI 做什么而改变。
我们应该期待 AI 减轻负担、扩张可能性,而不是让人类退到机器后面,只负责补洞。教育中的 AI 尤其如此。批改效率可以提高,但学生成长、动机、信任、共感这些部分,仍需要人类持续承担。如何把 AI 放在让人更像人的位置上,而不是让人更像机器,这是今后必须继续思考的问题。