“给我讲讲”陷阱
大多数人用ChatGPT学习的方式是这样的:输入「解释量子纠缠」或「教我合同法」,然后阅读回复。内容清晰、行文流畅,读起来完全能理解。他们觉得自己学到了东西。
但几乎可以肯定,他们什么也没学到。
阅读一个好的解释会产生一种理解感——心理学家称之为流畅性错觉。解释很连贯,你跟上了逻辑,大脑注册了“我懂了”这个信号。但这种清晰感反映的是解释的质量,而不是你知识的状态。
Louis Deslauriers及其同事在2019年哈佛大学的一项研究中证实了这一点:观看精心制作的物理讲座的学生对自己的学习评价更高,但做主动解题练习的学生在测试中得分明显更高。感觉学到了和真正学到了是两回事。
没有诊断就没有方向
一位好的导师首先会弄清楚你已经知道什么。他们会探查你现有的理解,找到知识缺口,然后从那里开始。ChatGPT每次都从零开始。
当你让ChatGPT解释某件事时,它完全不知道你是一个零基础的初学者,还是一个已经理解了80%、只对某个具体机制感到困惑的人。它无法区分需要完整基础的学生和只需要一个缺失环节的学生。所以它给你的是通用版本,然后听天由命。
你可以尝试在提示中给出更多上下文:「我理解X和Y,但对Z感到困惑。」但这要求你准确诊断自己的知识缺口——而这恰恰是学习困难者最不擅长的事情。如果你精确地知道自己不知道什么,你就已经半只脚踏进了知道的门槛。
它从不检查你是否理解了
这是关键的失败点。ChatGPT给出解释,你阅读,然后......什么都没发生。对话继续。没有测验,没有跟进问题来检验你到底是真正理解了概念,还是只是跟上了文字。
你可能会想:「我可以让它考我啊。」确实可以。但ChatGPT生成的问题没有基于你的知识模型。它不知道应该探查哪些具体的误解,不会根据你的表现升级难度,也检测不到你答对了但理由是错的。它在生成看起来像测验的文本,而不是在进行真正的诊断。
真正的理解力检查需要一个模型,涵盖学习者知道什么、被教了什么,以及常见的错误有哪些。一个设计良好的学习系统能做到这一点。一个响应提示的聊天机器人做不到。
反馈循环的假象
和ChatGPT聊天感觉很互动。你问,它答,你再问。看起来像对话,像有一个导师。但这个反馈循环是单向的——你获得信息,它获得你的下一个问题。它在任何时候都没有评估你的理解。
真正的辅导——Bloom在其著名的1984年「2-sigma问题」论文中记录的那种——涉及持续的评估。一位人类导师会问探测性问题、观察困惑的迹象、即时调整解释方式,并且在学生展示出理解之前不会继续。被辅导的学生平均表现比课堂学生高出两个标准差。这就是真正自适应互动的力量。
ChatGPT给你的是辅导中解释的部分,却没有评估的部分。这就像去看一个医生,他详细描述了你的病情,却从不做任何检查。
结构化学习提供了什么,而聊天做不到
ChatGPT作为教师和真正的学习之间的差距是结构性的,不是表面的。结构化学习提供:教学开始前的诊断评估、通过材料的有序路径(先修知识在高级主题之前)、每一步的理解力验证、当理解出现问题时的自适应分支,以及根据你的认知状态调整的能量感知节奏。
ChatGPT在设计上不提供这些。它是一个对话引擎,不是一个学习引擎。在回答问题方面很出色,但在知道该问你什么问题方面毫无用处。
Oivalla正是为了弥合这一差距而构建的。它接收你的材料,诊断你已经知道什么,构建一个具有合理顺序的结构化学习树,并在每个节点用测验验证理解力,然后才继续。如果你遇到困难,它会分支出更详细的解释。如果你很疲倦,它会调整复杂度。这是对话本身永远无法提供的评估和自适应层。
当你有一个具体问题需要一个具体答案时,使用ChatGPT。当你需要真正理解一个知识体系并向自己证明这一点时,使用结构化学习。