| 持续学习让AI能够像人类一样不断掌握新技能,而“灾难性遗忘”曾是主要障碍——就像学新知识时会忘记旧知识。现在,这方面的突破确实为AI迈向更高级的智能铺平了道路。
下面这个表格梳理了两种主流的技术范式,可以帮助你快速把握核心思路。
技术范式 | 代表方法 | 核心思想 | 关键优势 |
|---|
参数隔离与动态架构 | 残差持续学习(ResCL) | 通过线性组合旧网络参数和新调优参数,在固定网络结构内实现知识融合。 | 无需原始训练数据,推理时网络规模不增加,易于部署。 | 函数正则化与蒸馏 | 自蒸馏微调(SDFT) | 让模型自身充当“教师”,利用其上下文学习能力生成训练信号,引导“学生”模型学习。 | 实现“同策略学习”,将专家示范转化为内部训练信号,有效保持旧任务性能。 |
🔄 从技术突破到ASI演进
这些技术进展的意义远超于解决一个工程难题,它们直接关系到AI,特别是未来人工超级智能(ASI)的演进方式。
从“静态模型”到“终身学习体”
传统的AI模型在训练完成后就固定了,知识库是静止的。持续学习的突破使得AI能够成为一个终身学习体,可以持续地从新数据、新环境、新任务中吸收知识,不断优化和成长。这正是实现ASI所需的核心能力之一。
为“自我迭代”奠定基础
阿里吴泳铭提出的ASI三阶段演进路线中,最高阶段是“自我迭代”,即AI能自主优化自身的模型架构和数据流程。稳定且高效的持续学习机制,是AI能够安全地进行自我优化的前提,避免在迭代过程中丢失核心能力或产生不可控偏差。
连接物理世界的关键一环
ASI的进化离不开与真实物理世界的互动。持续学习能力使AI能在与世界的持续交互中,增量式地理解和适应世界的复杂性与变化,而无需每次遇到新情况都从头训练。
💡 深入理解两种关键技术
ResCL:优雅的参数融合
ResCL方法在微调得到新网络后,并非直接替换旧网络,而是将旧网络和新网络的每一层参数进行可学习的线性组合。训练中,通过特殊的权重衰减损失,倾向于让组合系数接近零,从而优先保留原始网络的知识,除非新数据有足够证据才进行修改。其设计还考虑了对批量归一化(BN)层的处理,让新旧网络路径保留各自的BN层统计量,进一步保护了学到的知识分布。
SDFT:模型作为自身的导师
SDFT方法让基础模型扮演两个角色:“学生” 和 “教师”。“学生”模型仅看到任务输入;而“教师”模型则额外以专家示范为条件,利用模型的上下文学习能力来生成更明智的输出分布。训练目标是最小化“学生”输出与“教师”输出之间的逆向KL散度,这使得学习过程是“同策略”的——模型从自身当前行为产生的信号中学习,而非固定的离线数据集,从而显著减少遗忘。
希望这些信息能帮助你更深入地理解这一AI前沿进展。如果对某个具体的技术细节或应用场景想了解更多,我们可以继续探讨。 |