李宏毅机器学习&深度学习课程|机器终身学习1:人工智能与灾难性遗忘

终身学习的重要性:介绍了终身学习(Life Long Learning)的重要性,不仅人类需要终身学习,机器也需要。机器学习可以不断积累新技能,最终实现超越人类的目标。终身学习在现实应用中也很重要,比如模型更新和参数调整。面临的难点是如何让机器在不同任务或领域中实现终身学习。

终身学习中的问题:讲述了在进行终身学习时遇到的问题,通过实验发现,同一个模型在学习不同任务时会出现遗忘之前学习的任务的情况。另外,通过一系列QA任务的比较发现,顺序学习和同时学习不同任务会对模型的学习效果产生影响。

灾难性遗忘现象:介绍了机器学习中的灾难性遗忘现象,当机器依序学习多个任务时,旧任务的正确率会急剧下降,被称为catastrophic forgetting。同时,讨论了multitasked training的方法,即将多个任务的资料同时倒在一起学习。

机器学习中的life-long learning问题:讨论了机器学习中的life-long learning问题,即一个模型是否能够学习多个任务而不遗忘之前学习过的任务。虽然multitask training能够让机器学习多个任务,但同时面临着存储和计算问题,因此并非解决lifelong learning的最佳方案。研究表明,multitask training往往被视为lifelong learning的上限。

Transfer Learning和Lifelong Learning的区别:介绍了Transfer Learning和Lifelong Learning的区别。Transfer Learning是让机器在第一个任务学到的技能能否在第二个任务上有帮助,而Lifelong Learning则是在关注机器学完多个任务后,能否还能解决第一个任务。评估Lifelong Learning技术要通过多个任务的正确率表格。

评估模型的迁移能力:讲述了在进行机器学习任务时如何评估模型的迁移能力。通过比较不同任务的正确率,可以评估模型在新任务上的表现以及对旧任务的遗忘程度。其中,backward transfer和forward transfer是评估模型能力的两种方法。backward transfer用于评估模型在旧任务上的正确率下降情况,而forward transfer则评估模型在未见任务上的学习能力。最终目标是构建一个能够保持高迁移能力的lifelong learning系统。

本文资料来源于互联网,仅做网络分享,如有侵权,请联系删除;不代表Sora中文网立场,如若转载,请注明出处:https://www.allinsora.com/6874

(0)
上一篇 2024年4月7日 上午10:52
下一篇 2024年4月7日 下午1:47

相关推荐

  • 哈佛CS50 Python入门课程 | L3 优化算法1(优化,局部搜索,Hill Climbing)

    这个视频介绍了优化算法中的局部搜索和爬山算法。通过不断寻找当前状态的最佳邻居来尝试优化问题解决方案。爬山算法通过移动到更好的邻居状态来最大化或最小化目标函数值。然而,存在局部最大值或最小值的风险,因此需要使用变体算法和多次重启来寻找全局最优解。这些算法对于解决问题非常有用,但需要注意局部最优解的局限性。 优化问题和局部搜索算法:本章节主要介绍了优化问题和局部…

    2024年4月7日
    0099
  • 李宏毅机器学习&深度学习课程|机器学习基本概念简介

    机器学习简介:机器学习是让机器具备找到一个复杂函式的能力,以应用于各种任务,如语音辨识和影像辨识。机器学习包括Regression和Classification两种任务,前者是找一个函式输出数值,如预测PM2.5的数值;后者是从给定选项中选择一个输出,如判断一封邮件是否为垃圾邮件。机器学习的目标是通过机器的力量自动找到这些复杂函式,以实现人工智能的应用。 分…

    2024年3月28日
    00120
  • 李宏毅机器学习&深度学习课程|生成式对抗网络2:理论介绍与WGAN

    GAN操作原理与训练目标:介绍了生成对抗网络(GAN)的操作原理和训练目标。通过最小化生成器产生的分布与真实数据分布之间的差异,实现生成器产生更接近真实数据的结果。然而,计算两个分布之间的差异是一个困难的问题,GAN通过训练生成器来最小化这种差异,从而实现生成真实数据的目的。 训练鉴别器区分数据:讲述了如何使用生成对抗网络(GAN)计算两个分布之间的差异。通…

    2024年4月1日
    00451
  • 哈佛CS50 Python入门课程 | L0 搜索算法2(广度优先搜索,贪心搜索,A*搜索)

    该视频介绍了搜索算法中的深度优先搜索、广度优先搜索和A算法。深度优先搜索通过堆栈实现,广度优先搜索总是选择最浅的节点进行探索,而A算法结合了启发式函数和代价函数来寻找最优解。启发式函数用于估计节点到目标的距离,而代价函数用于计算节点的代价。A*算法可以找到最优解,但启发式函数必须是可接受的。 深度优先搜索和广度优先搜索:这个视频介绍了搜索算法中的深度优先搜索…

    2024年4月7日
    0054
  • 李宏毅机器学习&深度学习课程|自督导式学习1:芝麻街与进击的巨人

    模型命名与发展:介绍了cell supervised learning的模型,以芝麻街角色命名,如elo、bt、early等。其中,最初的模型是embedence from language model,后来发展出了多个不同模型,如enhance representation from knowledge integration。最后提到了bigbt模型,展…

    2024年4月1日
    00413

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

关注微信
Sora改变AI认知方式,开启走向「世界模拟器」的史诗级的漫漫征途。