安居多伦多
  • 多市生活
    • 多市生活
    • 加国税务
    • 旅游度假
    • 生活安全
    • 行车安全
    • 窍门集锦
  • 多市书苑
    • 热门
    • 小说
    • 教育
  • 家居信息
    • 家居信息
    • 房屋保养
    • 房屋贷款
    • 房屋租赁
    • 房屋建筑
    • 房前屋后
    • 家居风水
  • 健康保健
    • 健康保健
    • 饮食起居
    • 食品安全
    • 健身锻炼
  • 书苑账户
    • 书苑登入
    • 书苑注册
    • 忘记书苑密码
    • 书苑账户信息
    • 关于我们
    • 联系我们
    • 隐私政策
多伦多书苑
在线书籍:随时阅读,随身听书。
所有书籍 | 人文 | 人物 | 人生 | 健康 | 儿童 | 医学 | 历史 | 历史 | 古典 | 哲学宗教 | 商业 | 外国 | 寓言 | 小说 | 教育 | 风水 | 管理 | 语言 |
为使本公益资源网站能继续提供免费阅读,请勿屏蔽广告。谢谢!报告弹出广告被滥用。
  1. 安居多伦多
  2. 网上书苑
  3. IT
  4. Python
  5. Python机器学习手册:从数据预处理到深度学习

Python机器学习手册:从数据预处理到深度学习

2022-02-15 0人点赞 0条评论
点赞
x
语速1.0: 2.0
进度0:

上一页   |   返回目录   |   下一页

20.7 可视化训练历史

问题描述

找到神经网络的损失(loss)或准确率分数的“甜蜜点(sweet spot)”。

解决方案

使用Matplotlib可视化测试集和训练集在每个epoch上的损失(见代码后的图):

20.7 可视化训练历史

20.7 可视化训练历史

20.7 可视化训练历史

20.7 可视化训练历史

我们还可以使用同样的方法来可视化每个epoch的训练集和测试集数据的准确率(见代码后的图):

20.7 可视化训练历史

20.7 可视化训练历史

讨论

一开始我们的神经网络是新的,性能会比较差。而随着神经网络从训练数据中学习,其在训练集和测试集上的误差都会逐渐降低。但是,在某个时间点之后,神经网络开始“记住”训练数据,并且产生过拟合。当出现这种情况时,训练集误差会减小而测试集误差会增大。因此,在很多情形下会有一个“甜蜜点”,到达这个点时,测试集误差(这是我们主要关注的误差)最小。我们的解决方案将每个epoch的训练集和测试集损失可视化,因此可以很直观地看到这种现象。你可以看到,测试集误差在第5个epoch附近时是最小的,在这之后训练集损失继续减小而测试集损失开始增大。从这个点开始,模型就将出现过拟合。

上一页   |   返回目录   |   下一页

类似书籍

Python机器学习实践指南
Python机器学习实践指南
Python机器学习——预测分析核心算法
Python机器学习——预测分析核心算法
机器学习实战
机器学习实战
Author:

标签: 暂无
最后更新:2022-02-15
< 上一篇
下一篇 >

本书评论

取消回复

©2021 安居多伦多 - 版权所有

本站由 好事来 Hostlike.com 提供技术支持。