安居多伦多
  • 多市生活
    • 多市生活
    • 加国税务
    • 旅游度假
    • 生活安全
    • 行车安全
    • 窍门集锦
  • 多市书苑
    • 热门
    • 小说
    • 教育
  • 家居信息
    • 家居信息
    • 房屋保养
    • 房屋贷款
    • 房屋租赁
    • 房屋建筑
    • 房前屋后
    • 家居风水
  • 健康保健
    • 健康保健
    • 饮食起居
    • 食品安全
    • 健身锻炼
  • 书苑账户
    • 书苑登入
    • 书苑注册
    • 忘记书苑密码
    • 书苑账户信息
    • 关于我们
    • 联系我们
    • 隐私政策
多伦多书苑
在线书籍:随时阅读,随身听书。
所有书籍 | 人文 | 人物 | 人生 | 健康 | 儿童 | 医学 | 历史 | 历史 | 古典 | 哲学宗教 | 商业 | 外国 | 寓言 | 小说 | 教育 | 风水 | 管理 | 语言 |
为使本公益资源网站能继续提供免费阅读,请勿屏蔽广告。谢谢!报告弹出广告被滥用。
  1. 安居多伦多
  2. 网上书苑
  3. IT
  4. Python
  5. Python机器学习手册:从数据预处理到深度学习

Python机器学习手册:从数据预处理到深度学习

2022-02-15 0人点赞 0条评论
点赞
x
语速1.0: 2.0
进度0:

上一页   |   返回目录   |   下一页

20.17 文本分类

问题描述

对文本数据分类。

解决方案

使用长短期记忆递归神经网络:

20.17 文本分类

20.17 文本分类

讨论

我们经常会遇到文本数据分类的问题,尽管可以使用一种卷积神经网络来实现,但本节将聚焦于一个更流行的选择:递归神经网络。递归神经网络有一个关键特性,即信息在网络中回环,这让递归神经网络拥有一种记忆,使它可以更好地理解顺序数据。一种流行的递归神经网络是长短期记忆递归(Long Short-Term Memory,LSTM)神经网络。关于LSTM更详细的解释请参考其他相关资料。

在解决方案中,我们使用了20.3节的影评数据,想训练一个LSTM神经网络来预测这些影评是正面的还是负面的评价。在训练网络之前,需要对数据进行一些处理。我们的文本数据是一个整数列表:

20.17 文本分类

列表中的每个整数对应一个词,但是因为每条影评包含的词的数量不一样,所以对应的样本长度不一。因此,在将这些数据输入神经网络之前,需要让所有的样本具有同样的长度。我们使用pad_sequences来实现这一点,pad_sequences为每个样本加入填充值使它们长度相同。可以查看第一个样本经过pad_sequences处理之后的效果:

20.17 文本分类

接着,我们使用自然语言处理领域效果最好的技术之一:词向量。在20.3节的二元分类器中,我们对样本进行one-hot编码后作为神经网络的输入。但是这里我们把每个词表示为一个多维空间的向量,并且用两个向量之间的距离表示其对应的两个词的相似度。在Keras中,可以通过加入一个Embedding层来实现。对于每一个传入Embedding层的值,Keras都会输出一个向量来表示这个词。紧接着的一层是有128个神经元的LSTM层,它使之前输入的信息能在未来使用,非常适合处理顺序数据。最后,因为这是一个二元分类问题(每一条影评要么是正面的要么是负面的),所以加入只有一个神经元和sigmoid激活函数的全连接输出层。

这里需要声明,LSTM是一个很大的话题,也是很多研究的关注点。希望本节内容对各位读者有用,尽管离LSTM的真实应用还相距很远。

上一页   |   返回目录   |   下一页

类似书籍

机器学习实战
机器学习实战
Python机器学习——预测分析核心算法
Python机器学习——预测分析核心算法
Python机器学习实践指南
Python机器学习实践指南
Author:

标签: 暂无
最后更新:2022-02-15
< 上一篇
下一篇 >

本书评论

取消回复

©2021 安居多伦多 - 版权所有

本站由 好事来 Hostlike.com 提供技术支持。