MNIST 数据集分类之Python

神经网络作业一实验报告 使用了 tensorflow 框架,参考了官方手册和教程进行实现,搭建了一个多层感知机对 MNIST 数据集进行分类,main,py 是入口函数

本文包含相关资料包-----> 点击直达获取<-------

神经网络作业一实验报告

使用了 tensorflow 框架,参考了官方手册和教程进行实现,搭建了一个多层感知机对 MNIST 数据集进行分类。main.py 是入口函数,负责读取 MNIST 数据、调用各项学习方法、并绘制最后的性能图。MLP 相关代码位于 baseline.py,实现了一个单隐层的多层感知机,采用 sigmoid 激活函数,训练轮数为 50 轮。

其余文件均为 baseline 的变体,修改了对应的需要对比的点。

一、如何运行

运行 main.py 即可。

方法 50 轮后的测试集准确率 训练集准确率
baseline 0.8944 0.8935
全 0 初始化 0.1138 0.1162
均方误差 0.8320 0.8413
adam 自适应学习率 0.9564 0.9502
L2 正则化方法 0.8861 0.8937

各项方法对比 不同的参数初始化方法

这里选择了全 0 初始化来与 baseline 方法的随机初始化对比。

不同的损失函数

这里选择了均方误差来与 baseline 方法的交叉熵损失对比。

不同的学习率调整方法

这里选择了 adam 自适应学习率方法来与 baseline 方法的固定学习率对比。

不同的正则化方法

这里选择了 L2 正则化方法(正则化项权重设为 0.001)来与 baseline 方法的无正则化对比。

对比结果

全 0 初始化让 MLP 无法训练,故准确率一直保持在 11% 左右;均方误差性能不如交叉熵,因为是多分类而不是回归问题,使用交叉熵损失函数会更合适一些;采用自适应学习率比固定学习率更灵活高效,故收敛也更快,且性能更好,可以找到全局最优;使用 L2 正则化后训练集准确率提升更快,但最后达到收敛时训练集准确率比不正则化要略低一些,可能是因为防止了过拟合,并且使用 L2 正则化后测试集准确率略有提高。

二、最后选用的方法

随机初始化,交叉熵损失函数,adam 自适应学习率方法和无正则化。

因为 adam 自适应学习率方法和 L2 正则化都能提升性能,但我测试了一下同时采用这两种方法,性能反而下降了。所以还是只改进成 adam 自适应学习率方法性能最好。50 轮内训练集准确率最高为 0.9604,最终测试集准确率为 0.9502。

参考文献

  • 基于动态连接池的数据集成中间件的研究与实现(广西师范大学·黄桂花)
  • 面向人物简介的主题爬虫设计与实现(吉林大学·蒋超)
  • 数据操纵建模技术的研究与应用(西安工程大学·陈静)
  • 基于网络爬虫的信息采集分类系统设计与实现(厦门大学·周茜)
  • 深度学习在社交网络文本分类中的应用研究(大连交通大学·方金朋)
  • 文本综合处理平台的研究与实现(济南大学·王孟孟)
  • 基于Web的网络搜索技术研究(西北工业大学·郭晨娟)
  • 基于B/S的考卷搜索和标记系统的设计与实现(华中师范大学·沈亮)
  • 面向特定网页的Web爬虫的设计与实现(吉林大学·马慧)
  • 主题网络爬虫的研究与设计(南京理工大学·朱良峰)
  • 基于数据挖掘的电视节目个性化推荐研究及实现(曲阜师范大学·徐晟杰)
  • 深度学习在社交网络文本分类中的应用研究(大连交通大学·方金朋)
  • 一种高适应性面向领域的爬虫系统的设计与实现(北京邮电大学·李东博)
  • 云环境下面向大数据的模糊C均值算法研究与实现(武汉理工大学·余长俊)
  • 数据集市在电信经营分析中的应用研究(苏州大学·赵平)

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设导航 ,原文地址:https://bishedaima.com/yuanma/35990.html

相关推荐

发表回复

登录后才能评论