LeNet-5
过几天要考试了/(ㄒoㄒ)/~~
还要复习真的不爽.本来两周就可以把Ng
的DL
课程撸完,想到明天要交矩阵论作业,今天就去写矩阵作业去了,写了两个小时就不想写了(都不会2333
然后回来撸波代码,用keras
写了个LeNet-5
网络.
过几天要考试了/(ㄒoㄒ)/~~
还要复习真的不爽.本来两周就可以把Ng
的DL
课程撸完,想到明天要交矩阵论作业,今天就去写矩阵作业去了,写了两个小时就不想写了(都不会2333
然后回来撸波代码,用keras
写了个LeNet-5
网络.
终于到了最后一周接下来就是学习深度学习相关内容,一个是吴恩达老师的深度学习课程,他的深度学习前面一些内容学过机器学习就不需要看了.然后还可以看斯坦福大学的UFLDL
教程,也有翻译中文版.
今天放代码的时候,突然觉得代码太烂太长,放在那边就扫了大家浏览的兴致,所以准备给所有的代码段加个折叠块,但是加折叠块必须要每个文件修改,很蛋疼,所以就写了个小工具去自动添加
我这个只能添加一次,运行两次就炸了~
利用BP
神经网络实现非线性回归,我用了两个方式实现,发现用库的方式没有我从吴恩达老师作业里面改过去的好用.先看题目.
已知函数\(f(x)=e^{-x},1\leq x\leq
10\)利用BP
神经网络以及sigmod
函数对上面的函数完成以下工作.
获取两组数据,一组作为训练集,一组作为测试集
利用训练集,训练一个单隐层的网络
利用测试集检验训练结果,改变单隐层神经元个数,研究它对逼近效果的影响
这周没有什么好说的,主要就是根据两个误差与方差曲线去判断算法下一步优化的方向,但是这个我觉得还是要做的多了才知道如何去做下一步的判断,毕竟这么多算法,你肯定得都懂点才能去判断优劣.