变分自编码器(VAE)学习
我看了VAE之后忽然对神经网络的非监督学习以及概率模型很感兴趣,但是无奈概率模型真的好难懂啊.
今天尝试一边描述VAE一边真正的理解他.
参考总结自:https://spaces.ac.cn/archives/5253
我看了VAE之后忽然对神经网络的非监督学习以及概率模型很感兴趣,但是无奈概率模型真的好难懂啊.
今天尝试一边描述VAE一边真正的理解他.
参考总结自:https://spaces.ac.cn/archives/5253
最近在写yolov3,因为yolov3的多输出性质,所以我打算写适配多输出的工具函数,在numpy中可以在一个array中包含多个不同维度的array,但在tensorflow中一个tensor只能保存相同维度的矩阵,这就十分蛋疼了.下面记录一下我是如何解决的.
用了一段时间的tensorflow 2.0,总的来说默认eager模式操作数据十分的方便,并且可以适当的转为tf.function加快速度.但是和keras的结合还是不够灵活,比如可以单独用fit可以执行,但是想用更加灵活的方式训练有时候就会出现莫名其妙的问题,让人抓狂.
我本来打算用tensorflow 2.0去写capsule net的,结果被tf 2.0中的tensorboard坑的放弃了...
然后我换成tf 1.13去写了,下面做一个实现过程记录.
准备自己实现capsule Net,今天看了下别人实现的版本,感觉里面的矩阵乘积应该是可以优化的。
然后我写代码的时候,感觉一个可以优化的点是不同维度之间的Tensor的矩阵乘积,所以我做了一个小测试。
今天我为了makefile的方便起见,将一些变量通过脚本的形式给到makefile中,但是通过shell命令给makefile变量赋值让我头疼了一波..
🙄