tf.keras多输出模型自定义loss
自从看了苏剑林的博客之后,我对keras
是越来越喜欢了,但是我更喜欢在tensorflow
中使用keras
,今天就来看看如何在tf.keras
中自定义多输出模型的loss
,并且搭配高效的tf.dataset
.
NOTE: tensorflow==2.0.0b0
自从看了苏剑林的博客之后,我对keras
是越来越喜欢了,但是我更喜欢在tensorflow
中使用keras
,今天就来看看如何在tf.keras
中自定义多输出模型的loss
,并且搭配高效的tf.dataset
.
NOTE: tensorflow==2.0.0b0
本篇文章是对Large Margin Softmax loss
,Angular Margin to Softmax Loss
,Additive Margin Softmax Loss
的学习记录。公式我尽量按照原文来写,并加入一点注释。
我看了VAE
之后忽然对神经网络的非监督学习以及概率模型很感兴趣,但是无奈概率模型真的好难懂啊.
今天尝试一边描述VAE
一边真正的理解他.
参考总结自:https://spaces.ac.cn/archives/5253
最近在写yolov3
,因为yolov3
的多输出性质,所以我打算写适配多输出的工具函数,在numpy
中可以在一个array
中包含多个不同维度的array
,但在tensorflow
中一个tensor
只能保存相同维度的矩阵,这就十分蛋疼了.下面记录一下我是如何解决的.
用了一段时间的tensorflow 2.0
,总的来说默认eager
模式操作数据十分的方便,并且可以适当的转为tf.function
加快速度.但是和keras
的结合还是不够灵活,比如可以单独用fit
可以执行,但是想用更加灵活的方式训练有时候就会出现莫名其妙的问题,让人抓狂.