所里的老师实力都一般,基本是用的别人开发的包叠几个层然后用到工程里,然而我在 CV 集上测了一下,大部分模型损失比 SOTA 高了 30-40%还都在硬用写文章。
于是自己就想解决一下,就想着先复现,结果源码都是远古的 TF1.x 的实现,看的脑壳疼。最近损失终于把降到比 SOTA 高 15%左右(,然后想着是不是 sub network 的问题,结果把用的 CNN 换成 Resnet 之后,损失直接爆炸了。。。现在死活不知道问题在哪,问导师导师也不清楚。
不知道 V 友们有没有研究过这个的交流一下(现在每天做梦都是在 review TF1.x 的 code )
1
jack139 2022-09-01 09:14:11 +08:00
你说的 glow 是这个吗? https://arxiv.org/abs/1807.03039
https://github.com/openai/glow 不能复现,先检查一下自己环境与官方源码的差异:数据集、超参数、算力等。除非是假论文,一般是可以复现差不多的。 |