なぜそしてどのようにそれをとることができるのかNaNの損失はpytorchトレーニングプロセスのように見える



Why How That Can Be Taken Nans Loss Appears Pytorch Training Process



損失= nan状況はトレーニングプロセスpytorchで発生します

1.学習率が高すぎる。 2.損失関数3.回帰問題の場合、0の計算された加算があり、さらに小さな余りが解決される場合があります。4。データ自体は、Nanがあるかどうかに関係なく、numpy.any(numpy.isnan(x) )入力とターゲット5.ターゲット自体が損失関数を計算できる必要があります。たとえば、ターゲットのシグモイド活性化関数は0より大きい必要があり、同じデータセットをチェックする必要があります。

https://blog.csdn.net/weixin_39092218/article/details/72915906