grad)# None這裡可以發現我們在使用detach後,計算c的一個分支就被剝離出來不參與梯度計算backward的作用:見上部分程式碼,我們在呼叫backward後會將計算圖釋放,所以中間節點的梯度無法得到
detach()(pytorch學習經驗(一) detach, requires_grad和volatile),如下圖所示:之後,在訓練生成器G的時候,並不需要進行梯度截斷,而是可以直接使用生成器的最佳化器g_optimizer對生成器中