Ich versuche, das folgende Beispiel aus dem MxNet Haupt docs mit mxnet.jl in Julia zu replizieren:Wie bekomme ich einen Gradientenknoten mit mxnet.jl und Julia?
A = Variable('A')
B = Variable('B')
C = B * A
D = C + Constant(1)
# get gradient node.
gA, gB = D.grad(wrt=[A, B])
# compiles the gradient function.
f = compile([gA, gB])
grad_a, grad_b = f(A=np.ones(10), B=np.ones(10)*2)
Das Beispiel zeigt, wie ein symoblic Ausdruck autodiff und ihre Gradienten zu erhalten.
Was ist das Äquivalent in mxnet.jl (neueste Version 2016-03-07)?