2016-03-07 7 views
5

Ich versuche, das folgende Beispiel aus dem MxNet Haupt docs mit mxnet.jl in Julia zu replizieren:Wie bekomme ich einen Gradientenknoten mit mxnet.jl und Julia?

A = Variable('A') 
B = Variable('B') 
C = B * A 
D = C + Constant(1) 
# get gradient node. 
gA, gB = D.grad(wrt=[A, B]) 
# compiles the gradient function. 
f = compile([gA, gB]) 
grad_a, grad_b = f(A=np.ones(10), B=np.ones(10)*2) 

Das Beispiel zeigt, wie ein symoblic Ausdruck autodiff und ihre Gradienten zu erhalten.

Was ist das Äquivalent in mxnet.jl (neueste Version 2016-03-07)?

Antwort

1

Code in MXNet.jl/src/symbolic-node.jl kann hilfreich für Sie sein, Antworten zu finden.

Ich bin nicht mit diesem Paket vertraut. Hier ist meine Vermutung: A = mx.Variable("A") B = mx.Variable("B") C = B .* A D = C + 1 mx.normalized_gradient kann die Lösung für den verbleibenden Teil sein, wenn vorhanden.