Ich habe versucht, das Testprogramm für GPU Nutzung ausgeführt wird:Wie kann Theano die integrierte GPU im MacBook Air nutzen?
from theano import function, config, shared, tensor, sandbox
import numpy
import time
vlen=10*30*768 #10x #coresx #threadspercore
iters = 1000
rng = numpy.random.RandomState(22)
x = shared(numpy.asarray(rng.rand(vlen), config.floatX))
f = function([], tensor.exp(x))
print(f.maker.fgraph.toposort())
t0 = time.time()
for i in xrange(iters):
r = f()
t1 = time.time()
print("Looping %d times took %f seconds" % (iters, t1 - t0))
print("Result is %s" % (r,))
if numpy.any([isinstance(x.op, tensor.Elemwise) and ('Gpu' not in type(x.op).__name__)
for x in f.maker.fgraph.toposort()]):
print('Used the cpu')
else:
print('Used the gnu')
Es dies nur zeigt (auch nach libgpuarray
Installation):
[Elemwise{exp,no_inplace}(<TensorType(float64, vector)>)]
Looping 1000 times took 2.723539 seconds
Result is [ 1.23178032 1.61879341 1.52278065 ..., 2.20771815 2.29967753
1.62323285]
Used the cpu
Ich würde gerne wissen, wie die integrierte GPU von MacBook zu verwenden, Luft (Anfang 2014).
Mein Prozessor hat Intel HD Graphics 5000 - nicht NVIDIA und daher nicht CUDA-kompatibel Viele links empfehlen die Verwendung von OpenCL. Dies sollte auch mit OS-X vorinstalliert sein. Aber ich kann nicht aus den Links im Web Kopf oder Schwanz machen.
Ich konnte nicht viel Hilfe finden, wie man Theano im docs entweder einrichtet.
Ich muss nur Theano die integrierte GPU meines Mac verwenden. Ist das möglich? Wenn das so ist, wie? Was sind seine Voraussetzungen?
Wie haben Sie den Code ausgeführt? Hast du THEANO_FLAGS = device = gpu? Wie auch immer, es scheint mir nicht, dass Sie eine vernünftige Beschleunigung mit einer eingebauten GPU-Karte bekommen. – sygi
Wie spezifiziert man diese Tags, @sygi? Soll ich das in der Befehlszeile tun? Ich benutze Ipython Notebook dafür. Könnten Sie bitte eine spezifische Anweisung dafür geben? –