Ich habe diese Nachricht Keras in Verwendung einen RNN für Sprachmodell mit einem großen 3D-Tensor zu trainieren (aus einem Text erzeugt, ein heißen codiert und führe eine Form von (165.717, 25, 7631)):"g ++ nicht erkannt", während der Datensatz größer wird, gibt es eine Grenze für die Matrixgröße in GPU?
WARNING (theano.configdefaults): g++ not detected ! Theano will be unable to
execute optimized C-implementations (for both CPU and GPU) and will default to
Python implementations. Performance will be severely degraded. To remove this
warning, set Theano flags cxx to an empty string.
ERROR (theano.sandbox.cuda): nvcc compiler not found on $PATH. Check your nvcc
installation and try again.
Aber alles geht gut, während ich die Größe des Datensatzes in kleine begrenzen. Daher frage ich mich, ob Theano oder CUDA die Größe der Matrix begrenzen?
Außerdem, habe ich eine bessere Möglichkeit, eine heiße Darstellung zu machen? Ich meine, im großen 3D-Tensor sind die meisten Elemente aufgrund der One-Hot-Darstellung 0. Ich habe jedoch keine Ebene gefunden, die eine Indexdarstellung von Wörtern akzeptiert.
Es sieht aus wie eine ziemlich klare Fehlermeldung an mich und es hat nichts mit CUDA zu tun. Ihre theano-Konfiguration ist nicht korrekt und Host- oder GPU-Compiler können nicht gefunden werden. Repariere es und das Problem verschwindet – talonmies
@talonmies Ich habe mich nicht klar gemacht. Mein Code funktioniert ziemlich gut mit einem kleinen Datensatz (nur zum Debuggen meines Codes), ein solcher Fehler tritt nur bei einem großen Datensatz auf. – nanoix9
Ja, aber die Fehlermeldung zeigt auch, warum das auch passiert. Bei kleinen Größen sind reine Python-Implementierungen verwendet, da es bei dem Versuch, die GPU – talonmies