J'ai un python Environnement virtuel (Conda) où j'ai installé Cuda Toolkit 10.1.243 et Tensorflow-GPU 2.3.0rc0. Mon pilote CUDA est 11.0.
Afin de tester si TENSORFLOW a été correctement installé sur GPU, j'ai exécuté une série de commandes de l'intérieur du VENV:
tf.test.is_built_with_cuda()
Vrai
tf.config.list_physical_devices(‘GPU’)
Dispositif trouvé 0 avec Propriétés: PCIBUSID: 0000: 01: 00.0 Nom: Quadro M2000M CompuceCapacité de calcul: 5.0 [Physique (Nom = '/ Physicy_Device: GPU: 0', Device_Type = 'GPU')]
python -c "import tensorflow as tf; print(tf.reduce_sum(tf.random.normal([1000,1000])))"
tensorflow.python.framework.errors_impl.internalerror: Initialisation implicite de Cuda Runtime sur GPU: 0 Échec. Statut: L'image du noyau de périphérique n'est pas valide
Je ne sais pas comment résoudre ce problème. J'ai un sentiment que cela est lié à la modification de la compilation telle que Tensorflow prend en charge la capacité de calcul de mon appareil (5.0), mais je ne sais pas comment procéder. Merci!!
Je viens d'avoir le même problème. J'ai rétrogradé la version Tensorflow2.3 à 2.2 avec la commande suivante.
pip install --upgrade tensorflow==2.2
Cela fonctionne maintenant mais très lent.