J'ai quelques questions de base sur l'utilisation de Numpy avec le GPU (nvidia GTX 1080 Ti). Je suis nouveau sur le GPU et je voudrais m'assurer que j'utilise correctement le GPU pour accélérer Numpy/Python. J'ai cherché sur Internet pendant un certain temps, mais je n'ai pas trouvé de didacticiel simple répondant à mes questions. J'apprécierais que quelqu'un me donne quelques conseils:
1) Est-ce que Numpy/Python détecte automatiquement la présence de GPU et l'utilise pour accélérer le calcul matriciel (par exemple numpy.multiply, numpy.linalg.inv, ... etc)? Ou ai-je du code d'une manière spécifique pour exploiter le GPU pour un calcul rapide?
2) Quelqu'un peut-il recommander un bon didacticiel/matériel d'introduction sur l'utilisation de Numpy/Python avec GPU (NVIDIA)?
Merci beaucoup!
Est-ce que Numpy/Python détecte automatiquement la présence de GPU et l'utilise pour accélérer le calcul matriciel (par exemple numpy.multiply, numpy.linalg.inv, ... etc)?
Non.
Ou ai-je du code d'une manière spécifique pour exploiter le GPU pour un calcul rapide?
Oui. Recherchez Numba, Theano, PyTorch ou PyCUDA pour différents paradigmes pour accélérer Python avec les GPU).
Non, vous pouvez également utiliser CuPy qui a une interface similaire avec numpy. https://cupy.chainer.org/