Wikipedia dit que la Tesla M60 a 2x8 Go RAM (quoi que cela signifie) et TDP 225–300 W.
J'utilise une instance EC2 (g3s.xlarge) qui est censée avoir une Tesla M60. Mais nvidia-smi
la commande indique qu'il a 8 Go de RAM et une puissance maximale de 150 W:
> Sudo nvidia-smi
Tue Mar 12 00:13:10 2019
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 410.79 Driver Version: 410.79 CUDA Version: 10.0 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 Tesla M60 On | 00000000:00:1E.0 Off | 0 |
| N/A 43C P0 37W / 150W | 7373MiB / 7618MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 6779 C python 7362MiB |
+-----------------------------------------------------------------------------+
Qu'est-ce que ça veut dire? Est-ce que je reçois une "moitié" de la carte? La Tesla M60 est-elle en fait deux cartes coincées ensemble comme le suggère la spécification du ram (2x8)?
Oui, le Tesla M60 est deux GPU collés ensemble , et chaque instance g3s.xlarge ou g3.4xlarge obtient n des deux GPU.