Il y a eu plus demandes de configuration
deep learning, donc il ne serait peut-être pas mal de parler de manière générale des besoins de telles configurations. Voici ce qu'on trouve comme recommandations.
Selon
https://timdettmers.com/2018/12/16/deep-learning-hardware-guide/ :
- CM + CPU :
. Le nombre de lignes PCIe n'est pas crucial, tant que la CM et le CPU supportent assez de GPU (avec au moins 1-2 cœur par GPU)
. Le CPU a un rôle mineur : ne pas dépenser trop.
RAM :
. La RAM n'est pas ce qu'il y a de plus important tant qu'il y en a plus que la RAM de plus gros des GPU
. La vitesse de la RAM n'est pas importante
- SSD (pour OS, logiciel, données souvent utilisées) + HDD pour le reste
- GPU : les 'blowers' sont mieux que les doubles ventilateurs avec plusieurs GPU
- Alim :
. puissance = besoins CPU + GPU + futurs GPU + marge
. Le rendement de l'alimentation fait baisser les factures d'électricité
. Vérifier le nombre de PCIe de l'alim
- Avoir plusieurs écrans augmente la productivité
Selon
https://medium.com/the-mission/how-to-build-the-perfect-deep-learning-computer-and-save-thousands-of-dollars-9ec3b2eb4ce2, ce qui est important :
- Le CPU :
. la CM (et le boîtier) doivent être suffisants pour le (futur) nombre de GPU
. au moins 8 (16 est mieux) lignes PCIe par GPU (+ 4 pour le SSD + 4 ethernet)
. en tout >= 8 cœurs (>= 16 threads) et >= 40 lignes PCIe pour 4 GPU (y compris futurs)
. AMD a un meilleur rapport qualité/prix
- La RAM peut contenir l'intégralité des données (sans compression)
- Le GPU :
. assez de RAM
. assez rapide
. Nvidia est plus facilement compatible avec Tensorflow, PyTorch, etc.
. les 'blowers' sont mieux que les doubles ventilateurs avec plusieurs GPU
- Alim :
. puissance = besoins CPU + GPU + futurs GPU + marge
. attention au bruit
Comparatif GPU :
https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/