HomeBlogBlender Blog – Êtes-vous CUDA capable ?

Blender Blog – Êtes-vous CUDA capable ?

Blog_CUDA_1Comme bon nombre d’entre vous, j’ai été très vite séduit par la nouvelle version de Blender (2.61) et surtout l’intégration de Blender Cycles. Ce nouveau moteur de rendu de type “raytraycing” que je comparerais volontier à Yafaray ou Luxrender permet d’obtenir du photo réalisme à gogo ! On est loin du Blender Internal même si celui-ci, utilisé de manière avancée, n’a pas à rougir, loin de là ! La grande nouveauté, à mon goût, c’est de pouvoir visionner la scène 3D en mode rendu, de pouvoir paramétrer ces matériaux / lampes en live et de voir quasi instantanément le résultat.

Nouvelle article concernant CUDA

Bon, Cycles ne va pas faire de nous, les débutants, des artistes 3D hors pair, juste parce que c’est cycles. Un apprentissage à son utilisation sera nécessaire puisque : qui dit nouveau moteur de rendu dit aussi : nouvelle méthode pour fixer les matériaux (node compositing des matériaux indispensable pour des options avancées), la non-utilisation de lampe mais de matériau émettant de la lumière (emission material), etc.

Le grand avantage de ce moteur de rendu est la prise en charge de l’accélération matériel du rendu grâce à l’utilisation du GPU (processeur graphique) plutôt que du CPU (micro-processeur). Alors qu’on se le dise, ceci va très bien fonctionner pour ceux qui possèdent un GPU NVIDIA récent.

J’ai galéré à faire fonctionner l’ensemble…

voici le bilan: J’ai 2 tours, un petit dual-core intel avec une NVIDA GeForce 9600 GT qui n’est pas toute jeune et un quad-core i7 avec un carte ATI/AMD Radeon. Impossible de faire fonctionner un des deux en mode GPU avec cycles !

la NVIDA 9600 GT support le CUDA 1.1 et non 1.3 comme requis par la mouture officiel de blender 2.61. Rien à faire si ce n’est installer un build moins récent de Blender prenant en charge le CUDA 1.1….autrement dis, galère assurée sans être un fin connaisseur des recoins de build Blender et sans de nombreuses recherches sur le net. Il y a des pistes permettant d’aboutir mais non merci, trop pour moi.
l’ATI/AMD Radeon sur le quad-core i7 ? Rien à faire, CUDA n’ira pas sur ce hardware GPU et l’openCL est au stade expérimental….encore un grosse galère pour faire fonctionner l’ensemble même si le rendu Cycles CPU sur le quad-core se défend encore pour l’instant…

Résultat? Achat de matériel NVIDIA à pluger dans le quad-core hé oui !

Le point de départ avant toute chose et d’évaluer les possibilités de votre GPU si vous êtes déjà les heureux possesseurs de matériel NVIDIA ici:
http://developer.nvidia.com/cuda-gpus
Sinon Soyez patients. Les futures versions de blender intégreront sûrement des évolutions pour les puces ATI et pour le vieux NVIDIA… songez à renouveler le matériel 🙂

Attention, seul les GPUs CUDA 1.3 capable fonctionne sur la version officielle de Blender 2.61 !
thumb_blog_CUDA_chipsetselect
thumb_blog_CUDA_blender_gpu_select

Je me suis donc fait un petit cadeau de Noël : une GeForce GTX 560 Ti, CUDA 2.1 capable :D. J’ai pensé que ça allait passer sans soucis….après une petite chaleur, il a fallu un update des drivers NVIDIA depuis le site officiel pour que le mode GPU apparaisse enfin dans Blender 2.61. Depuis lors, c’est la totale ! Le GPU GTX 560 mouline les rendus Cycles 6x plus vite que mon quad-core CPU. C’est magnifique ! Le gain est tel que ça va favoriser l’utilisation de cycle au détriment des autres moteurs forcément plus poussifs en mode CPU.  Sans oublier toutefois de penser aux outils (dont le choix du moteur de rendu) nécessaires à votre création. Cycles n’est pas une solution à tout.

J’espère que vous trouverez de quoi vous faire plaisir avec cycles sans passer par un achat mais….pour ceux qui ont déjà tout retourné dans tout les sens, le passage par la case magasin est un accélérateur. Testé pour vous 🙂

Bons blends à tous !

 

45 Comments

  1. octobre 16, 2014 at 22:09 — Répondre

    Bonjour, Je viens de tomber sur ce post qui date mais reste quand même d’actualité puisque pas mal de blenderiens sont bloqués avec Cycles.
    Ma carte graphique une GT210 avec cuda 1.1 ne m’a pas permis de réaliser un rendu à 1 million de particules. Normal. Au dela de 20000 crash.
    J’ai décidé d’investir: nouvelle machine avec un processeur I7, 12G0 de RAM, carte graphique NVIDIA GT760 avec CUDA 2.0, 1 disque dur SSD 128 Go, 1 SATA à 1To et windows 8.

    Des années de galères et de frustrations, que je laisse derrière moi. Maintenant je peux afficher une scène assez complexe avec cycles avec une preview à 35 voir 50 pour un temps d’affichage de 1 à 2 seconde! J’ai pu faire un rendu,( prenant en compte le système volumique), de 5000 samples en 3h05′. Que du bonheur!
    Pour vous dire que ça vaut le coup d’investir un peu, sans trouer son budget.

    Le lien si vous souhaitez vous faire une idée des rendus que j’ai réalisé avec la GT760.
    http://blendid.over-blog.com/

    • octobre 16, 2014 at 22:39 — Répondre

      Oui le post date un peu, merci pour l’actualisation et le compte rendu ! Rien de tel que de flamber un peu d’argent dans du CUDA core 🙂

      • DavidL
        janvier 26, 2015 at 13:47 — Répondre

        Après y’a les gens qui achètent un portable a 500 euros et qui veulent faire de la 3D avec, lol ! Et qui se rendent compte avec grand étonnement que c’est pas top, relol ! Et qui ensuite veulent acheter un GPU a 50euros et se plaignent que ca rame/plante… lololol j’ai envie de dire une fois de plus 🙂
        Enfin bon le monde aujourd’hui… dur de comprendre la logique de certains ^^ C’est quand même clair qu’on peut pas rouler a la même vitesse qu’une Ferrari si on a une 2CV, pas besoin de faire l’unif pour comprendre…

  2. paul
    janvier 8, 2014 at 13:21 — Répondre

    Bonjour,

    Utilisez vous toujours une GeForce GTX 560 Ti ou êtes vous passé à une autre carte?

    P.

    • janvier 8, 2014 at 18:13 — Répondre

      Bonjour Paul, oui j’utilise toujours la GTX 560 Ti. Je dois dire qu’elle se défend encore pas mal pour la réalisation de tutos dédiés aux débutants-initiés 🙂 Rapport confort prix intéressant. On m’a proposé une 580 d’occasion, je vais donc peut-être changer prochainement. Cela dit, il manque toujours cruellement un benchmarking spécifique de cartes pour l’accélération CUDA sous Blender. Ca nous aiderait bien pour un faire le choix du meilleur rapport performance/prix. Certains professionnels ayant par exemple privilégié l’utilisation de plusieurs cartes 580 en parallèle.

  3. mike86
    mars 29, 2013 at 12:47 — Répondre

    Good Luck !

    Merci !, c’est décidé je m’achète un nouveau portable pour remplacer mon 2° ordi (un acer 7745G) et je me trouve un portable équipée d’une 675MX… ça devrait le faire !
    merci en tout cas.

  4. ThierryK
    mars 26, 2013 at 14:02 — Répondre

    Hello Mike, pas de news concernant une compatibilité du mode GPU avec les cartes AMD/ATI radeon de mon côté. Je me suis résolu à utiliser la techno CUDA de Nvidia. Pas besoin de changer tout l’ordi 😀 tu trouveras peut-être une carte graphique à remplacer. Sur un portable Mac c’est conton…je ne sais pas s’il y a une solution. Good Luck !

  5. mike86
    mars 26, 2013 at 10:20 — Répondre

    Salut, des news concernant les carte AMD sur macbook pro?
    Je suis désolé s’il y a redondance sur ce sujet, mais je n’arrive pas à passer en mode GPU avec mon macbook pro? dois je changer d’ordi?
    merci pour vos réponses

  6. ThierryK
    janvier 23, 2013 at 17:17 — Répondre

    Ismael,
    Pourtant toutes les infos sont là…as-tu cliqué le lien sur le site de Nvidia et lu l’article attentivement ?
    Nvidia dit : compute capability 1.1… donc c’est mort (min 1.3 requis).
    En 1 clic avec google j’ai aussi trouvé cet article qui confirme la version 1.1 de ta carte je pense : http://philippeback.be/2012/08/nvidia-cuda-devicequery-on-13-macbook-pro-mid-2009-16-cores/
    Devrais-je faire un tuto sur comment se débrouiller comme un grand avec Google 😉
    Je t’invite également à lire https://www.kopilot.ch/blog/120-blender-cycles-etes-vous-cuda-capable-2, good luck !

  7. janvier 22, 2013 at 13:22 — Répondre

    Bonjour,
    Je travaille sur un MacBook pro avec une carte graphique GeForce 9400M. Je n’arrives pas à trouver les infos précises sur la possibilité de faire des rendus GPU. J’ai installé les derniers drivers Cuda, mais rien n’y fait, dans UserPreference/System, Computer Device n’affiche que None.
    Puis-je avoir de l’aide?
    Merci par avance.
    Ismaël

  8. Thierryk
    décembre 7, 2012 at 16:23 — Répondre

    Duduff,
    Désolé, je ne me risquerai pas à choisir une carte et n’ai jamais expérimenté de carte M (mobile) pour du GPU avec Blender. Quoiqu’il en soit, tu auras trouvé le lien http://developer.nvidia.com/cuda-gpus dans cet article du blog. Le dernier tableau,colonne de droite, présente les “notebook products” et il faut du 1.3 minimum dans la colonne Compute Capability. Là j’ai un peu l’impression de ré-écrire l’article du blog… mais bon 😉
    Il y a donc du choix mais à voir si ça rentre dans le modèle de Mac que tu as. Pour ça je demanderai conseil au spécialiste du magasin. Attention à faire le bon choix donc. bonne chance dans cette jungle !
    PS, si tu fais une expérience positive avec une carte, n’hésite pas à nous donner un retour pour les prochains 🙂 Merci !

  9. décembre 7, 2012 at 15:23 — Répondre

    Salut thierryK
    Effectivement ThierryK et merci encore pour ta reponse. Je suis bien sur macbook pro 17″ avec une carte Nvidia Geforce 9400M , mais je viens également de me rendre compte qu’une seconde était présente, alors peut etre encore me diras tu (vous) ca ne change rien, celle ci aussi étant elle meme également incompatible. C’est une Nvidia 9600M GT 512 Mo. Alors je me permets une derniére question, quelle serais la petite perle de carte qui m’autoriserait de bonne perfo pour bibi Macbook que je le gate pour les fetes. Encore une fois un grand merci pour ta réponse. Cordialement

  10. ThierryK
    décembre 7, 2012 at 14:38 — Répondre

    Salut DUDUff,
    Tu as vu juste, tu es dans la mouiz! Je t’invite à lire également https://www.kopilot.ch/blog/120-blender-cycles-etes-vous-cuda-capable-2. J’en déduis que tu as un portable vu la mention m de ta carte. Pas top pour de l’accélération GPU comme tu le verras dans l’article proposé. Tu y trouveras également de l’info sommaire sur les fameux “builds” mais ça n’est pas la spécialité de kopilot qui utilise uniquement la version officielle de la Blender foundation. Ta carte n’est pas compatible avec cette version là visiblement et…pour beaucoup d’entre nous, la fin de la galère est passée par la case magasin…
    Good luck!

  11. DUDUff
    décembre 7, 2012 at 04:32 — Répondre

    Bonsoir ou bonjour a tous. Peut être vais je vous faire répéter mais je suis paumé complet. Je cherche, je cherche, je mets de la bonne volonté mais la je sèche. En même temps tt novice je débarque dans ces histoire de GPU CPU. Je suis sur blender 2.64 avec CUDA 5.0.37 sur un mac Os X 10.8.2 et Nvidia Geforce 9400 M 256 Mo, et je suis incapable de comprendre pourquoi j’ai ce message d’erreur : “Error CUDA device … capability 1.3 or up, found 1.1.” chiotte ou ai je merdé. Dans les pref utilisateur “syste” je retrouve bien : compute device et CUDA ainsi que ma carte graphique et lorsque je l’active dans le RENDER il y a plus personne sauf ce foutu message d’erreur. Alors c’est le genoux a terre que je vous demande la solution s’il vous plait 🙁 Cordialement. C’est pas ma carte qui n’est pas compatible je crois … ou trop faible ?! j’ai entendu parler de “Builds” pour les cartes ?! (autant dire que je ne sais pas ce que c’est. La il n’y a qu’une ame charitable pour m’aider.

  12. ThierryK
    novembre 12, 2012 at 21:15 — Répondre

    Hey, merci, bonne nouvelle 😆 il s’agit de ce build http://www.graphicall.org/110 ? A tenter!

  13. bobosq
    novembre 12, 2012 at 17:42 — Répondre

    Bonsoir!
    Bonne nouvelle, le dernier build (2.64.9) permet de supporter le CUDA, même pour les cartes ne supportant que le 1.1 !!!
    pensez à passer en “experimental” si vous avez toujours le message d’erreur.

  14. ThierryK
    août 10, 2012 at 06:58 — Répondre

    Hello Sckippy,
    Je pense que tu pourras trouver cette réponse en utilisant les liens de l’article sur Nvidia.
    Choisir une carte avec le max de coeurs CUDA puis la fréquence d’horloge la plus élevée apportera les meilleurs performances 🙂

  15. sckippy
    août 8, 2012 at 15:53 — Répondre

    Bonjour
    Pouvez vous me dire si il vaut mieux une série gtx 6.. ou alors une ancienne série 5.. ?

  16. ThierryK
    août 6, 2012 at 08:05 — Répondre

    Je pense pareil que sur PC,il faut du matériel CUDA compatible,soit la bonne Nvidia…n ayant pas de Mac sous le coude…difficile de t’aider plus. Les infos de cet article et les liens sur Nvidia devraient te donner des pistes,tout en t assurant que le matos est bien compatible pour ton Mac. Good luck!

  17. marsandman
    août 5, 2012 at 09:11 — Répondre

    Et comment fait-on sur mac? 😐

  18. ThierryK
    juillet 5, 2012 at 17:23 — Répondre

    Hello, J’ai une GTX 560Ti sur seven 64bits et ça passe sans soucis…du coup…je tenterai un update des drivers de la carte avec les plus récents…sinon tout ce que j’ai galéré pour faire tourner CUDA se trouve dans l’article ci-dessus 🙂 Bizarre quand même

  19. mestres
    juillet 5, 2012 at 10:27 — Répondre

    salut, je viens de terminer t’ont tuto du nagra que je trouve excellent, sur ma config, j’ai une gtx 560 avec seven 64 bits et cuda 4, apparemment ça passe pas quand je me met en gpu, j’ai un message d’erreur comme quoi j’ai pas le bon cuda( il demande le2.1)en s’est tu un peu plus la dessus, comment je peu faire.merci

  20. Chris
    avril 9, 2012 at 01:57 — Répondre

    Salut à tous
    J’ai pris une Geforce GTX 560 Titaniumn une Gigabyte qu’ils ont overclocker à 900Mhz . Bref je l’ai tester sur mon 1er pc Atlhon II x4 3Ghz avec Alimentation 480w qui a grillé au bout 10 minute et fait sauter le compteur . bref j’installe la Geforce sur mon 2eme PC de travail celui là avec un Atlhon II x6 3,5Ghz et 16go Ram avec Alimentation 500w qui a griller au bout de quelques heures ! Obliger de mettre une alimentation 750w que le vendeur ma prêter jusqu’à Mardi en attendant une Alim 600W Corsair Certifié 80+gold ou chez pas quoi pour être certain d’avoir asser de rendement. Alors faites attention, éviter les alimentation Advanced 750w mais qui en réalité donne que 400w en retour , faut mieux acheter une alimentation certifié 600w qui en donne 500w en retour.

    Tu n’as eu aucun souci Thierry avec tes alimentations ?
    merci

  21. The_Maze
    février 19, 2012 at 15:37 — Répondre

    même problème, même carte graphique (9600GT), mais pas les mêmes moyens : je cherche soit une solution universelle pour le CUDA 1.3 soit j’attend un nouveau pc :S

  22. février 14, 2012 at 18:46 — Répondre

    J’essayais désespérément de faire fonctionner Cycles avec ma carte graphique (étant l’heureux possesseur de la GT 540M). Une mise à jour des pilotes a suffit à régler le problème.

  23. ThierryK
    février 11, 2012 at 14:31 — Répondre

    @wildpenguin
    Oui ça à l’air supertop! Mais attention, clubic soulève quand même quelques désavantages dans leur article 😮
    @megane
    Attention avec l’alim oui! Il faut s’assurer que la tienne à bien de quoi alimenter la carte (certaines nécessitent 2 connecteurs plugés direct à l’alim). Si tu n’as pas déjà beaucoup de périphériques connectés (plusieurs disques-durs + DVD + blueray + une tonne de périf en USB qui tirent aussi sur l’alim) ca peut passer avec une 400W 🙂

  24. wildpenguin
    février 8, 2012 at 22:02 — Répondre

    Pour les utilisateurs de portables, ceci à l’air intéressant :
    http://www.clubic.com/actualite-67926-carte-graphique-externe-asus-xg-station.html#1
    Qu’en pensez-vous ? 8)

  25. megane
    février 8, 2012 at 14:01 — Répondre

    Je suis tenté par une nouvelle carte graphique (la mienne est incompatible), mais petit budget.
    Mon alim est une antec HCG 400w, ce qui limite encore plus le choix !
    La GTX 550 ti, 192 coeurs (c’est pas énorme, mais elle est tout de même 2,5x plus rapide qu’un i7 2600k non-OC).
    Le site de nvidia recommande une alim 400w minimum pour un système équipé d’une GTX 550 ti (pas une 560, une 550), qu’en pensez-vous, est-ce vraiment chaud pour mon alim ou est-ce qu’il n’y a aucun problème ?

  26. ThierryK
    février 1, 2012 at 20:19 — Répondre

    Tu soulèves encore une fois une question intéressante; si la prise en charge du SLI double le nombre de CUDA cores alors ça devient très excitant! Je me suis penché sur la question en creusant le web et je n’ai pas trouvé de réponse ferme. Avis bienvenus 🙂
    La question de la mémoire est aussi importante en effet, j’ai d’ailleurs atteint les limites des 1024 MB GDDR5 de ma GTX 560 Ti dans le tuto “Cosmetic packaging” pour ceux qui l’on regardé jusqu’au bout 😉

  27. c@mesigue
    février 1, 2012 at 09:29 — Répondre

    Je possède un quad-core AMD et une GeForce GTS 250. En fonctionnement normal Cycles en mode CUDA demande une version 1.3 et la GTS 250 ne possède que la version 1.1…
    Sur certaines version en GPU çà plante, logique… Mais sur la 43745, par exemple, çà fonctionne tout de même avec une pré-compilation. J’ai donc pu faire tourner la scène benchmark en GPU.
    Mais je n’ai que 512 Mo de mémoire sur ma carte graphique et là çà coince vite.
    Il faudra donc une carte graphique de génération récente et avec le plus de mémoire possible, mais le gain est purement fulgurant c’est du 10 à 20 fois plus rapide qu’avec le CPU et 8 Go de mémoire !!!
    Lors d’un prochain achat d’une carte graphique il faudra faire attention au nombre de coeurs CUDA et de la qualité ainsi que de la taille de la mémoire.
    La question que je me pose c’est : Est-ce que le SLI est supporté et apporte-il un plus ? Est-il donc judicieux d’acheter 2 cartes graphiques en SLI pour faire tourner Cycles ?

  28. ThierryK
    janvier 30, 2012 at 09:36 — Répondre

    Voilà la question à 1 million de dollars 😉
    Hé oui, on veut tjs le moins cher pour les meilleures performances…
    Alors qu’on se le dise, pour avoir de la performance faut parfois savoir y mettre le prix, au risque d’être deçu par du low-cost. Dans mes tests et notamment le tuto https://www.kopilot.ch/design-and-media/blender/94-blender-cycles-cosmetic-packaging j’ai utilisé une GTX 560 Ti, CUDA 2.1. J’en suis très content et la recommande si c’est à portée de bourse. Une caractéristique à garder à portée pour des performances acceptables en fonction du prix : le nombre de CUDA cores. La 560Ti a 384 CUDA cores.

  29. c@mesigue
    janvier 29, 2012 at 13:13 — Répondre

    J’ai une question pratique :
    Quelle carte graphique faut-il choisir pour faire fonctionner Cycles dans de bonnes conditions en y mettant le moins cher possible, en gardant une marge de progression et permettant d’avoir 2 écrans?
    Je suppose que la taille et la vitesse de la mémoire est important.
    Autre choix possible : 1 ou 2 cartes en SLI?

  30. daniel
    janvier 10, 2012 at 02:11 — Répondre

    Merci Thierry

  31. ThierryK
    janvier 9, 2012 at 19:22 — Répondre

    Daniel,
    Visiblement il n’y a pas de GT 320m sur http://developer.nvidia.com/cuda-gpus mais ça doit être la version mobile de la GT 320 qui est CUDA 1.0 donc…pas compatible avec l’accélération GPU de Blender 2.61 😮
    Changer la carte sur un portable oui c’est possible. Les versions GT XXXm étant je pense des versions pour mobile (avec le m). A trouver donc : une version mobile CUDA 1.3 sur le site NVIDIA et…un bon conseiller en magasin!
    Cela dit, je ne pense pas qu’un portable soit la meilleure bête pour du rendu GPU, la ventilation (Aie ca chauffe et ca mouline!) étant beaucoup plus limitée que sur une tour. Good luck!

  32. daniel
    janvier 9, 2012 at 15:54 — Répondre

    Bonjour j’ai une geforce Nvidia GT320m ca fonctionnerait ou pas? Mon PC est un portable je ne sais pas si on peu faire des modification dessus pour changer la carte ? Pourriez Svp me donner des infos. Le PC est un HP pavilion DV7 3165 ef il date de l année derniere je n ai pas de connaissance dans le domaine mais je kiffe trop Blender! Et si je peu faire des modif sur mon PC portable pour plus de confort avec blender alors je n hesiterais pas. Meric de votre aide

  33. Theillere
    janvier 2, 2012 at 21:49 — Répondre

    La GT 240 est équipé de cuda 1.2 et non 1.3, ça ne risque pas de fonctionner je viens de voir ça… ^^’

  34. Theillere
    janvier 1, 2012 at 21:21 — Répondre

    Je possède un i7 2600k (non oc) et une nvidia GT240 512Mo GDDR5.
    Si vous savez, pouvez-vous me dire si cuda me permettrais d’obtenir de meilleurs résultats avec mon GPU qu’avec mon CPU ?
    Je suis sous gnu/linux ubuntu et l’installation de cuda est assez compliqué, en tout cas je n’ai pas réussi, mais je serais près à retenter si ça en vaut la peine.
    Merci.

  35. Kimo
    décembre 30, 2011 at 12:58 — Répondre

    Pas de Nvidia :/ j’ai ATI

  36. jjv
    décembre 29, 2011 at 23:59 — Répondre

    Je me suis fait exactement le même cadeau et le rendu d’un simple objet sur 10000 passes prend 10 minutes au lieu de 4h45 avec mon core 2 duo. Soit un rendu GPU 28x plus rapide !

  37. fluxo
    décembre 29, 2011 at 22:05 — Répondre

    en effet dommage pour l’ openCL et les possesseurs de cartes ATI/AMD mais patiente…
    par contre vivement le support du multi-GPU mais aussi de l’ Hybrid CPU plus GPU et la c’est le bonheur !!!!

  38. patrix
    janvier 9, 2012 at 08:49 — Répondre

    Bonjour,

    Je voulais vous envoyer un email et il semblerait que votre adresse email ne soit plus opérationnelle.

    Ne validez pas ce message sur votre blog, je poste juste pour vous informer.

Leave a reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *