Pour les applications qui consomment énormément de CPU (pour faire des rendus par exemple), vous pensez qu'ils commenceront bientôt à utiliser la technologie CUDA ou la version d'AMD ou alors ces technologies vont faire un joli flop ?
Pour les applications qui consomment énormément de CPU (pour faire des rendus par exemple), vous pensez qu'ils commenceront bientôt à utiliser la technologie CUDA ou la version d'AMD ou alors ces technologies vont faire un joli flop ?
Je pense que personne ne va vraiment s'amuser à développer des soft se basant complètement sur CUDA ou Stream (à la limite des extensions permettant à une appli de s'en servir un peu), et un mec d'IBM spécialiste des systèmes distribués nous a donné une opinion similaire.
Par contre, lorsqu'on pourra programmer une appli facilement pour qu'elle utilise efficacement et aussi bien un CPU ou un GPU sans (trop) d'adaptation du code, alors là .... Concrètement ça veut dire lorsque OpenCL aura atteint ce stade.
Avec un peu de recule.. je me rappel les sois disant "spécialistes" qui racontaient qu'on aurauis jamais besoins de giga octets de RAM... suffisait de bien savoir programmer.
C'est pas entierement faux.. mais ils avaient pas prévus de DB grosses comme la bibli du congres américain tenant dans une clefs USB...
En fait, l'informatique est vachement jeune... pour l'instant je l'ai suivis de C à Z... me manque juste l'époque des ordis à lampes ou a relais...
Je suis persuadé que la lois de Moor va se poursuivre en terme de puissance de calculs.. y compris pour les CG... il y a plus qu'a imaginer ce que l'on va pouvoir faire avec dans 5 ou 10 ans... C'est juste une problème de capacité à imaginer les possibilités.
Putain, je suis en train de penser..... je serais même pas a la retraite moi dans 10 ans... mrd....