Page 2 sur 2

Carte graphique

Publié : lun. 26 janv. 2009 23:43
par syno
Ben ya pu ka lui demander l'adresse de sa copine... :whistle:

Et une 7600Gs ça pourrais remplacer quoi en Quadro ?

Carte graphique

Publié : mar. 27 janv. 2009 00:54
par augur1
je dirais la fx 570 ... à vu de nez

Carte graphique

Publié : mar. 27 janv. 2009 07:07
par FrCo
rhooo la princesse !
Ben ya pu ka lui demander l'adresse de sa copine... :whistle:

Et une 7600Gs ça pourrais remplacer quoi en Quadro ?

:p

Carte graphique

Publié : mar. 27 janv. 2009 09:26
par poulpito
autant le préciser pour le commun des mortels aucun intérêt de faire ca :)
ou alors ya des fonctions cachées :D

Carte graphique

Publié : mar. 27 janv. 2009 10:05
par syno
=> poulpito : tu parle de la copine de FrCo ? il y a surement des fonctions cachées chez une fille... :pt1cable:

Je me demande si cela à un intéret pour le montage vidéo... au niveau décodage des images par ex.

Je sais même pas si le PureVidéo (payant) est encore nécessaire sur les CG moderne...

Carte graphique

Publié : jeu. 12 févr. 2009 21:25
par Zedoune
Pour les applications qui consomment énormément de CPU (pour faire des rendus par exemple), vous pensez qu'ils commenceront bientôt à utiliser la technologie CUDA ou la version d'AMD ou alors ces technologies vont faire un joli flop :D ?

Carte graphique

Publié : jeu. 12 févr. 2009 22:51
par syno
J'avais lu des tests utilisant de FPGA pour faire du raytracing... tests prometteurs..

Je pense qu'avec la reprogrammation à la volée des CG on devrais arriver à des résultats intéressants.

Carte graphique

Publié : ven. 13 févr. 2009 13:20
par c0bw3b
Pour les applications qui consomment énormément de CPU (pour faire des rendus par exemple), vous pensez qu'ils commenceront bientôt à utiliser la technologie CUDA ou la version d'AMD ou alors ces technologies vont faire un joli flop :D ?
Je pense que personne ne va vraiment s'amuser à développer des soft se basant complètement sur CUDA ou Stream (à la limite des extensions permettant à une appli de s'en servir un peu), et un mec d'IBM spécialiste des systèmes distribués nous a donné une opinion similaire.
Par contre, lorsqu'on pourra programmer une appli facilement pour qu'elle utilise efficacement et aussi bien un CPU ou un GPU sans (trop) d'adaptation du code, alors là .... Concrètement ça veut dire lorsque OpenCL aura atteint ce stade. ;)

Carte graphique

Publié : lun. 16 févr. 2009 10:13
par syno
Avec un peu de recule.. je me rappel les sois disant "spécialistes" qui racontaient qu'on aurauis jamais besoins de giga octets de RAM... suffisait de bien savoir programmer.

C'est pas entierement faux.. mais ils avaient pas prévus de DB grosses comme la bibli du congres américain tenant dans une clefs USB...

En fait, l'informatique est vachement jeune... pour l'instant je l'ai suivis de C à Z... me manque juste l'époque des ordis à lampes ou a relais...

Je suis persuadé que la lois de Moor va se poursuivre en terme de puissance de calculs.. y compris pour les CG... il y a plus qu'a imaginer ce que l'on va pouvoir faire avec dans 5 ou 10 ans... C'est juste une problème de capacité à imaginer les possibilités.

Putain, je suis en train de penser..... je serais même pas a la retraite moi dans 10 ans... mrd....