Sélectionner une page
Depuis le lancement du port AGP en 1998, les processeurs graphiques connaissent une évolution fulgurante. Avec certaines générations, notamment les premières GeForce, les Radeon 9700 ou encore les GeForce 6, il y a même lieu de parler de révolution. Pour sa nouvelle architecture dédiée à DirectX 10, NVIDIA a investi plus de 400 millions de dollars. Tout au long des 4 années de développement, le constructeur a jalousement gardé secret sa nouvelle architecture. Alors que tout le monde attendait une évolution du G70 avec des unités de pixel et vertex shaders distinctes, le G80 fait table rase du passé. Les GeForce 8800 font appel à une architecture unifiée inédite et leurs spécifications donnent le vertige : 681 millions de transistors, 128 streaming processors, 784 Mo de GDDR3, bus 384 bits, 1350 MHz, etc.

Juste quelques rappels…

La première ATI Radeon était conçue pour appliquer jusqu'à trois textures par pixel grâce à trois unités de texturing par pipeline !Quand on s’intéresse au « pourquoi du comment » d’une nouveauté, il faut souvent faire un petit retour en arrière afin de comprendre les choix présents. A début, la 3D était surtout une question de textures à plaquer sur des polygones pour qu’ils ressemblent à la réalité : un visage, une carrosserie, de l’herbe, etc. Des textures de qualité étaient synonymes de jolis rendus… Mais des textures plus fines et détaillées sont « lourdes » et imposent un gros débit entre la carte graphique et la mémoire centrale. La 3D a donc toujours été une affaire de bande passante pour le transfert des textures de la mémoire vers le GPU mais également de données issues du CPU. Ceci explique (en partie) pourquoi l’interface graphique a évolué du PCI à l’AGP puis au PCI-Express.

DirectX 5 et DirectX 6 faisaient d’ailleurs la part belle aux textures et au multitexturing… Avec DirectX 7, le Transform & Lighting débarque. Le concept est génial : le processeur graphique remplace le processeur central dans deux des tâches les plus lourdes. Le nombre de polygone gérables s’envole… Une simple texture peut déjà produire un joli rendu. Mieux, deux textures combinées (additionnées ou multipliées) permettent d’obtenir des effets globaux intéressant : lumière, ombre, relief, etc. Avec les pixel shaders de DirectX 8, on assiste à la naissance du traitement au pixel près. Le multitexturing s’ellipse donc au profit d’une texture et de shaders. Un shader est un petit programme qui s’applique à chaque pixel à rendre. Un exemple simple est l’eau qui ondule au gré du vent, « pilotée » par un shader. Dans le même ordre d’idée, le T&L;, lui aussi rigide, cède sa place aux unités de vertex shaders. Cette fois, les shaders s’appliquent aux coordonnées des tringles (vertices dans le jardon) pour les animer directement. Après une guéguerre entre ATI et NVIDIA concernant les versions de pixels shaders, DirectX 9 remet les pendules à l’heure. On parle alors de shaders 2.0 tant pour les pixels que pour les vertex. Au passage, Microsoft augmente les impératifs de précision dans les calculs et introduit le HLSL (High Level Shader Language).

Exemple de shader 2.0Nous arrivons à présent à DirectX 9.0c qui, sans en avoir l’air, est assez révolutionnaire. Alors que les shaders étaient fixes dans DirectX 8, ils supportent à présent les branchements conditionnels. En clair, un shader peut donner un résultat différent selon un test conditionnel. L’issue suit alors un ou l’autre branchement. DirectX 9.0c ouvre aussi la voie du rendu HDR (High Dynamic Range) dont le principal intérêt est d’étendre la palette des couleurs et d’augmenter en quelque sorte le « contraste ».

Nous devrions en toute logique plancher à présent sur DirectX 10 mais en l’absence d’application, tout serait très théorique. Il faut cependant savoir que DirecrX 10 va de paire avec Windows Vista et qu’il ne s’agit plus d’une évolution des versions précédentes mais d’une nouvelle API. Le bon côté de DirectX 10 est de ne plus traîner une sacro-sainte compatibilité. Le GPU sera adressé en demandant nettement moins de ressources de la part du processeur central. Il devrait s’en suivre un gain direct de performances. Revers de la médaille : seule une carte graphique DirectX 10 sera en mesure de faire tourner DirectX 10. Nous reviendrons sur DirectX 10 dès qu’il sera d’actualité…


Concept artistique de DirectX 10 : qu’en sera-t-il en pratique ?

Architecture unifiée

L’évolution a conduit les unités de vertex et de pixel à répondre à des spécifications proches. Tant et si bien que la différence entre une unité de vertex et de pixels est devenue infime… Les cas où un rendu est bridé par la géométrie ou par le traitement des pixels sont courants. Dans sa documentation, NVIDIA illustre très simplement l’intérêt de l’unification avec deux exemples. Il ne s’agit pas d’exemples « marketing ». En pratique, dans un jeu comme Oblivion et dans bien d’autres, on retrouve des cas de limitation par la géométrie ou par le traitement des pixels. Concrètement, les développeurs essayent d’éviter les situations extrêmes en équilibrant au mieux la charge de géométrie avec celle de traitement des pixels. Pour les éditeurs, cette étape est longue et il en résulte un compromis. Côté utilisateur, elle ne permet pas de profiter de la totalité de la puissance de chaque processeur graphique spécifique… Quand voit un Core 2 Duo capable de s’adapter au code (et non d’attendre un code adapté) pour atteindre des performances sans précédent, on se prendre à rêver d’une même approche en 3D. L’idée de fusionner les unités de vertex et de pixels shaders a suivi son cours avant de devenir une réalité avec le G80.

iv>

Si l’intérêt de l’unification est évident, on ne fusionne pas des unités de vertex et de pixel en deux coups de cueillere à pot surtout quand on conçoit une architecture nouvelle et évolutive. Les unités de pixel et vertex shaders ont toujours été de type vectoriel. Elles sont conçues pour gérer des données sous forme de vecteurs à 4 composants pour les couleurs [R, G, B, A] et les coordonnées [X, Y, Z, W]. Ces unités de traitement des shaders sont de type MIMD (Multiple Instructions Multiple Data). On se souvient par exemple de l’instruction MAD (multiplication puis addition) des G70 ou des possibilités de co-issue introduites pour exploiter au mieux les pipelines longs et complexes. Nous l’avons vu, depuis DirectX 8, la tendance est claire : une texture et un shader vont de paire. L’utilisation d’un pipeline long permet de palier avec une certaines élégance un temps d’accès significatif à la texture. Malheureusement, si pour une quelconque raison un accès à une texture perdure, l’effet palliatif est perdu : il faut attendre, le pipeline est arrêté et les performances baissent.


Un pipeline avec un étranglement et un autre sens…

Afin d’être fusionnés, les pixels et vertex pipelines doivent être identiques. Pour atteindre cet objectif, certains changements s’imposent. Dans le cas des pixel pipelines, il faut se « débarrasser » de l’unité de texturing comme l’a déjà fait ATI avec le R520. En outre, après de nombreuses analyses, NVIDIA en est arrivé à la conclusion que l’approche scalaire du pipeline est à présent mieux adaptée aux flux de données à traiter et offre des performances 25% à 30% supérieures. Autre avantage, il est aussi plus simple d’optimiser du code pour des unités scalaires que pour des unités vectorielles. Enfin, des unités simples sont plus adaptées à une montée en fréquence. Les 128 streaming processors du G80 sont donc des unités scalaires SMID (Single Instruction Multiple Data). NVIDIA passe ainsi de longs pipelines vectoriels MIMD complexes (et « lents ») à des pipelines scalaires SMID court et très rapides. Alors qu’un pipeline de G71 traite un vecteur par cycle, un streaming processors du G80 manipule seulement un composant du vecteur. Dès lors, on comprend aisément la présence d’un « facteur 4 ». Et effectivement, les 128 streaming processeurs scalaires du G80 peuvent effectuer un travail comparable à celui des 32 ALU vectorielles d’un G71 (8 unités de vertex shaders et 24 pixel shader pipelines). Mais il existe une différence de taille : les streaming processors du GeForce 8800 GTX fonctionnent au bas mot à une fréquence deux fois plus élevée que les différentes unités d’un GeForce 7900 GTX !

Lumenex Engine

Comme le montre le diagramme, le GeForce 8800 GTX se compose de 8 blocs qui regroupent chacun 16 streaming processors, 4 unités de texturing et un cache L1. Les 4 unités de texturing sont composées elles-mêmes d’une double unité de filtrage simple et d’une unité d’adressage). Les différents blocs disposent de moyens de communications avancés entre leurs caches L1, L2 et les ROPs. Contrairement aux streaming processeurs cadencés à 1350 MHz, les autres parties du GPU fonctionnent à « seulement » 575 MHz. La conception est donc très différente des productions précédentes.

Certains choix tirent leur source de la nouvelle approche utilisée par NVIDIA pour masquer la latence. Au lieu de pallier la lenteur d’accès à la mémoire par un pipeline long comme ses prédécesseurs, le G80 jongle entre des shaders. Si l’accès à une texture bloque l’exécution d’un shader, le « gestionnaire de threads » sauvegarde tous les registres et lance le traitement d’un autre shader. Quand les données attendues sont disponibles, le traitement suspendu reprend. La technologie GigaThread de NVIDIA est comparable à l’Ultra-Threading introduit par ATI avec le R520.

Dans les architectures précédentes, NVIDIA utilisait des threads composé d’un très grand nombre de pixels afin d’assurer un remplissage constant des pixel pipelines. Avec le G80, NVIDIA utilise des theards beaucoup plus petits. Pour mieux comprendre les raisons de ce choix, il suffit de prendre l’exemple de calcul d’une zone de pénombre. Plus un thread est grand, plus y a de chances qu’il comporte des résultats différents lors du traitement du shader : zone exposée, d’ombre et de pénombre. Et alors ? Si au sein d’un thread tous les pixels suivent la même voie, il n’est pas nécessaire de calculer les autres branches. Le gain de performances est donc appréciable. Dans la négative, il faut continuellement jongler entre les différents résultats… Avec des blocs de 1024 pixels (32 x 32 pixels), les GeForce 7 ne profitaient guère de l’accélération liée à l’exécution partielle d’un shader. Ceci explique pourquoi le G80 fait appel à des threads de 32 pixels. A titre comparatif, ATI, après avoir introduit des threads de 16 pixels (vraisemblablement trop petits), est revenu à 48 pixels par thread pour ses Radeon X1900.

Les ROPs (Raster Operation) constituent la dernière étape avant l’écriture en mémoire de l’image finale. Comme les unités de texturing et les caches, les ROPs font partie du Lumenex Engine et travaillent à 575 MHz (dans le cas du GeForce 8800 GTX). NVIDIA utilise six ROPs qui peuvent traiter chacun 4 pixels soit un total de 24 pixels par cycle contre 16 pour les GeForce 7. Comme sur la génération précédente, les ROPs assurent trois types d’antialiasing : multisampling, supersampling et « transparent ». Les textures en FP16 et FP32 sont supportées, ce qui permet aux GeForce 8800 GTX de combiner à la demande l’antialiasing multisampling avec le HDR FP16.

Et le contrôleur mémoire ?

Si vous cherchez une corrélation entre le nombre de streaming processors et la largeur du bus, vous ne trouverez rien. Le GeForce 8800 GTX comporte 128 streaming processors groupés en 8 blocs de 16 et une interface mémoire de 384 bits. De son côté, le GeForce 8800 GTS profite de 6 blocs (soit 96 streaming processors) mais dispose d’une interface mémoire 320 bits. Le contrôleur mémoire est en fait associé aux ROPs. Chacun d’eux intègre un contrôleur mémoire avec une interface 64 bits. A raison de 5 ROPs pour le GeForce 8800 GTS et 6 ROPs pour la version GTX, on atteint respectivement 384 bits et 320 bits. Si les deux premières GeForce 8800 font appel à de la GDDR3, la GDDR4 est déjà supportée.
L’architecture modulaire tant au niveau des blocs de streaming processors que des ROPs liés au contrôleur mémoire permettra facilement et rapidement à NVIDIA de proposer une gamme de complète de GPU DirectX 10. Espérons que l’approche modulaire de NVIDIA soit plus efficace que celle utilisée par ATI lors de la séparation des unités de texturing du pixel pipeline…

Tests théoriques

Si les résultats dans les jeux sont les plus importants, il est intéressant de se pencher dans un premier temps sur les performances théoriques du G80. Nous avons utilisé Fillrate tester, ShaderMark v2.1 et D3D RightMark 1.0.5.0 pour mesurer le fillrate ainsi que la puissance des pixels et vertex shaders. Configurés par défaut dans de faibles résolutions, nous avons utilisés ces utilitaires en 1680×1050. Cette résolution est le minimum conseillé par NVIDIA pour mettre en évidence la puissance du GeForce 8800 GTX. Elle tend d’ailleurs à se généraliser avec le succès des écrans larges de 20 et 22 pouces.

Pour évaluer la puissance de traitement des pixels shaders, nous avons utilisé les shaders 18 à 26 du test ShaderMark v2.1 (les premiers sont des modèles simplistes). Le shader 18 simule de la fourrure et fait un usage important de l’alpha blending.

  • Le shader 19 applique sur le même objet répété plusieurs fois une partie des premiers shaders simples du test. Il montre la capacité à jongler avec un grand nombre de shaders, domaine où le G80 excelle vraiment. Est-ce lié à la manière dont le G80 masque les latences d’accès à la mémoire, au nombre de streaming processors et/ou à leur fréquence, difficile à dire. Le résultat est cependant largement au dessus de celui des autres GPU.
  • Les shaders 20 et 21 donnent le même résultat visuel mais le second utilise des branchements dynamiques. D’après la documentation fournie avec le logiciel, plus le score obtenu au test 21 est élevé par rapport au test 20, plus le contrôle de flux est efficace. Nous obtenons ainsi : +21% pour le GeForce 8800 GTX, +9,8% pour le Radeon X1950 XTX et + ~30% pour les GeForce 7900 GTX et GX2 qui partagent la même architecture. Si le gain escompté en théorie par rapport à la génération précédente n’est pas illustré par ce test, la puissance pure ne fait pas défaut au G80.
  • Les shaders 22, 23 et 24 utilisent le rendu HDR avec respectivement : une faible qualité sans filtrage (SM2), une haute qualité avec filtrage FP (SM3) et une haute qualité sans filtrage FP (SM3). Le résultat visuel des deux derniers shaders est identique, seule la méthode de calcul diffère. On constate que les performances du G80 sont identiques en basse et en haute qualité et dans les deux modes de filtrage. Par contre, la concurrence n’est pas loin derrière notamment le Radeon X1950 XTX avec filtrage FP.
  • Les shaders 25 et 26 portent sur la détection des contours (utile pour l’antialiasing) soit avec 1 render target et 2 passes soit avec 2 render targets et 1 passe. Tous les GPU produisent un score comparable et très peu dépendant de la méthode. Dans l’absolu, les performances du G80 sont très largement supérieures à celles des autres processeurs testés.

    Afin de mesurer les capacités géométriques du G80, nous avons utilisé D3D RightMark 1.0.5.0 qui permet tester différents types de vertex shaders. La puissance brute du dernier GPU de NVIDIA est grosso modo est plus de 2,5 fois supérieure à celle des autres ! Mais, il ne faut pas perdre de vue que le G80 adapte son architecture : la quasi-totalité des 128 streaming processors est ici dévolue à la géométrie ! Cette situation ne se produira jamais en pratique… A noter que la Radeon X1950 XTX n’affiche rien au test VS 3.0 avec contrôle de flux dynamique (probablement un bug) et que selon les pilotes, la GeForce 8800 GTX souffrait de défauts d’affichage dans les trois derniers tests.

    Pour terminer, Fillrate tester nous a permis de mesurer différents fillrates de la GeForce 8800 GTX. La vitesse d’écriture dans le buffer Z était déjà importante avec les GeForce de la génération précédente. Elle est ici tout simplement fulgurante. Si le fillrate baisse naturellement avec l’augmentation du nombre de textures, il reste globalement très élevé surtout en comparaison avec la Radeon X1950 XTX qui ne fait gère mieux qu’une GeForce 7900 GTX. Les modes double, triple et quadruple texturing n’ont pas d’intérêt compte tenu de l’emploi actuel d’une texture et de shaders à la place du multitexturing. On peut remarquer que la Radeon X1950 XTX encaisse assez mal l’emploi de plus d’une texture.

    Le comportement avec une texture et un shader (uniquement en modèle 2.0 dans ce test) est plus intéressant. Les GeForce étaient déjà très rapides avec les shaders simples mais la 8800 GTX affiche des performances encore 50% plus élevées que la 7900 GTX. Mieux, elle se montre presque 2x plus véloce avec les shaders complexes. Ici encore, il ne faut pas perdre de vue que le G80 alloue les 128 streaming processors au traitement des pixels shaders…

    Impact des filtrages

    L'emploi des mipmaps est à présent optimal : partie gauche G7x, partie droite G80.Dans Splinter Cell Chaos Theory, nous avons fait varier le filtrage de l’antédiluvien mode bilinéaire à l’anisotropique 16x en passant par le trilinéaire. Avec le G80, l’impact du filtrage anisotropique est quasiment nul : on peut parler de filtrage gratuit ! Avec ce type de GPU, il serait malheureux de ne pas activer « une bonne fois pour toutes » le filtrage anisotropique en 16x via le pilote… A noter que si les anciennes générations de GeForce ont été critiquées pour leur filtrage anisotropique, le G80 corrige le tir. Le filtrage est excellent et indépendant de l’angle de vue.
    Inversement, l’antialiasing 2x est déconseillé : il fait perdre plus de performances que le mode 4x. Nous l’avons observé dans plusieurs jeux. Cette situation est finalement assez normale, NVIDIA annonce clairement que le G80 a été conçu pour un niveau d’antialiasing « minimum » de 4x et idéalement 8x voire 16x. De nouveaux modes sont mêmes disponibles notamment le Coverage Sampling Anti-Aliasing (CSAA). De type adaptif, il est appliqué sur les pentes faibles, là où les escaliers sont généralement beaucoup plus visibles. Nous y reviendrons dans un prochain article.

    La combinaison du filtrage anisotropique 16x et de l’antialiasing 4x préserve 82% des performances brutes. C’est le meilleur score observé dans les GPU testés. Le Radeon X1950 XTX ne démérite cependant pas avec 81%. A un détail prés, la qualité du rendu du G80 est cette fois supérieure à celle de son concurrent. Il ne faut donc pas hésiter à jouer en en AA 4x et AF 16x…

    Jeux

    Nous publions peu de résultats car un comparatif mettant en lice plus de cartes et de jeux est en cours de finalisation. Nous avons les 4 cartes haut de gamme dans Oblivion en 1680×1050 avec toutes les options poussées à fond (AA 4x). Ceux qui jouent à Oblivion savent très bien qu’il est difficile de représenter les performances via un seul test. Elles varient significativement selon l’endroit ! De plus, étant donné le degré de liberté, tout le monde joue un peu à sa façon …

    Les hautes herbes, comme celles qui se trouvent autour d’Anvil sont une véritable torture pour toutes les cartes graphiques. A un tel point que la température des GPU grimpe en flèche tout comme leur consommation. Bien plus qu’avec une moyenne, c’est dans cette situation critique que la puissance du GeForce 8800 est mise en évidence.

    Pour ceux qui sont amenés à devoir faire un choix rapide, voici la moyenne des tests réalisés en 1680×1050 (tous modes confondus) en prenant comme référence un indice de 100 pour la GeForce 7900 GT. Le saut de performances est réellement marqué surtout si on ne tient pas compte de la GeForce 7950 GX2 qui n’est autre qu’un SLI des GeForce 7900 GT. La GeForce 8800 GTX est 86% plus performante qu’une 7900 GT et se montre presque 40% plus rapide qu’une 7900 GTX (à peine distancée par la récente Radeon X1950 XTX). Limitée par ses fréquences, le nombre de streaming processors et de ROPs, la GeForce 8800 GTX « impressionne » un peu moins. Elle est quand même 65% plus puissants que la GeForce 7900 GT de référence et 24% plus rapide qu’une 7900 GTX.

    La GeForce 8800 GTX

    Avec 681 millions de transistors gravés en 90 nm, le die du G80 occupe environ 500 mm². A titre indicatif, le Radeon X1950 XTX qui détenait l’ancien record couvrait 351 mm² avec 384 millions de transistors. Quant au G71 des GeForce 7900, les 196 mm² occupés par ses 278 millions de transistors le font passer pour un gringalet ! La taille de la GeForce 8800 GTX est en rapport avec ces chiffres fous : 270 mm de long soit 40 mm de plus que les plus grandes cartes de la génération précédente. Second effet « KiSS Cool », la GeForce 8800 GTX est équipée de deux connecteurs d’alimentation PCI-Express. NVIDIA explique cette situation très simplement. Une GeForce 8800 GTX consomme au maximum 160 watts. 75 watts sont disponibles via le port PCI-Express (si le constructeur de la carte a respecté les spécifications) et 75 « autres » watts sont accessibles via une alimentation auxiliaire PCI-Express. Il manque toujours 10 watts au bilan ! NVIDIA aurait pu revoir les spécifications de la carte à la baisse mais le fondeur a préféré ajouter une seconde alimentation pour tirer le meilleur de son silicium. On évite ainsi de travailler proche des limites du port PCI-Express et du connecteur auxiliaire…

    Le système de refroidissement bien qu’imposant n’est pas totalement en cuivre comme sur les Radeon X1950 XTX. Seule la base en contact avec le GPU est en cuivre, le reste est en aluminium avec un heatpipe pour éloigner la chaleur du GPU vers les ailettes. Le radiateur est le plus gros jamais utilisé sur une carte graphique de série : il occupe toute la largeur (~80 mm) de la carte sur deux étages (~22 mm) et la moitié de la longueur (~135 mm) ! Le ventilateur de 70 mm est aussi à double hauteur. Par défaut, il tourne à 1400 rpm (35,6 dBA) mais peut atteindre 2500 rpm. Dans ces conditions, il est bruyant : 44,1 dBA. Voici les nuisances sonores maximales relevées à 1 mètre de la configuration, panneau latéral ouvert :

    La vitesse du ventilateur du Radeon X1950 XTX varie de manière cyclique tout comme son niveau sonore.

    Si la GeForce 8800 GTX est généralement silencieuse, elle peut aussi devenir bruyante. En effet, l’air chaud sort via les ouïes du braquet mais une partie du flux s’échappe perpendiculairement à la carte par les découpes dans le carter en plastique monté autour du radiateur. Dans une tour, la GeForce 8800 GTX expulse donc de l’air chaud vers le bas. Quand tout l’air de la tour est réchauffé, le ventilateur aspire alors de l’air chaud et s’emballe. Heureusement, il existe des solutions simples : retirer tous les braquets (voire placer un ventilateur en extraction à leur place) ou monter un petit ventilateur d’extraction prévu pour se fixer à la place d’un braquet. Le but est en tout cas toujours le même, faire en sorte que le ventilateur aspire de l’air froid et/ou évacuer l’air chaud rejeté dans la tour.

    Quand on examine la consommation, surtout en charge, la GeForce 8800 GTX atteint une fois encore des records ! A noter qu’il s’agit bien de la consommation de la configuration complète : Asus P5W DH Deluxe, 2 x 512 Mo DDR2-800, Core 2 Duo E6600, disque dur et quelques ventilateurs. Le bloc d’alimentation est un modèle Corsair HX520. Une même machine équipée avec une GeForce 8800 GTX consomme 50% de plus qu’avec un 7900 GTX mais seulement 15% de plus qu’avec une Radeon X1950 XTX. C’est par contre sous le bureau de Windows qu’on regrette le plus la consommation élevée alors que le GPU est peu sollicité. Ceci s’explique par l’absence de mode 2D à faibles fréquences que ne peut compenser le clockgating du G80. Un peu dommage…

    Conclusion

    Avec des spécifications tout simplement hors du commun, la GeForce 8800 GTX est actuellement la carte de tous les superlatifs. Contrairement au G70 avec lequel NVIDIA avait « fait du neuf avec du vieux », le G80 est une réelle innovation. Si ce premier test ne nous a pas encore permis de couvrir toutes les nouveautés comme le support de DirectX 10 ou CUDA, tous les deux non disponibles, nos tests menés sur les possibilités directement exploitables du nouveau GPU vont au-delà de nos espérances. Malgré l’architecture radicalement nouvelle, les pilotes sont efficaces et ne posent guère de problèmes. Le G80 lui-même semble particulièrement bien né et nos tests le confirment avec des prestations de très haut niveau. NVIDIA a corrigé les problèmes de filtrage et dans la foulée, le constructeur en a profité pour se mettre au niveau de la concurrence avec le support de antialiasing multisampling avec le HDR. NVIDIA dit avoir conçu le G80 pour les hautes résolutions (minimum 1680×1050) avec filtrage anisotropique 16x et au minimum un antialiasing de 4x, force est de constater que le pari est tenu (un comparatif sera publié sous peu pour le confirmer). D’ailleurs de nouveaux mode d’antialiasing sont au menu et assez prometteurs CSAA (Coverage Sampling Anti-Aliasing). Côté point faible, on peut épauler la consommation importante surtout au repos. En charge, le niveau de performances très élevé conduit le G80 à une puissance par watt plus qu’honorable. Corollaire de cette consommation, une GeForce 8800 GTX chauffe assez fortement. Mais on peut une fois de plus saluer le système de refroidissement efficace et discret (à condition d’avoir un boîtier bien ventilé) tant que le ventilateur tourne à moins de 1800 rpm. Il reste également le problème du prix. A plus de 620 €, une GeForce 8800 GTX est assez élitiste. Ce tarif rappellera aux « plus vieux » les GeForce 2 Ultra ! Même s’il n’a pas encore fait ses preuves sous DirectX 10, le GeForce 8800 GTX est l’arme absolue pour les jeux actuels en très hautes résolutions… Un ton en dessous, moins gourmande et plus compacte, la GeForce 8800 GTS devrait intéresser un plus grand nombre, notamment ceux équipés d’écran de 20 et 22 pouces (1680×1050).

    GeForce 8800 GTX : 9.5/10
    Pour :
    Performances exceptionnelles, architecture nouvelle, visiblement bien née et prometteuse, support de DirectX 10, généralement silencieuse…
    Contre : … mais peu devenir bruyante, consommation, chaleur dissipée, encombrement, prix.

    GeForce 8800 GTS : 9.5/10
    Pour :
    Idem GTX, performances, simple alimentation.
    Contre : Consommation.