Se você não acompanha o mercado de placas de vídeo com freqüência, realmente fica muito complicado saber a diferença entre os diversos chips gráficos da NVIDIA existentes hoje no mercado.
Para saber a diferença entre estes chips, observe a tabela abaixo:
A
Chip Gráfico |
Clock |
Clock da Memória |
Memória |
Taxa de Transf. Memória |
Pixels por Clock |
DirectX |
GeForce4 MX 420 |
250 MHz |
166 MHz |
128 bits |
2,6 GB/s |
1 |
7 |
GeForce4 MX 440 SE |
250 MHz |
333 MHz |
64 bits |
2,6 GB/s |
1 |
7 |
GeForce4 MX 440 |
270 MHz |
400 MHz |
128 bits |
6,4 GB/s |
1 |
7 |
GeForce 4 MX 440 AGP 8x |
275 MHz |
512 MHz |
128 bits |
8,1 GB/s |
1 |
7 |
GeForce4 MX 460 |
300 MHz |
550 MHz |
128 bits |
8,8 GB/s |
1 |
7 |
GeForce MX 4000 |
250 MHz |
* |
32 bits, 64 bits ou 128 bits |
* |
1 |
7 |
GeForce4 Ti 4200 |
250 MHz |
514 MHz (64 MB) ou 444 MHz (128 MB) |
128 bits |
8,2 GB/s (64 MB) ou 7,1 GB/s (128 MB) |
4 |
8.1 |
GeForce4 Ti 4200 AGP 8x |
250 MHz |
500 MHz |
128 bits |
8 GB/s |
4 |
8.1 |
GeForce4 Ti 4400 |
275 MHz |
550 MHz |
128 bits |
8,8 GB/s |
4 |
8.1 |
GeForce4 Ti 4600 |
300 MHz |
650 MHz |
128 bits |
10,4 GB/s |
4 |
8.1 |
GeForce4 Ti 4800 SE |
275 MHz |
550 MHz |
128 bits |
8,8 GB/s |
4 |
8.1 |
GeForce4 Ti 4800 |
300 MHz |
650 MHz |
128 bits |
10,4 GB/s |
4 |
8.1 |
GeForce FX 5200 |
250 MHz |
400 MHz |
64 bits ou 128 bits |
3,2 GB/s ou 6,4 GB/s |
4 |
9.0 |
GeForce FX 5200 Ultra |
350 MHz |
650 MHz |
128 bits |
10,4 GB/s |
4 |
9.0 |
GeForce FX 5600 |
325 MHz |
550 MHz |
128 bits |
8,8 GB/s |
4 |
9.0 |
GeForce FX 5500 |
270 MHz |
400 MHz |
64 bits ou 128 bits |
3,2 GB/s ou 6,4 GB/s |
4 |
9.0 |
GeForce FX 5600 Ultra |
500 MHz |
800 MHz |
128 bits |
12,8 GB/s |
4 |
9.0 |
GeForce FX 5700 LE |
250 MHz |
400 MHz |
128 bits |
6,4 GB/s |
4 |
9.0 |
GeForce FX 5700 |
425 MHz |
600 MHz |
128 bits |
9,6 GB/s |
4 |
9.0 |
GeForce FX 5700 Ultra |
475 MHz |
900 MHz |
128 bits |
14,4 GB/s |
4 |
9.0 |
GeForce FX 5800 |
400 MHz |
800 MHz |
128 bits |
12,8 GB/s |
8 |
9.0 |
GeForce FX 5800 Ultra |
500 MHz |
1 GHz |
128 bits |
16 GB/s |
8 |
9.0 |
GeForce FX 5900 XT |
390 MHz |
680 MHz |
256 bits |
21,7 GB/s |
8 |
9.0 |
GeForce FX 5900 |
400 MHz |
850 MHz |
256 bits |
27,2 GB/s |
8 |
9.0 |
GeForce FX 5900 Ultra |
450 MHz |
850 MHz |
256 bits |
27,2 GB/s |
8 |
9.0 |
GeForce FX 5950 Ultra |
475 MHz |
950 MHz |
256 bits |
30,4 GB/s |
8 |
9.0 |
GeForce PCX 5300 |
325 MHz |
650 MHz |
128 bits |
10,4 GB/s |
4 |
9.0 |
GeForce PCX 5750 |
475 MHz |
900 MHz |
128 bits |
14,4 GB/s |
4 |
9.0 |
GeForce PCX 5900 |
350 MHz |
500 MHz |
256 bits |
17,6 GB/s |
8 |
9.0 |
GeForce PCX 5950 |
475 MHz |
900 MHz |
256 bits |
30,4 GB/s |
8 |
9.0 |
GeForce 6200 |
300 MHz |
550 MHz |
128 bits |
8,8 GB/s |
4 |
9.0c |
GeForce 6200 LE |
350 MHz |
550 MHz |
64 bits |
4,4 GB/s |
2 |
9.0c |
GeForce 6200 (TC) |
350 MHz |
666 MHz * |
32 bits ou 64 bits |
2,66 GB/s ou 5,32 GB/s * |
4 |
9.0c |
GeForce 6500 (TC) |
400 MHz |
666 MHz |
32 bits ou 64 bits |
2,66 GB/s ou 5,32 GB/s |
4 |
9.0c |
GeForce 6600 |
300 MHz |
550 MHz * |
64 bits ou 128 bits |
4,4 GB/s ou 8,8 GB/s * |
8 |
9.0c |
GeForce 6600 DDR2 |
350 MHz |
800 MHz * |
128 bits |
12,8 GB/s |
8 |
9.0c |
GeForce 6600 LE |
300 MHz |
* |
64 bits ou 128 bits |
4 GB/s ou 8 GB/s |
4 |
9.0c |
GeForce 6600 GT |
500 MHz |
1 GHz |
128 bits |
16 GB/s |
8 |
9.0c |
GeForce 6600 GT AGP |
500 MHz |
900 MHz |
128 bits |
14,4 GB/s |
8 |
9.0c |
GeForce 6800 LE |
300 MHz |
700 MHz |
256 bits |
22,4 GB/s |
8 |
9.0c |
GeForce 6800 XT |
325 MHz |
600 MHz |
256 bits |
19,2 GB/s |
8 |
9.0c |
GeForce 6800 XT AGP |
325 MHz |
700 MHz |
256 bits |
22,4 GB/s |
8 |
9.0c |
GeForce 6800 |
325 MHz |
600 MHz |
256 bits |
19,2 GB/s |
12 |
9.0c |
GeForce 6800 AGP |
325 MHz |
700 MHz |
256 bits |
22,4 GB/s |
12 |
9.0c |
GeForce 6800 GS |
425 MHz |
1 GHz |
256-bit |
32 GB/s |
12 |
9.0c |
GeForce 6800 GS AGP |
350 MHz |
1 GHz |
256-bit |
32 GB/s |
12 |
9.0c |
GeForce 6800 GT |
350 MHz |
1 GHz |
256 bits |
32 GB/s |
16 |
9.0c |
GeForce 6800 Ultra |
400 MHz |
1,1 GHz |
256 bits |
35,2 GB/s |
16 |
9.0c |
GeForce 6800 Ultra Extreme |
450 MHz |
1,1 GHz |
256 bits |
35,2 GB/s |
16 |
9.0c |
GeForce 7100 GS (TC) |
350 MHz |
666 MHz * |
64 bits |
5,32 GB/s * |
4 |
9.0c |
GeForce 7200 GS (TC) |
450 MHz |
800 MHz * |
64 bits |
6,4 GB/s * |
4 |
9.0c |
GeForce 7300 SE (TC) |
225 MHz |
* |
64 bits |
* |
4 |
9.0c |
GeForce 7300 LE (TC) |
450 MHz |
648 MHz * |
64 bits |
5,2 GB/s * |
4 |
9.0c |
GeForce 7300 GS (TC) |
550 MHz |
810 MHz * |
64 bits |
6,5 GB/s * |
4 |
9.0c |
GeForce 7300 GT (TC) |
350 MHz |
667 MHz |
128 bits |
10,6 GB/s |
8 |
9.0c |
GeForce 7600 GS |
400 MHz |
800 MHz |
128 bits |
12,8 GB/s |
12 |
9.0c |
GeForce 7600 GT |
560 MHz |
1,4 GHz |
128 bits |
22,4 GB/s |
12 |
9.0c |
GeForce 7800 GS |
375 MHz |
1.2 GHz |
256 bits |
38,4 GB/s |
16 |
9.0c |
GeForce 7800 GT |
400 MHz |
1 GHz |
256 bits |
32 GB/s |
20 |
9.0c |
GeForce 7800 GTX |
430 MHz |
1,2 GHz |
256 bits |
38,4 GB/s |
24 |
9.0c |
GeForce 7800 GTX 512 |
550 MHz |
1,7 GHz |
256 bits |
54,4 GB/s |
24 |
9.0c |
GeForce 7900 GS |
450 MHz |
1,32 GHz |
256 bits |
42,2 GB/s |
20 |
9.0c |
GeForce 7900 GT |
450 MHz |
1,32 GHz |
256 bits |
42,2 GB/s |
24 |
9.0c |
GeForce 7900 GTX |
650 MHz |
1,6 GHz |
256 bits |
51,2 GB/s |
24 |
9.0c |
GeForce 7950 GT |
550 MHz |
1,4 GHz |
256 bits |
44,8 GB/s |
24 |
9.0c |
GeForce 7950 GX2 ** |
500 MHz |
1,2 GHz x2 |
256 bits x2 |
38,4 GB/s x2 |
24 x2 |
9.0c |
GeForce 8400 GS *** |
450 / 900 MHz |
800 MHz |
64 bits |
6,4 GB/s |
16 |
10 |
GeForce 8500 GT *** |
450 / 900 MHz |
666 MHz ou 800 MHz |
128 bits |
10,6 GB/s ou 12,8 GB/s |
16 |
10 |
GeForce 8600 GT (DDR2) *** |
540 / 1,18 GHz |
666 MHz ou 800 MHz |
128 bits |
10,6 GB/s ou 12,8 GB/s |
32 |
10 |
GeForce 8600 GT (GDDR3) *** |
540 / 1,18 GHz |
1,4 GHz |
128 bits |
22,4 GB/s |
32 |
10 |
GeForce 8600 GTS *** |
675 / 1,45 GHz |
2 GHz |
128 bits |
32 GB/s |
32 |
10 |
GeForce 8800 GS *** ^ |
550 / 1.375 MHz |
1.6 GHz |
192 bits |
38,4 GB/s |
96 |
10 |
GeForce 8800 GT *** ^ |
600 / 1,5 GHz |
1,8 GHz |
256 bits |
57,6 GB/s |
112 |
10 |
GeForce 8800 GTS *** |
500 / 1,2 GHz |
1,6 GHz |
320 bits |
64 GB/s |
96 |
10 |
GeForce 8800 GTS 512 *** ^ |
650 / 1.625 MHz |
1,94 GHz |
256 bits |
62,08 GB/s |
128 |
10 |
GeForce 8800 GTX *** |
575 / 1,35 GHz |
1,8 GHz |
384 bits |
86,4 GB/s |
128 |
10 |
GeForce 8800 Ultra *** |
612 / 1,5 GHz |
2,16 GHz |
384 bits |
103,6 GB/s |
128 |
10 |
GeForce 9400 GT *** ^ |
550 / 1,4 GHz |
800 MHz |
128 bits |
12,8 GB/s |
16 |
10 |
GeForce 9500 GT *** ^ |
550 / 1,4 GHz |
1 GHz (DDR2) ou 1,6 GHz (GDDR3) |
128 bits |
16 GB/s (DDR2) ou 25,6 GB/s (GDDR3) |
32 |
10 |
GeForce 9600 GSO *** ^ |
550 / 1,35 GHz |
1,6 GHz |
192 bits |
38,4 GB/s |
96 |
10 |
GeForce 9600 GSO 512 *** ^ |
650 / 1.625 MHz |
1,8 GHz |
256 bits |
57,6 GB/s |
48 |
10 |
GeForce 9600 GT *** ^ |
600 / 1,5 GHz ou 650 / 1.625 MHz |
1,8 GHz |
256 bits |
57,6 GB/s |
64 |
10 |
GeForce 9800 GT *** ^ |
600 / 1,5 GHz |
1,8 GHz |
256 bits |
57,6 GB/s |
112 |
10 |
GeForce 9800 GTX *** ^ |
675 / 1.688 MHz |
2,2 GHz |
256 bits |
70,4 GB/s |
128 |
10 |
GeForce 9800 GTX+ *** ^ |
738 / 1.836 MHz |
2,2 GHz |
256 bits |
70,4 GB/s |
128 |
10 |
GeForce 9800 GX2 ** *** ^ |
600 / 1,5 GHz |
2 GHz |
256 bits |
64 GB/s |
128 |
10 |
GeForce G 100 *** ^ |
567 / 1,4 GHz |
1 GHz |
64 bits |
8 GB/s |
8 |
10 |
GeForce GT 120 *** ^ |
500 MHz / 1,4 GHz |
1 GHz |
128 bits |
16 GB/s |
32 |
10 |
GeForce GT 130 *** ^ |
500 / 1,25 GHz |
1 GHz |
192 bits |
24 GB/s |
48 |
10 |
GeForce GTS 150 *** ^ |
738 / 1.836 MHz |
2 GHz |
256 bits |
64 GB/s |
128 |
10 |
GeForce 205 *** ^ |
589 MHz / 1.402 MHz |
1 GHz |
64 bits |
8 GB/s |
8 |
10.1 |
GeForce 210 *** ^ |
589 / 1.402 MHz |
1 GHz |
64 bits |
8 GB/s |
16 |
10.1 |
GeForce GT 220 *** ^ |
625 / 1.360 MHz |
1,58 GHz |
128 bits |
25,28 GB/s |
48 |
10.1 |
GeForce GT 240 *** ^ |
550 / 1.340 MHz |
1,8 GHz (DDR3) ou 2 GHz (GDDR3) ou 3,4 GHz (GDDR5) |
128 bits |
28,8 GB/s (DDR3) ou 32 GB/s (GDDR3) ou 54,4 GB/s (GDDR5) |
96 |
10.1 |
GeForce GTS 250 512 MB *** |
675 / 1.620 MHz |
2 GHz |
256 bits |
64 GB/s |
128 |
10 |
GeForce GTS 250 1 GB *** ^ |
738 / 1.836 MHz |
2,2 GHz |
256 bits |
70,4 GB/s |
128 |
10 |
GeForce GTX 260 *** ^ |
576 / 1.242 MHz |
2 GHz |
448 bits |
112 GB/s |
192 |
10 |
GeForce GTX 260/216 *** ^ |
576 / 1.242 MHz |
2 GHz |
448 bits |
112 GB/s |
216 |
10 |
GeForce GTX 275 *** ^ |
633 / 1.404 MHz |
2,268 GHz |
448 bits |
127 GB/s |
240 |
10 |
GeForce GTX 280 *** ^ |
602 / 1.296 MHz |
2,21 GHz |
512 bits |
141,7 GB/s |
240 |
10 |
GeForce GTX 285 *** ^ |
648 / 1.476 MHz |
2,48 GHz |
512 bits |
159 GB/s |
240 |
10 |
GeForce GTX 295 ** *** ^ |
576 / 1.242 MHz |
2 GHz |
448 bits |
112 GB/s |
240 |
10 |
GeForce 310 *** ^ |
589 / 1.402 MHz |
1 GHz |
64 bits |
8 GB/s |
16 |
10.1 |
GeForce GT 430 *** ^ |
700 / 1.600 MHz |
1,8 GHz |
128 bits |
28,8 GB/s |
96 |
11 |
GeForce GTS 450 *** ^ |
783 / 1.566 MHz |
3,6 GHz |
128 bits |
57,7 GB/s |
192 |
11 |
GeForce GTX 460 *** ^ |
675 / 1.350 MHz |
3,6 GHz |
192 bits (768 MB) ou 256 bits (1 GB) |
86,4 GB/s (768 MB) ou 115,2 GB/s (1 GB) |
336 |
11 |
GeForce GTX 465 *** ^ |
607 / 1.215 MHz |
3.206 MHz |
256 bits |
102,6 GB/s |
352 |
11 |
GeForce GTX 470 *** ^ |
607 / 1.215 MHz |
3.348 MHz |
320 bits |
133,9 GB/s |
448 |
11 |
GeForce GTX 480 *** ^ |
700 / 1.401 MHz |
3.696 MHz |
384 bits |
177,4 GB/s |
480 |
11 |
A
:: Observações
* O fabricante da placa pode definir um outro clock de memória e uma outra interface de memória, portanto você deve prestar atenção porque nem todas as placas baseadas neste chip seguem estas especificações. A taxa de transferência da memória depende do clock da memória e da interface de memória.
A
** A GeForce 7950 GX2, a GeForce 9800 GX2 e a GeForce GTX 295 usam dois chips gráficos trabalhando em paralelo (SLI). Os dados publicados são para apenas um dos chips.
A
*** As séries GeForce 8, 9, 100, 200, 300 e 400 usam dois clocks, um mais alto para os motores de sombreamento e outro mais baixo para o restante do chip. As unidades de sombreamento são unificadas, significando que não há unidades separadas de sombreamento de pixels e de sombreamento de vértices. Leia nosso artigo Arquitetura da Série GeForce 8 para mais informações.
A
( ^ ) Usa o barramento PCI Express 2.0, que dobra a largura de banda disponível para a comunicação com o PC de 2,5 GB/s para 5 GB/s caso uma placa-mãe com slot PCI Express 2.0 seja usada.
A
(TC) significa TurboCache, uma tecnologia que permite à placa de vídeo simular ter mais memória de vídeo usando parte da memória RAM do micro como memória de vídeo.
A
Em um primeiro momento, a sopa de letrinhas da NVIDIA pode parecer confusa. O chip GeForce FX 5700 Ultra roda a um clock superior ao dos chips GeForce FX 5900, GeForce FX 5900 Ultra e GeForce FX 5900 XT e isto pode fazer com que você pense que o GeForce FX 5700 Ultra é mais rápido do que os chips da série 5900.
A
Só que não é bem assim que ocorre. Os chips da série GeForce FX 5900 acessam a memória a 256 bits por vez, enquanto que a memória é acessada a 128 bits na série GeForce FX 5700. Isto faz com que o desempenho da série 5900 no acesso à memória seja o dobro das séries anteriores. Por exemplo, para que o desempenho de memória do GeForce FX 5700 Ultra alcançasse o desempenho de memória do chip GeForce FX 5900 Ultra, a sua memória teria de ser acessada a 1.700 MHz (o dobro do clock de memória usado).
A
Outro exemplo. De acordo com a tabela você pode pensar que o GeForce 6600 GT é mais rápida do que o GeForce 6800 por ter um clock mais elevado (500 MHz contra 325 MHz). Mas acontece que o GeForce 6800 acessa a memória a 256 bits por vez, enquanto que o GeForce 6600 GT acessa a memória a 128 bits. Além disso, o GeForce 6800 processa doze pixels por pulso de clock, enquanto que o GeForce 6600 GT processa apenas oito pixels.
A
A maneira correta de se comparar o desempenho da memória entre chips diferentes é através da taxa de transferência da memória, que é calculada com a fórmula clock x bits por clock / 8.
A
Outra diferença está no processador gráfico da série FX 5900, que processa oito pixels por pulso de clock, enquanto nas demais séries o chip gráfico só processa quatro pixels por clock. Ou seja, mesmo tendo um clock mais elevado, o GeForce FX 5700 Ultra tem um desempenho de processamento gráfico inferior aos chips da série FX 5900, já que estes conseguem processar o dobro de pixels quando operando a um mesmo clock (grosso modo, para o GeForce FX 5700 Ultra ter o mesmo desempenho do GeForce FX 5900 Ultra, ele teria de rodar no dobro do clock).
A
Ou seja, não é correto comparar chips gráficos comparando apenas os seus clocks.
Outro cuidado que devemos ter é em relação ao chip GeForce FX 5900 XT. Enquanto nos chips da concorrente ATI as letras “XT” indicam o chip topo de linha da série (ex: Radeon 9800 XT), na série da NVIDIA estas mesmas letras indicam o chip mais simples da série (ver tabela).
A
Você deve tomar cuidado com as placas de vídeo de baixo custo que utilizam chips gráficos da NVIDIA, pois elas podem usar clocks e acessar a memória com valores diferentes daqueles mostrados na tabela. Por exemplo, você pode encontrar chips GeForce FX 5200, GeForce FX 5500 e GeForce 6600 acessando a memória a 64 bits ou 128 bits. Nós já vimos no mercado placas de vídeo com chips GeForce FX 5200, GeForce FX 5500 e GeForce 6200 acessando a memória a 32 bits por vez!
A
- Em relação às versões do DirectX, veja a tabela abaixo:
DirectX |
Modelo Shader |
7.0 | Não |
8.1 | 1.4 |
9.0 | 2.0 |
9.0c |
3.0 |
10 |
4.0 |
10.1 |
4.1 |
11 |
5 |
A
- Debata sobre este e outros assuntos no Fórum Bits Caverna!
- Encontre as melhores placas de vídeo com preços especiais na Oficina dos Bits.
A
ATI RadeON HD5830 1GB GDDR5 HDMI – PCI-E – Gratis Alien Vs predador – XFX
AGP ATI RadeON HD4650 1GB DDR2 128bits – DVI/HDMI – Ultimate Armaments – Asus
AGP GeForce FX6200 512MB DDR2 – DVI/VGA – EVGA