Red de conocimiento del abogados - Respuesta a la Ley de patrimonio - Una breve historia del desarrollo de las tarjetas gráficas

Una breve historia del desarrollo de las tarjetas gráficas

VGA (Video Graphics Array) es una matriz de gráficos de visualización, un sistema de gráficos construido por IBM en sus modelos PS/2 50, 60 y 80. Su modo digital puede alcanzar 720x400 colores y su modo de dibujo puede alcanzar 640x480x16 colores y 320x200x256 colores. Esta es la primera vez que una tarjeta gráfica puede mostrar 256 colores al mismo tiempo. Y estos modos se han convertido en el mismo estándar para todas las tarjetas gráficas posteriores. La popularidad de las tarjetas gráficas VGA llevó a las computadoras a la era moderna de mostrar tarjetas gráficas 2D. En el futuro, muchas empresas de diseño de tarjetas gráficas VGA continuarán innovando y buscando una mayor resolución y color de bits. Al mismo tiempo, IBM lanzó la especificación de pantalla de monitor 8514/A, que se utiliza principalmente para admitir una resolución de 1024x 768.

En el proceso de avance de la era 2D a la era 3D, una tarjeta gráfica que no se puede ignorar es la tarjeta gráfica Trident 8900/9000. Permite que la tarjeta gráfica aparezca como un accesorio independiente en el. computadora por primera vez, en lugar de un chip integrado. Entonces su Trident 9685 es el representante de la tarjeta gráfica 3D de primera generación. Sin embargo, debería ser la GLINT 300SX la que realmente abra la puerta a las tarjetas gráficas 3D. Aunque su funcionalidad 3D es extremadamente sencilla, supone un hito. 1995 fue definitivamente un año histórico para las tarjetas gráficas, ya que las tarjetas aceleradoras de gráficos 3D entraron oficialmente en el horizonte de los jugadores. En ese momento, los juegos acababan de entrar en la era 3D y la aparición de una gran cantidad de juegos 3D obligó a las tarjetas gráficas a convertirse en verdaderas tarjetas aceleradoras 3D. Además, este año se creó una empresa. No hace falta decir que todo el mundo sabe que sí, es 3Dfx. En 1995, 3Dfx todavía era una empresa pequeña, pero como empresa de tecnología 3D establecida, lanzó la primera tarjeta aceleradora de gráficos 3D verdadera de la industria: Voodoo. En el "Motorcycle Hero" más popular en ese momento, el rendimiento de Voodoo en velocidad y color enloqueció a los usuarios amantes de los juegos. Muchos fanáticos de los juegos han tenido la experiencia de ir a Computer City a comprar una tarjeta gráfica Voodoo de marca por más de 1.000 yuanes. La tecnología patentada de interfaz del motor Glide de 3Dfx alguna vez dominó todo el mundo 3D. No fue hasta la aparición de D3D y OpenGL que esta situación cambió. Voodoo viene de serie con 4 Mb de memoria de vídeo, que puede proporcionar velocidad de visualización 3D y las imágenes más hermosas con una resolución de 640×480. Por supuesto, Voodoo también sufrió graves daños. Es solo una tarjeta secundaria con función de aceleración 3D y debe usarse con una tarjeta gráfica con función 2D. Creo que muchos viejos jugadores de Edo todavía recuerdan la combinación dorada de S3 765+Voodoo. Hablando del S3 765, tenemos que mencionar la antigua tarjeta gráfica S3 King.

La tarjeta gráfica S3 765 era la configuración estándar compatible con las computadoras en ese momento. Admitía hasta 2 MB de memoria de video EDO y podía lograr una visualización de alta resolución, que era el efecto de las tarjetas gráficas de alta gama. En el momento. Este chip realmente hace avanzar a SVGA. Puede admitir una resolución de 1024 × 768, admite colores reales de hasta 32 bits a baja resolución y tiene una sólida relación precio/rendimiento. Así que el S3 765 realmente le dio a la tarjeta gráfica S3 su primera gloria.

Luego se lanzó en 1996 S3 Virge, una tarjeta gráfica con aceleración 3D que soporta DirectX e incluye muchas funciones avanzadas de aceleración 3D, como buffer Z, doble buffer, sombras y efectos atmosféricos e iluminación, en realidad. se convirtieron en los pioneros de las tarjetas gráficas 3D, logrando la segunda gloria de las tarjetas gráficas S3. Desafortunadamente, después de alcanzar a 3Dfx, la serie S3 Virge no siguió siendo brillante.

Desde entonces, para reparar las deficiencias de Voodoo en visualización 2D, 3Dfx lanzó VoodooRush, que agregó la tecnología Z-Buffer. Desafortunadamente, en comparación con Voodoo, el rendimiento 3D de voodourush no ha mejorado, lo que ha causado muchos problemas de compatibilidad. El alto precio también ha restringido la promoción de las tarjetas gráficas voodourush.

Por supuesto, el mercado de tarjetas aceleradoras de gráficos 3D en ese momento no estaba dominado por 3Dfx. El alto precio dejó mucho espacio para que otros fabricantes sobrevivieran, como el entonces rentable Trident 9750/9850. , que proporcionó la tecnología de decodificación de hardware Mpeg -II SIS6326, y Riva128/128zx lanzada por nVidia por primera vez en la historia del desarrollo de tarjetas gráficas. 1997 fue el año en que aparecieron por primera vez las tarjetas gráficas 3D y 1998 fue el año en el que surgieron las tarjetas gráficas 3D y la competencia fue feroz. En 1998, el mercado de los juegos 3D estaba turbulento. Se lanzaron colectivamente una gran cantidad de juegos 3D más sofisticados, lo que dio a los usuarios y fabricantes mayores expectativas sobre la velocidad y el rendimiento de las tarjetas gráficas.

Con el gran honor y el aura deslumbrante que aporta Voodoo, 3Dfx ha lanzado otro producto que hace época: Voodoo 2. Voodoo2 viene con memoria EDO de 8 Mb/12 Mb, interfaz PCI y chips duales en la tarjeta, que pueden realizar una operación multitextura de un solo ciclo. Por supuesto, Voodoo2 también tiene desventajas. El cuerpo de la tarjeta es muy largo y el chip genera mucho calor, lo que también se ha convertido en un problema. Además, Voodoo2 también es una tarjeta hija del acelerador 3D y requiere el soporte de una tarjeta gráfica 2D. Pero es innegable que el lanzamiento de Voodoo2 ha llevado la aceleración 3D a un nuevo hito. Con los efectos, gráficos y velocidad de Voodoo2, conquistó muchos juegos 3D populares en ese momento, como Fifa98, NBA98, Quake2, etc.

Quizás muchos usuarios aún no sepan que la tecnología SLI más popular en 2009 también era una nueva tecnología de Voodoo2 en ese momento. Voodoo2 admite por primera vez la tecnología de tarjeta gráfica dual, lo que permite que dos Voodoo2 funcionen en paralelo y obtengan el doble de rendimiento.

Aunque 1998 fue un año glorioso para Voodoo2, otros fabricantes también contaban con algunas obras clásicas. Matrox MGA G200 no sólo hereda su magnífico estándar 2D, sino que también cuenta con mejoras revolucionarias en 3D. No sólo proporciona velocidad de procesamiento y efectos especiales similares a los de Voodoo2, sino que también admite decodificación de DVD y salida de vídeo. Además, también crea una tecnología original de bus dual independiente de 128 bits, que mejora enormemente el rendimiento. Con la popular tecnología de bus AGP de la época, el G200 también se ganó el favor de muchos usuarios.

El I740 de Intel lanzó el chipset 440BX de Intel en ese momento. Es compatible con la tecnología AGP 2X y viene de serie con 8 Mb de memoria de vídeo. Desafortunadamente, el I740 tiene un rendimiento pobre. Su rendimiento 2D sólo puede estar a la par con el S3 Virge, y su rendimiento 3D está sólo al nivel del Riva128. Sin embargo, tiene ventajas de precio obvias y tiene una posición firme en el segmento bajo. mercado final.

Riva TNT es un producto lanzado por Nvidia para prevenir Voodoo2. Viene de serie con 16 Mb de memoria grande, es totalmente compatible con la tecnología AGP, admite reproducción de color de 32 bits por primera vez, tiene un rendimiento D3D más rápido y un precio más bajo que Voodoo2, y se ha convertido en el nuevo favorito de muchos jugadores. ATI, que ha estado deambulando por el mundo de Apple, también lanzó una tarjeta gráfica llamada Rage Pro, que es un poco más rápida que Voodoo. En el IDF de la primavera de 2001, Intel anunció oficialmente PCI Express, que es la tecnología de E/S de tercera generación que reemplaza al bus PCI, también conocido como 3GIO. La especificación para este bus es desarrollada por el AWG (Arapahoe Working Group) apoyado por Intel. El 17 de abril de 2002, AWG anunció oficialmente que el borrador de la especificación de 3GIO 1.0 se completó y se entregó a PCI-SIG para su revisión. Al principio todo el mundo pensó que se llamaría Serial PCI (influenciado por Serial ATA), pero al final se llamó oficialmente PCI Express. Spec2.0 (especificación 2.0) se lanzó oficialmente en 2006.

El proceso de evolución de la tecnología de bus PCI Express es en realidad el proceso de evolución de la velocidad de interfaz de E/S del sistema informático. El bus PCI es un bus paralelo de 33 MHz @ 32 bits o 66 MHz @ 64 bits con un ancho de banda de bus de 133 MB/s hasta un máximo de 533 MB/s, y todos los dispositivos conectados al bus PCI * * * disfrutan de 133 MB /s a 533 MB/s El ancho de banda... Este bus básicamente no es un problema cuando se trata de tarjetas de sonido, tarjetas de red 10/100M e interfaces USB 1.1. Con el mayor desarrollo de la tecnología informática y de comunicaciones, ha surgido una gran cantidad de interfaces de E/S de nueva generación, como la tecnología Gigabit (ge), Ten Gigabit (10GE) Ethernet y la tecnología 4G/8G FC, lo que hace que el ancho de banda del PCI bus insatisfactorio Debido a la gran cantidad de requisitos de lectura y escritura paralela de gran ancho de banda en los sistemas informáticos, el bus PCI también se ha convertido en un cuello de botella para mejorar el rendimiento del sistema, por lo que apareció el bus PCI Express. La tecnología de bus PCI Express se ha utilizado ampliamente en sistemas de almacenamiento de nueva generación. El bus PCI Express puede proporcionar un ancho de banda extremadamente alto para cumplir con los requisitos del sistema.

A partir de 2009, se finalizó la especificación PCI-E 3.0. Su velocidad de codificación de datos se duplica en comparación con la especificación PCI-E 2.0 en las mismas circunstancias, y la velocidad bidireccional del puerto X32 es tan alta como. 320 Gbps.

Ventajas técnicas del bus PCI Express

Las mayores ventajas del bus PCI son la estructura simple, el bajo costo y el diseño simple, pero las deficiencias también son obvias:

1) El bus paralelo no puede conectar demasiados dispositivos, el bus tiene poca escalabilidad y la interferencia entre líneas hará que el sistema no funcione correctamente.

2) Cuando se conectan varios dispositivos, el ancho de banda efectivo del bus se reducirá considerablemente y la velocidad de transmisión será más lenta.

3) Para reducir los costos y la interferencia mutua tanto como sea posible, es necesario reducir el ancho de banda del bus, o diseñar el bus de direcciones y el bus de datos de manera multiplexada, lo que reduce la utilización del ancho de banda. El bus PCI Express es un bus de interconexión de E/S de uso general y alto rendimiento definido para futuras plataformas informáticas y de comunicación.

En comparación con el bus PCI, el bus PCI Express tiene las siguientes ventajas técnicas:

1) Es un bus serie para transmisión punto a punto y cada canal de transmisión tiene ancho de banda dedicado.

2) El bus PCI Express admite el modo de transmisión bidireccional y el modo de transmisión de subcanal de datos. El modo de transmisión del subcanal de datos es x1. x2. x8. s, no comparable al bus PCI normal.

3) El bus PCI Express hace pleno uso de la interconexión punto a punto avanzada, la tecnología basada en conmutación y los protocolos basados ​​en paquetes para lograr nuevas características y rendimiento del bus.

La administración de energía, la calidad de servicio (QoS), la compatibilidad con conexión en caliente, la integridad de los datos y los mecanismos de manejo de errores también son características avanzadas admitidas por el bus PCI Express.

4) Una buena herencia con el bus PCI puede mantener la continuidad y confiabilidad del software. Las características clave de PCI, como el modelo de aplicación, la estructura de almacenamiento y la interfaz de software del bus PCI Express, siguen siendo consistentes con el bus PCI tradicional, pero el bus PCI paralelo se reemplaza por un bus completamente serial con alta escalabilidad.

5) El bus PCI Express aprovecha al máximo la interconexión avanzada punto a punto, lo que reduce la complejidad y dificultad del diseño de la plataforma de hardware del sistema, lo que reduce en gran medida los costos de diseño de fabricación y desarrollo del sistema y mejora en gran medida la rentabilidad del sistema y robustez. Como se puede ver en la siguiente tabla, mientras aumenta el ancho de banda del bus del sistema, se reduce la cantidad de pines de hardware, lo que reduce directamente los costos de hardware.

A partir de 2008, las tarjetas gráficas todavía utilizan la interfaz PCI-E. A finales de 1999, el mercado de las tarjetas gráficas floreció y este año el mercado se deshizo del monopolio de 3Dfx. Debido a errores estratégicos, 3Dfx perdió su mercado. Lanzó Voodoo3, equipado con una memoria de vídeo de 16 Mb y compatible con reproducción de 16 colores. Aunque la calidad de la imagen es impecable, el alto precio y los estándares incompatibles con el mercado no pueden compensar la caída. A finales de siglo, la gloria de las tarjetas gráficas quedó en manos de Nvidia.

En 1999, nVidia lanzó tres versiones de chips: TNT2 Ultra, TNT2 y TNT2 M64, seguidos de PRO y VANTA. Este método de clasificación también lleva a varios fabricantes a clasificar el mismo chip en gama alta, media y baja para satisfacer diferentes niveles de necesidades de los consumidores. La serie TNT está equipada con una memoria de vídeo de 8 Mb a 32 Mb, admite AGP2X/4X, admite renderizado de 32 bits y muchas otras tecnologías. Aunque la imagen en color de 16 bits es mucho peor que la de Voodoo3, el rendimiento en color de 32 bits es notable, y en color de 16 bits, el rendimiento de TNT2 ha superado ligeramente a Voodoo3, pero objetivamente hablando, en color de 32 bits. Por supuesto, la capacidad de NVIDIA para derrotar a Voodoo3 no es ajena a la estrategia impulsada por 3Dfx para obligar a muchos fabricantes a acudir a NVIDIA, que impulsó la promoción de la serie TNT. En el mercado de las tarjetas gráficas, Nvidia y 3Dfx compiten por el dominio.

El mercado de tarjetas gráficas en 1999 también fue inolvidable a partir de Matrox MGA G400. Su capacidad de memoria era de 16Mb/32Mb, soportaba AGP 2X/4X, texturas grandes y renderizado de 32 bits, etc., que eran. todo en la industria en ese momento. Técnica muy popular y segura. Además, la exclusiva y hermosa tecnología de mapeo de golpes de hardware EMBM, que crea una sensación de golpe perfecta y puede lograr efectos dinámicos de luces y sombras, realmente ha vuelto locos a innumerables jugadores. En términos de 3D, su velocidad e imagen están básicamente entre Voodoo3 y TNT2, y las capacidades de reproducción de DVD del G400 son excelentes. Sin embargo, debido al precio y su énfasis en los mercados OEM y profesionales, ¡no ocupa una gran proporción en el mercado de tarjetas gráficas civiles!

De 1999 a 2000, NVIDIA finalmente irrumpió. A finales de 1999 lanzó una tarjeta gráfica revolucionaria, la Geforce 256, que derrotó por completo al 3Dfx. GeForce 256, con nombre en código NV10, admite mapeo de entornos cúbicos, T&L completo de hardware (transformación y amplificación, iluminación) y los datos originalmente calculados por la CPU se entregan directamente al chip de pantalla para su procesamiento, lo que libera en gran medida la CPU y mejora la rendimiento del chip. GeForce256 tiene cuatro canales de textura de gráficos, cada uno de los cuales procesa dos texturas de píxeles en un ciclo. Su frecuencia de funcionamiento es de 1,20 MHz y su velocidad máxima puede alcanzar los 480 megapíxeles/seg. Es compatible con SDRAM y DDR RAM, y los productos que utilizan DDR pueden aprovechar al máximo el rendimiento de GeForce256. Su desventaja es que utiliza un proceso de 0,22 micrones y tiene un poder calorífico relativamente alto.

En 2000, nVidia desarrolló la tarjeta aceleradora de gráficos 3D de quinta generación, Geforce 2, que utilizaba un proceso de 0,18 micrones, que no sólo redujo significativamente la generación de calor, sino que también aumentó la frecuencia de funcionamiento de Geforce 2. a 200MHz. Geforce 2 tiene cuatro canales de textura de gráficos, cada uno de los cuales procesa dos texturas de píxeles en un solo ciclo, y se utiliza DDR RAM para resolver el problema del ancho de banda insuficiente de la memoria de video. Sobre la base de Geforce 256, Geforce 2 también tiene NSR (NVIDIA Shading Rasterizer), que admite tecnología de procesamiento de sombreado píxel por píxel, S3TC, FSAA, mapeo de relieve Dot-3 y funciones de compensación dinámica de hardware MPEG-2, y es totalmente compatible. Microsoft DirectX 7. Frente a diferentes clasificaciones de mercado, se han lanzado sucesivamente la serie GF2 MX de gama baja y la serie GF2 Pro y GF GTS de gama alta orientada al mercado. Toda la línea de productos convierte a nVidia en el líder indiscutible en tarjetas gráficas.

Voodoo4/5 se lanzó antes de que nVidia adquiriera 3Dfx. Voodoo 4 4500 usa un chip VSA-100, Voodoo 5 5500 usa dos chips VSA-100 y Voodoo 5 6000 usa cuatro chips VSA-100.

Desafortunadamente, por varias razones, Voodoo

Como principal competidor de Nvidia, ATI también depende de la tecnología T&L para abrir el mercado. Después del fracaso de Leona, ATI también lanzó su propio chip T&L RADEON 256. RADEON también tiene versiones de gama alta y baja como NVIDIA, hardware completo T&L, Dot3 y mapeo de relieve de mapas ambientales, y dos canales de textura, se pueden procesados ​​simultáneamente. Pero lo más destacado es la tecnología HYPER-Z, que mejora enormemente la velocidad 3D de las tarjetas gráficas RADEON y la acerca a la serie GEFORCE 2. Las tarjetas gráficas ATI también empezaron a dominar el mercado.

En el mercado de gama media y baja en el año 2000, también estaba el Blade T64 de Trident. El núcleo de Blade XP es el primer procesador gráfico de 256 bits de Trident, que utiliza un proceso de fabricación de 0,18 micrones, una frecuencia de reloj central de 200 MHz y una tasa de llenado de píxeles de 1,6 G, que está al mismo nivel que Geforce2GTS y admite Direct X7.0, etc. Desafortunadamente, los usuarios no lo admiten debido a razones de controlador y rendimiento.

Después de entrar en 2001, al igual que Intel y AMD en el mercado de procesadores de escritorio, el mercado de tarjetas gráficas evolucionó hasta una situación en la que nVidia y ATI competían por la hegemonía. NVidia, con la serie Geforce 3 recientemente lanzada que ocupa muchos mercados, Geforce 3 Ti 500, Geforce 2 Ti, Geforce 3 Ti y Geforce MX están posicionadas respectivamente en los mercados de nivel medio, alto y bajo. En comparación con las tarjetas gráficas de la serie GeForce 2, la principal mejora de la tarjeta gráfica GeForce 3 es la adición de funciones t&l programables, que pueden proporcionar soporte de hardware para casi todos los efectos de imagen. GeForce 3 tiene un total de canales de 4 píxeles, con una tasa de llenado de hasta 800 megapíxeles por segundo. La serie Geforce 3 también cuenta con tecnologías como el procesador de vértices nfiniteFX, el procesador de píxeles nfiniteFX y el sistema anti-aliasing Quincunx.

Como oponente, la serie ATI Radium Dragon 8500/7500 se fabrica mediante un proceso de 0,15 micrones, incluye 60 millones de transistores y utiliza muchas tecnologías nuevas (como Truform y Smartshader). Según la frecuencia de trabajo del núcleo/memoria de la tarjeta gráfica, se divide en diferentes grados: la versión estándar con núcleo/memoria de 275/550MHz, la RADEON 8500LE con núcleo/memoria de 250/500MHz, la versión Ultra con frecuencia de núcleo/memoria 300/600MHz, y el Radium Dragon 7500 de gama media, Radium Dragon 7200 y 7000 de gama baja. Vale la pena mencionar que el Radium Dragon 8500 también admite la tecnología de pantalla de doble cabezal.

En 2002, la competencia entre NVIDIA y ATI se hizo más intensa. Para consolidar su posición dominante en el mercado de chips gráficos, nVidia lanzó la serie Geforce 4, que son GeForce4 Ti4800, GeForce 4Ti4600, GeForce 4Ti400, GeForce 4Ti4200, GeForce4 MX 460, GeForce4 MX 440 y GeForce4 MX 420. La serie GeForce4 Ti es sin duda la más rentable. Su nombre clave es NV25. Estaba dirigida principalmente al mercado de gráficos de alta gama en ese momento y era el procesador de gráficos GPU más potente en la era DirectX 8. La cantidad de transistores en el chip llega a 63 millones, producidos mediante un proceso de 0,15 micrones y utilizando un nuevo paquete PBGA. La frecuencia operativa alcanza los 300 MHz y la memoria DDR con una frecuencia de 650 MHz puede alcanzar 4,9 mil millones de muestras por segundo. El núcleo GeForce4 Ti tiene cuatro canales de renderizado integrados, cada canal contiene dos TMU (unidades de mapeo de materiales). La serie Geforce 4 ha arrasado en todo el mercado de tarjetas gráficas de mayor a menor.

Como contraataque, ATI produjo la serie R9700/9000/9500, que soportaba DirectX 9 por primera vez, dándole una ventaja en la competencia con NVidia. La R9700 supera a Nvidia en velocidad y rendimiento por primera vez. R9700 soporta AGP 8X y DirectX 9, con una frecuencia central de 300MHz y un reloj de memoria de 550MHz. RADEON 9700 implementa una revolucionaria arquitectura de hardware programable. Cumple con los últimos estándares de AGP 8X, un producto básico para dibujo. Está equipado con 8 tuberías de pintura capaces de procesar 2.500 millones de píxeles por segundo y 4 motores de procesamiento de geometría paralelos capaces de procesar 300 millones de trayectorias y polígonos de luz por segundo. R9000 es un producto de gama baja y R9500 elige directamente Ti4200.

Ese mismo año, SiS lanzó la serie Xabre. Es la primera tarjeta gráfica AGP 8×, totalmente compatible con DirectX 8.1, y llamó bastante la atención cuando se lanzó. Los chips gráficos de la serie Xabre utilizan un proceso de 0,15 micrones y tienen cuatro canales de renderizado de píxeles, cada uno con dos unidades de mapeo.

En teoría, puede proporcionar una tasa de llenado de píxeles de hasta 1200 millones de píxeles/s y una tasa de llenado de material de 2400 millones de píxeles/s. El Xabre600 lanzado posteriormente utiliza un proceso de 0,13 micrones, la frecuencia principal y la frecuencia de la memoria se han mejorado mucho, y su rendimiento es similar al de la GeForce4 Ti4200.

En 2003, el mercado de tarjetas gráficas todavía estaba dominado por las series N y A. La serie Gf FX 5800 (NV30) de NVidia tiene sombreado de 32 bits, lo que mejora la calidad de las imágenes en color. En base a esto, la GeForce FX 5900 aumentó la cantidad de transistores, redujo la frecuencia del núcleo y la frecuencia de la memoria, cambió a 256B99v DDR y aumentó el ancho de banda de la memoria. En la segunda mitad del año, se lanzó la serie GF FX 5950/5700 para reemplazar a la GF FX 5900/5600. ATI lanza RADEON 9800/pro/SE/XT, que una vez más supera a GF GX 5800 por su rendimiento superior y bajo precio. Los principales productos del mercado este año incluyen GF FX5600, GF FX5200, RADEON 9600 y RADEON 9200.

2004 también fue un año de gran éxito para ATI, pero su mayor contribución provino del Radium Dragon 9550 para el mercado de gama baja. Esta tarjeta gráfica más rentable en 2004 convirtió a ATI en un actor poderoso en el mercado de gama baja. R9550 se basa en el núcleo RV350, utiliza un proceso de 0,13 micrones, con una frecuencia central de 250 MHz, una frecuencia de memoria de 400 MHz, 4 canales de renderizado, 1 unidad de textura y es compatible con 64 bits y 128 bits. Este producto es una versión reducida del 9600, pero se puede transformar en R9600, lo cual es muy rentable. En cuanto a la antigua tarjeta rival n, solo lanzaron el nuevo producto GF FX 5900XT/SE. Las series 5200, 5500 y 5700LE, que están en la misma línea competitiva que la R9550, tienen un buen rendimiento. ninguna ventaja de precio y fueron completamente derrotados por el R9550. 2004 fue un año de depresión para Nvidia.

Nvidia ha suprimido ATi desde 2005, ya sea 1950 txt frente a 7900GTX, 2900XT frente a 8800GTX, 3870X2 frente a 9800GX2. Entre los productos estrella, ATI siempre ha estado en desventaja, pero en junio de 2008, ATi lanzó el RV770, que fue muy satisfactorio en términos de precio de mercado y rendimiento. Especialmente después de mejorar el rendimiento de la tarjeta anterior de AA, el precio de la 4850 de rango medio del RV770 tomó a Nvidia con la guardia baja. Sin embargo, el precio del 9800GTX se redujo en 1.000 yuanes en una semana, pero ni el rendimiento ni el precio pudieron detener la ofensiva del 4850, y el 4870 se lanzó de inmediato. La potencia informática de punto flotante del RV770 que utiliza memoria DDR5 alcanza 1 TB/s. Aunque la nueva versión insignia del Core GT200 lanzada por NVIDIA está temporalmente por delante en rendimiento, sólo tiene una diferencia de rendimiento del 10 % en comparación con el 4870. Debido a la tecnología atrasada y al alto costo, no hay relación calidad-precio. Justo cuando la gente pensaba que ATi estaba renunciando a su buque insignia y preparándose para tomar la ruta rentable, ATi lanzó el R700, que es el 4870X2. Y mejoró enormemente el rendimiento del chip puente, superando al GTX280 hasta en un 50-80%. El área central del GTX280 era demasiado grande para derivarse de una sola tarjeta y de doble núcleo, por lo que ATI confió en una sola tarjeta. y doble núcleo para recuperar al rey del rendimiento.

Pero a principios de 2009, Nvidia recuperó el trono del rendimiento de las tarjetas gráficas con la nueva GTX295. El 22 de septiembre de 2009, AMD lanzó oficialmente la primera tarjeta gráfica DirectX 11 de la industria: la serie ATI Radium Dragon HD 5800: HD5870/5850 es la última tarjeta gráfica insignia de un solo núcleo de ATI, la HD5870, que utiliza el núcleo RV870. es GTX295. Después del lanzamiento de la última tarjeta gráfica GT300 de NVIDIA, comenzará nuevamente una nueva ronda de competencia entre AMD y NVIDIA en DX 11.