[ad_1]
La batalla en el mercado de las tarjetas gráficas entre AMD y NVIDIA hace ya varios años que dura, pero AMD no siempre ha hecho tarjetas gráficas y su origen está en una empresa llamada ATI Technologies, la cual es el origen del Radeon Technology Group. Acompáñanos en este viaje donde vamos a contaros la historia de la división de GPUs de AMD.
La división de GPUs de AMD nació en 1985 como Array Technology Incorporated, la empresa se especializó desde el principio en la creación de chips gráficos para utilizarlos en las tarjetas gráficas para PC, un mercado que por aquel entonces nació con el objetivo de proveer soluciones más baratas a los estándares de IBM o para proponer los suyos propios.
ATI Graphics Solution Rev 3
En los albores del PC se podían utilizar monitores basados en televisores, que carecían del receptor de radio para ver el contenido televisivo, o pantalla monocroma de mayor resolución. En las oficinas de todo el mundo el segundo tipo era más utilizado ya que permitía trabajar con 80 caracteres por línea de texto en contra de los 40 caracteres del monitor derivado del televisor.
Pero apareció una alternativa a la opción de IBM llamada Hercules, la cual también permitía hasta 80 columnas, pero de 9 caracteres cada uno. Esto además permitía un modo monocromo con búfer de imagen de 720 x 350 píxeles, pero necesitaba de una tarjeta gráfica especial, lo que suponía perder compatibilidad con la tarjeta MDA de IBM.
La ATI Graphics Solution Rev 3 se hizo muy famosa cuando apareció en el mercado en 1985, ya que integraba en una sola unidad una tarjeta gráfica CGA y una Hercules. Debido a esta versatilidad se hizo muy famosa en la época, ya que evitaba el uso de varios tipos de tarjeta gráfica distintos en un PC según el tipo de monitor.
Tarjetas gráficas ATI Wonder
ATI empezó a hacerse un nombre a partir de su EGA Wonder, una tarjeta gráfica bajo el estándar EGA que combinaba el chipset de la Graphics Solution Rev 3 con un chip EGA de Chips Technologies, por lo que esta tarjeta podía manejar varios estándares gráficos sin tener que tener varios adaptadores, lo que daba una enorme compatibilidad ante la enorme confusión de estándares gráficos de PC.
La tarjeta fue sucedida por la ATI VGA Wonder, la cual incluía un chipset VGA desarrollado por la propia ATI y mantuvo la compatibilidad con el resto de estándares anteriores también en una sola tarjeta.
Tarjetas gráficas ATI Mach
En 1990 ATI continúo haciendo clones de estándares de IBM, con la ATI Mach 8 hicieron un clon del chip gráfico 8514/A de IBM, el cual fue el inicio del estándar XGA, este estándar permitía una resolución de pantalla de 1024×768 píxeles, con una paleta de 256 colores, o 640×480 con 16 bits por pixel (65.536 colores) y procuraba copiar algunas de las funciones gráficas del chip gráfico del Commodore AMIGA.
Una de las ventajas del AMIGA sobre el PC fue el llamado Blitter, una unidad de hardware permitía copiar datos de una parte de la memoria a otra haciendo manipulaciones de los datos al vuelo a través de operaciones booleanas. Esto le permitía al AMIGA con un procesador menos potente tener potentes aplicaciones de dibujo.
La particularidad de este estándar es que nació como una extensión paralela al VGA para monitores profesionales. ¿Su mayor ventaja? Fue el añadido de operaciones gráficas al estilo Blitter como las que había en el Commodore Amiga. Por lo que operaciones visuales como dibujar líneas, copiar bloques o rellenar el color de una forma acabaron por ser posibles sin tener que utilizar ciclos de la CPU para ello.
Una vez los estándares gráficos anteriores al VGA quedaron completamente desfasados, ATI lanzo la ATI Mach 32, la cual incluía un núcleo VGA, unificando así las series ATI Wonder y ATI Mach en una sola, aunque ATI continúo utilizando el nombre ATI Wonder para ciertos productos fuera de su gama principal de tarjetas gráficas, como decodificadores de video, los cuales se utilizaban durante esa era para la descodificación de los archivos de vídeo en los CD.
A partir de las ATI MACH64 unificaron el chipset VGA y el MACH en un solo procesador gráfico.
Tarjetas gráficas ATI RAGE
El enorme éxito de la Voodoo Graphics de 3Dfx y la aparición de los juegos basados en gráficos en 3D a tiempo real provocaron que empresas como ATI tuvieran que ponerse al día para no desaparecer del mercado de las tarjetas gráficas, su respuesta fueron las ATI Rage.
El problema con el que se encontraban la mayoría de tarjetas gráficas es que las CPUs, desde la estandarización del Intel Pentium en los hogares, renderizaban las escenas de los juegos en 3D de manera mucho más rápida que lo que estaban las tarjetas gráficas de por aquel entonces, las cuales se habían diseñado para funcionar con los 486 y por tanto iban a rebufo.
La solución de ATI fue modificar su chipset ATI MACH64 para hacerle una serie de cambios que hiciesen competitiva su gama de tarjetas gráfica de cara a un futuro de juegos en 3D con gráficos a tiempo real.
- Se le añadió la capacidad de procesar texturas y filtrarlas, para eso se le añadió una caché para texturas de 4 KB.
- Se añadió un Triangle Setup o unidad de rasterizado, para liberar a la CPU de tal pesada carga.
No obstante, las primeras ATI Rage llegaron tarde y aunque tenían la potencia de una Voodoo Graphics, palidecían frente a la Voodoo 2 y la Riva TNT, la respuesta de ATI no fue otra que amplía la cantidad de unidades de texturas de 1 a 2 y colocar un bus de 128 bits, la cual vendieron bajo el nombre de ATI Rage 128.
Otra tarjeta que destaco dentro de la gama ATI Rage fue la FURY MAXX, la cual fue la primera tarjeta gráfica de ATI en implementar lo que en el futuro acabo siendo la tecnología Crossfire, esto le permitió a ATI colocar dos chips Rage 128 en una sola tarjeta.
La primera de las gráficas ATI Radeon
ATI abandono la marca Rage a partir de la primera Radeon, la cual fue la primera tarjeta con soporte para DirectX 7 de la compañía. Hacía uso de la GPU ATI R100 que inicialmente había sido nombrada como Rage 7, en realidad no era más que una Rage 128 con una unidad T&L integrada y es que el soporte completo de DirectX 7, implicaba la implementación de unidades que calculen la geometría de la escena a la hora de renderizar las escenas en 3D a tiempo real.
Por lo que la Radeon 7500 en el fondo no era más que una Rage 128 con las unidades de función fija para el cálculo de la geometría. No tenía el mismo rendimiento que la primera y la segunda generación de las GeForce que salieron al mismo tiempo, pero fue el punto de inflexión de la compañía para dar el cambio necesario.
Pero lo que le dejo el camino libre a ATI para convertirse en la rival de NVIDIA durante años, el motivo de ello fue la desaparición y posterior compra de 3Dfx por parte de NVIDIA y el descalabro de S3 y Matrox con tarjetas gráficas que no estaban a la altura.
La compra de ArtX por parte de ATI
La ATI Technologies de la década de los 2000 le debe mucho a la compra de una pequeña empresa de exingenieros de Silicon Graphics llamada ArtX. Cuando ATI la compro su trabajo más reciente había sido el chip gráfico de la consola Nintendo GameCube, aunque anteriormente habían trabajo en Nintendo 64 y algunos de sus ingenieros en el mítico Reality Engine de Silicon Graphics.
La compra fue importante porque su capital humano y saber hacer convirtieron a ATI por completo, haciendo que pudiese mirarse de tú a tú frente a NVIDIA. Paradójicamente, pese a que ATI Technologies jamás ha diseñado una GPU para una consola de Nintendo, la compra de ArtX hizo que su logo estuviese en las consolas de Nintendo con tecnología de ArtX, GameCube y Wii.
Radeon 9700, el inicio de la era dorada
La ATI Radeon 9700 bajo el chipset R300 se convirtió en una de las tarjetas gráficas más importantes de la historia de ATI, por no decir la más importante de todas y es equivalente a la primera GeForce de NVIDIA en cuanto al impacto que supuso.
Con tal de ser competitiva, AMD compro a la startup ArtX, la cual fue fundada por los mismos exingenieros de Silicon Graphics que habían trabajado en la tecnología 3D de las consolas Nintendo64 y Nintendo GameCube. ¿El resultado de la compra? La GPU R300, con la que ATI se puso a la vanguardia.
Además, tuvieron la tormenta perfecta, ya que el lanzamiento de las Radeon 9700 coincidió con el mayor patinazo de NVIDIA en toda su historia, las GeForce FX, la leyenda de las ATI Radeon había empezado y la rivalidad entre NVIDIA y ATI empezó a partir de ese punto de la historia.
Xenos, la primera GPU de ATI en consola
Originalmente Microsoft iba a lanzar lo que iba a ser Windows Vista en el 2003 o 2004 bajo el nombre en clave Longhorn y con ello una nueva versión de su DirectX, la 10, La cual no fue la que se lanzó al final para PC sino una más recortada que no apareció al final y para la que ATI Technologies diseño una GPU, la cual fue la primera en tener la misma unidad para ejecutar los diferentes tipos de shader.
Al no salir Windows Longhorn, el nombre en clave de Vista por aquel entonces. ATI junto a Microsoft decidieron reposicionarla como la ATI Xenos de Xbox 360. Siendo el primer diseño de ATI en una consola de videojuegos y abriendo una colaboración entre ATI y Microsoft, ahora parte de AMD, que aún dura a día de hoy con las Xbox Series. Y consiguiendo también una futura colaboración con SONY para las PlayStation. Es por todo esto que se trata de uno de los chips gráficos más importantes de la historia de ATI.
ATI Radeon HD 2000
La primera tarjeta gráfica de ATI con shaders unificados para PC apareció más tarde que la GeForce 8800, pese a que ATI los implemento por primera vez de la historia la GPU de Xbox 360.
No obstante, la arquitectura era completamente distinta y no se puede comparar la GPU de la consola de Microsoft con la arquitectura de la R600, la cual, en su versión más potente, la Radeon HD 2900 tenía unas 320 ALUs, lo que bajo la arquitectura Terascale son 64 unidades VLIW5 y por tanto 4 Compute Units.
No obstante, la GPU ATI R600 en la que se basaron las Radeon HD 2000 fueron una decepción, por el hecho que no fueron capaces de competir de tú a tú contra la NVIDIA GeForce GTX 8800. Un año más tarde, ATI lanzo la serie HD 3000 bajo el nodo de 55 nm y puliendo algunos fallos de diseño de la arquitectura R600, en especial su anillo de comunicación interno.
ATI Radeon HD 4870
Tras el fiasco de las variantes de la arquitectura R600, AMD decidió escalar la arquitectura de la R600 de 320 ALUS a 800 ALUs, creando con ello la arquitectura R700 que inicio con las ATI Radeon HD 4000 en la que la ATI Radeon HD 4870 se convirtió en la reina absoluta, de nuevo ATI había recuperado el trono en lo que a rendimiento se refiere y volvía a plantar cara a la competencia directa.
ATI Radeon HD 5000
En vez de diseñar una arquitectura completamente nueva desde cero para DirectX 11, en ATI decidieron lanzar el chipset R800, el cual era un R700, pero optimizado y mejorado para DirectX 11, bueno, en realidad no estaba optimizado para DirectX 11, sino que ATI lanzo Terascale 2 como una forma de salir del paso y con muy pequeños cambios realmente.
Una de las novedades de DirectX 11 fueron los Compute Shaders, pero inicialmente se planteó unificando la lista de dibujado en pantalla y computación como una sola. Fue un desastre enorme tanto para ATI como para NVIDIA, pero ATI en aquellos momentos estaba más bien centrada en poder hacer posible la idea de AMD, de la que ya formaba parte, de unir CPU y GPU en un solo chip. Por lo que todos sus esfuerzos se centraban en el proyecto Fusion de AMD.
La serie 5000 de ATI Technologies fue el final de la marca ATI en las tarjetas gráficas, la cual fue renombrada después de eso en el Radeon Technology Group o RTG y así sigue hasta nuestros días.
The post Si eres gamer de la vieja escuela, estas GPU ATI te traerán recuerdos appeared first on HardZone.
[ad_2]