Tarjetas+Gráficas

= =

= __ Tarjetas Gráficas __ =

media type="custom" key="7650775" align="center"


 * ==Introducción==
 * ==Funcionamiento==
 * ==Historia==
 * ==Tipos==
 * ==Componentes==
 * ==Fabricantes==
 * ==Problemas==

= Introducción =

Una tarjeta grafica o tarjeta de video es el componente de un PC encargado de mostrar imágenes en alguno de los distintos medios de visualización, como un monitor o un televisor. Con la utilización masiva de imágenes digitales, estas tarjetas han aumentado su importancia, ya que gran parte de la comodidad y de la eficacia que obtengamos en el uso de un ordenador depende de ellas. Hoy en día, todas las tarjetas gráficas tienen aceleración por hardware, es decir, tienen chips que se encargan de procesar la información e interpretarla para hacer los efectos, texturas... que luego vemos en la pantalla. La mayoría de las tarjetas graficas son dispositivos independientes, conectado a la placa base a través de los buses. Sin embargo, se encuentran tarjetas graficas integradas en la placa base, las cuales realizan la misma función. Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las integradas en la placa base. Algunas tarjetas gráficas pueden ofrecer funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación o diversos tipos de conectores Firewire, lápiz óptico o joystick. Las tarjetas gráficas no son dominio exclusivo de los PC, también cuentan con ellas dispositivos como los Commodore Amiga, Apple II, Apple Macintosh y, por supuesto, en las videoconsolas, como Wii, PlayStation 3 o Xbox360. La tarjeta gráfica puede ser un componente muy caro en un ordenador, y por ello ha de adaptarse perfectamente a las necesidades que se tengan. Es muy importante tener bien claro qué uso se le dará al equipo (y a la tarjeta), no es lo mismo dedicar un ordenador a tareas ofimáticas exclusivamente que a disfrutar de los últimos juegos. De hecho, son los juegos y la exigencia de requisitos de ellos además del presupuesto, los que son usados como referencia de un buen rendimiento de una tarjeta gráfica.

= Funcionamiento =

Basicamente la tarjeta gráfica, tras un proceso de transformación, produce los píxeles necesarios para mostrar una imagen en la pantalla. La pantalla es un espacio bidimensional, es decir, tiene dos coordenadas, mientras que las aplicaciones pueden trabajar con un espacio tridimensional. Ahí está la clave de la transformación que tiene que realizar la tarjeta gráfica. Las aplicaciones se basan en un “Interface para la Programación de Aplicaciones” (API), un lenguaje de programación centrado en los gráficos 3D que será OpenGL o Direct3d. El API enviará el mundo 3D al hardware gráfico utilizando un driver creado para tal fin. El driver se encargará de convertir las instrucciones del API al código máquina del chip gráfico y la tarjeta gráfica convertirá en píxeles esa información recibida para que finalmente sean representados en el monitor, televisor, etc. Este proceso vuelve a comenzar cada vez que se genera una imagen (frame).




 * ==Las fases del proceso de renderizado de una imagen 3D:==

**1. Generación de la geometría por parte de la aplicación.**
La aplicación 3D modela la imagen que posteriormente tendrá que renderizar la tarjeta basándose en triángulos. Dichos triángulos forman polígonos y éstos a su vez componen objetos. Estos objetos se almacenan en un formato que se denomina “espacio de objetos” (o “espacio mundo”), un sistema cartesiano de coordenadas en el cual cada triángulo es posicionado. El posicionamiento de cada triángulo está definido por tres vértices en el espacio. A este el proceso se le denomina “generación de geometría”.

En el siguiente paso, una vez generada la geometría que va a representar la gráfica en la pantalla, la aplicación decidirá qué polígonos son visibles en la escena teniendo en cuenta el punto de vista de la cámara. Esta técnica determina qué partes de la escena serán visibles en el frame a representar para mandárselas a la gráfica.

La aplicación también decidirá qué nivel de complejidad tendrán los objetos a representar. Según el nivel de detalle se hacen varias representaciones de un mismo modelo, con más o menos polígonos según la distancia a que será representado. Es otra manera de eliminar carga innecesaria a la aceleradora.

Una vez generada la geometría a representar por la gráfica, comienza el tratamiento de esta información por parte de la aceleradora.

2. Transformación e Iluminación (T&L) de la Geometría.
En esta etapa la geometría almacenada en el espacio de objetos es convertida al “espacio de pantalla”. Esto es necesario para que la gráfica pueda operar con ella. El espacio de pantalla, a diferencia del espacio de objetos, almacena la información en base a las coordenadas X e Y de los píxeles de la pantalla, es decir, estamos convirtiendo una información albergada en un espacio tridimensional a otro bidimensional.

Los objetos 3d han de moverse en la escena cada frame para crear ilusión de movimiento. Para realizar esto se utilizan operaciones llamadas “transformaciones”. Las transformaciones se aplican a los vértices de cada objeto pueden ser de tres tipos:
 * Translación: movimiento de un objeto a lo largo de uno de sus tres ejes.
 * Rotación: un objeto es rotado en un eje.
 * Escalado: cambiar de tamaño un modelo.

En la época anterior a DirectX 7 este proceso de transformación era realizado por la CPU. Tras la aparición de las primeras GeForce de NVIDIA todo esto cambió. El T&L por hardware puede ser de dos tipos. El primero y más primitivo, de la época DirectX 7, sería el “fijo”, en donde se transforma e ilumina cada vértice según un patrón único definido en el hardware y que el programador no puede variar. A partir de DirectX 8 las aceleradoras incorporan unidades programables de vértices (vertex shaders) con las cuales se puede hacer lo que se desee con los vértices, las transformaciones no estarán limitadas a un tipo de operación como en el T&L.

La iluminación, por otro lado, ocurre cuando todas las transformaciones han tenido lugar y la escena ha sido transformada al espacio de pantalla. La luz “geométrica” que vemos en los juegos es un modelo simplificado de iluminación y reflexión que poco tienen que ver con la realidad. Esto implica que en los gráficos 3D en tiempo real no existen reflexiones o refracciones, es decir, que los objetos no pueden recibir luz reflejada de otros objetos (radiosidad y ray tracing).

Existen 3 tipos elementales de iluminación:
 * Direccional: tipo de luz global, ilumina toda la escena y los rayos se aplican paralelos unos a otros, es el tipo más simple. Se iluminan todos los vértices por igual. Ejemplo de luz que se amoldaría a estas condiciones: la que emana del sol.
 * Punto: una fuente de luz definida en un punto en el espacio, emite luz en todas las direcciones. Es una luz direccional (se usa la distancia y la dirección para determinar la intensidad). Ejemplo: farola, antorcha.
 * Foco: luz definida en un punto que emite luz en una dirección específica, es la más compleja de las tres.

Los materiales empleados en el juego tienen unas propiedades que definen el efecto que tendrá la luz sobre ellos. Posteriormente se calcula el sombreado (shading) de los objetos, dada su estrecha relación con la iluminación.
 * [[image:Direccional.jpg]] || [[image:Puntual.jpg]] || [[image:Foco.jpg]] ||

En esta fase también tiene lugar el “Clipping”. Esta operación sirve para descartar las partes de los triángulos que parcialmente o totalmente caen fuera de la vista 2D que tiene la cámara en el frame a renderizar. Los triángulos que tienen sólo una parte fuera de la vista son “reteselados”, se dibuja un nuevo triángulo con la parte visible del triángulo anterior que se ha eliminado.

3. Configuración de Triángulos.
Esta fase puede incluirse dentro del proceso de rasterización, aunque más bien sería una especie de paso previo a la etapa de rasterización. Consiste básicamente en la conversión de los vértices en triángulos. Para ello se dibujan los píxeles (bordes) que unen los tres vértices de cada triángulo.

Hasta esta etapa sólo los vértices del triangulo tenían valores asignados de color y profundidad. Pero a partir de aquí los píxeles del borde del triangulo son creados, y se calculan los valores de color y profundidad para estos píxeles.

También se calculan las coordenadas de las texturas para usarlas en la etapa de mapeado de texturas. Las direcciones de las texturas definen que parte de la textura es necesitada en una parte específica de un modelo.

4. Rasterización.
En esta etapa los triángulos creados en la fase anterior son rellenados con píxeles. La rasterización es un término genérico que describe la conversión desde una representación vectorial bidimensional o tridimensional a una representación de un sistema de coordenadas x-y. En el caso de una tarjeta gráfica este proceso convierte una imagen en puntos de color. El proceso consiste en asignar valores de color a un número dado de puntos para renderizar la imagen. Una impresora también necesita rasterizar el texto o la imagen que va a imprimir. La mayor parte del proceso tiene lugar en lo que se denomina “pipeline”. El pipeline (“tubería”) es una parte física de la gráfica donde tienen lugar una sucesión de operaciones muy simples en las que se divide la realización de un proceso complejo como es la recreación de una imagen 3D en la pantalla de un ordenador.

Mostrando el frame.
Una vez que el proceso de renderizado ha concluido, y la imagen final es depositada en el frame-buffer, el buffer trasero pasa los datos al buffer frontal. En este proceso pueden ocurrir los efectos de post procesado. Después de esto la imagen es enviada a la RAMDAC. De esa manera el renderizado de una imagen ha concluido.

El efecto del doble buffer sirve para que mientras se muestra un frame otro se esté renderizando. Un buffer triple tiene la función adicional, en caso de que la sincronización vertical esté activada, de permitir que la gráfica no esté parada mientras la pantalla se refresca (ya que en este caso la sincronización hace que la gráfica renderice imágenes más rápido de lo que el monitor es capaz de mostrarlas, por lo que la gráfica tendría que esperar parada a que mostrara una imagen).

DirectX vs DirectX.
El cambio de diseño de las API, como se ha comentado anteriormente con DirectX 7, puede suponer y supone cambios importantes las funciones a realizar y en el diseño de las tarjetas, así, DirectX 10 también ha supuesto otro cambio y es que la gran limitación de DirectX 9 es el “Object Overhead”, que en palabras más simples, significa que DirectX 9 utilizaba ciclos la CPU para hacer renders antes de ser enviados a la GPU. Cuando se renderiza un juego, la aplicación primero debe llamar al API y luego el API llama al driver antes de poder llegar a la GPU. Todas estas llamadas son manejadas por la CPU y eso conlleva que se cree un importante cuello de botella. Con DirectX 10 los cálculos de física se realizan en los GPU, aumentando la calidad de lo que se puede ver en la pantalla. Aquí se pueden ver algunos videos mostrando las diferencias entre versiones de DirectX:

media type="youtube" key="BvhuKQioaRc?fs=1" height="385" width="640"media type="youtube" key="J9mooWbChQU?fs=1" height="385" width="480"media type="youtube" key="DJ69oChXH5g?fs=1" height="385" width="640"media type="youtube" key="HjIzoGnkCZs?fs=1" height="385" width="640"

= Historia   = La historia de las tarjetas de vídeo comienza a finales de los años '60, durante esta época, las impresoras de línea utilizadas como elemento de visualización empezaron a sustituirse por primitivos monitores, con los que se consiguió dar una imagen electrónica del espacio de trabajo que el usuario hasta entonces había usado como un simple modelo conceptual de su relación con la máquina. Por supuesto el encargado de crear esas primeras imágenes electrónicas fueron las tarjetas de vídeo. Vamos a distinguir entre tres épocas distintas, la primera comprendería el nacimiento y evolución de las primeras tarjetas de vídeo, después vendría la Época SVGA, y la tercera será la 3D.


 * == Primera Etapa ==

La primera tarjeta de vídeo, que se presentó junto al primer PC, fue desarrollada por IBM en 1980, recibió el nombre de MDA (Monochrome Display Adapter), sólo era capaz de trabajar en modo texto, representando 25x80 líneas en pantalla. Apenas disponía de RAM de vídeo (4 Kbytes) lo que hacía que sólo pudiera trabajar con una página en memoria. Para este tipo de tarjetas se usaban monitores monocromo (normalmente de tonalidad verde) de ahí el nombre que recibe esta tarjeta. Durante muchos años esta tarjeta, fue tomada como el estándar en tarjetas de vídeo monocromo.

Los primeros gráficos y colores llegaron a los ordenadores en 1981 con la CGA (Color Graphics Adapter), ésta era capaz de trabajar tanto en modo texto como en modo gráfico. En modo texto al igual que la MDA, representa 25 líneas y 80 columnas en pantalla, pero el texto era menos legible, debido a que los diferentes caracteres se basaban en una matriz de puntos más pequeña que en el caso de las tarjetas MDA. En modo gráfico, la CGA podía representar 4 colores con una resolución de 320 x 200 puntos.


 * ===CGA===

La CGA estaba equipada con cuatro veces más memoria que su antecesora (16Kbytes) y podía conectarse a monitores RGB que eran capaces de emitir color. Dejando de lado por un momento a IBM, hablaremos de la **HGC** (//Hércules Graphics Card//) que salió al mercado un año después de la aparición del primer PC. Sus posibilidades con respecto de las anteriores eran abrumadoras puesto que además del modo texto, la tarjeta HGC puede gestionar dos páginas gráficas con una resolución de 720x348 puntos en pantalla. Con ello combina la estupenda legibilidad en modo texto de la MDA con las capacidades gráficas de la CGA, ampliando incluso la resolución, sin embargo la tarjeta HGC no era capaz de mostrar color por pantalla por lo que no llegó a estandarizarse como la CGA. La tarjeta Hércules tenía una memoria de 643 Kbytes y no era totalmente compatible con las tarjetas de IBM.


 * ===EGA===

IBM en 1985 presentó la **EGA** (//Enhaced Graphics Adapter//), esta tarjeta era totalmente compatible con la MDA y la CGA. Con una resolución en el modo gráfico de 640x350 puntos, se podían representar 16 colores diferentes de una paleta de 64 colores, trabajando en modo texto con 25 filas y 80 columnas, donde cada carácter es representado con una matriz de 14x 8 puntos. También se aumentó la RAM de vídeo hasta 256KB, para tener espacio para representar varias páginas gráficas (como hacía la HGC). Estas cifras hacían ya posible que los entornos gráficos se extendieran al mundo PC (los Apple llevaban años con ello), aparecieron entonces //GEM// y //Windows// entre muchos.




 * ===MCGA===

Acercándonos al año 1990, IBM desarrollo dos tarjetas de vídeo, la VGA y la MCGA, esta última estaría destinada a los ordenadores PS/2 de gama baja que montaba la compañía.

La MCGA (Multicolor Graphics Adapter). En lo que se refiere a modo texto, estas tarjetas se comportan igual que una CGA con sus 25 x 80 caracteres en modo texto, donde se puede elegir el color de texto y fondo de una paleta de 16 colores. Al contrario que en la tarjeta CGA su resolución horizontal no es de 200 líneas, sino de 400 líneas, por lo que la definición de los caracteres es mucho mejor.




 * ===VGA===

Las tarjetas **VGA** (//Video Graphics Array//) supusieron un nuevo paso en la consecución de gráficos de alta calidad, al representar //256// colores a escoger de una paleta de 262.144 tonalidades, con una resolución de 640 x 480 puntos en modo gráfico y 720x400 puntos en modo texto. VGA es compatible con las tarjetas gráficas anteriores, MDA, CGA y EGA, de forma que el software desarrollado para las tarjetas gráficas anteriores puede ser utilizado sin problemas por un ordenador con tarjeta VGA. Las tarjetas VGA transmitían la señal al monitor en forma analógica. Esto hace que sólo funcionen con monitores analógicos VGA o con monitores multiscan, los cuales admiten señales tanto analógicas como digitales. Las primeras tarjetas VGA tenían una memoria de pantalla de 256 Kbytes, pudiendo representar 16 colores en resolución 640 x 480 o 256 colores en resolución 350x200. Sin embargo, posteriormente aparecieron tarjetas VGA con mayor cantidad de memoria, pudiéndose representar un mayor número de colores en su más alta resolución. Otra particularidad es que cuando se enciende el ordenador, la tarjeta VGA detecta si el monitor que tiene conectado es color o monocromo, y en caso de que sea monocromo, convierte la información de color en tonos de grises, enviando estos tonos al monitor.


 * == Era SuperVGA ==

El éxito del VGA llevó, a principios de los '90, a numerosas compañías como ATI, Cirrus Logic y S3 (empresa que dominó el sector de la época), a crear sus propias ampliaciones del mismo, siempre centrándose en aumentar la resolución y/o el número de colores disponibles, es entonces cuando nacería el estándar **SVGA** (Super VGA). Durante este periodo la memoria de las tarjetas de vídeo se fueron incrementado rápidamente, de forma que a finales de '93 ya se podía ver tarjetas con 2Mbytes de RAM. Con las tarjetas SVGA se consiguen resoluciones de 1.024 x 768 puntos. El número de colores que puede representar depende de la cantidad de memoria RAM que se tenga instalada. Con 512 Kbytes se pueden conseguir 16 colores con resolución 1.024 x 768, mientras que con 1 Mbyte el número de colores es de 256 con esa misma resolución. Hay un hecho que diferencia a este modo gráfico de los anteriores, y es que si se tiene una tarjeta SuperVGA y se quiere que el monitor actúe como SuperVGA, habrá que configurar esta modalidad de alta resolución al instalar cada uno de los programas que se vaya a usar. Si no se realiza esta configuración, el programa por defecto funcionará en resolución de 640 x 480 puntos como si de una VGA se tratase. Para evitar esto se creó unas especificaciones VESA (//Vídeo Electronics Standards Association//) que hacían que los programas usaran el SVGA sin necesidad de drivers adicionales. Hoy por hoy todas las tarjetas que sacan al mercado son compatibles con el estándar SVGA.


 * == Era 3D ==

La evolución de las tarjetas de vídeo dio un giro importante en 1995, hasta esta fecha las mejoras en los adaptadores gráficos se habían ceñido a un incremento de las resoluciones y colores soportados por estas, pero los juegos de la época exigían mucho más, es entonces cuando empezaron a aparecer las primeras tarjetas 2D/3D**,** fabricadas por compañías como: Matrox, Creative, S3, ATI etc., estas seguían cumpliendo con el estándar SVGA pero implementaban algunas funciones 3D que las hacían mucho más potentes, aunque su precio era muy elevado y no pudieron suplir claramente a las tarjetas SVGA tradicionales**.**

Fue en 1997 cuando surgió la verdadera revolución del 3D, la compañía 3DFX sacó el chip gráfico Voodoo, la potencia de cálculo (450.000 triángulos por segundo) y la cantidad de nuevos efectos que aportaba esta tarjeta (Mip Mapping, Z-Buffering, Anti-aliasing, Bi-Linear...) la situaban en una posición privilegiada con respecto a las tarjetas 2D/3D de la competencia. Esta tarjeta tenía dos problemas, el primero es que sólo era capaz de trabajar a 640x480, pero sin dura, el inconveniente mayor era que solamente podía realizar cálculos 3D, es decir, se necesitaba una tarjeta SVGA extra para mostrar la imagen en pantalla, lo que encarecía el precio, aun así esta tarjeta se implantó rápidamente (seguramente porque la cantidad de software se incrementó mucho en esta época y era la tarjeta que mejor resultado daba). A mediados de 1998 nació la Voodoo2, esta era seis veces más potente que su antecesora, además incorporaba nuevos efectos (como el Tri-Linear). La resolución en pantalla que podía emitir también se vio aumentada, ahora era posible mostrar 800x600 e incluso 1024x768 con el modelo Voodoo2 SLI pero seguía necesitando una tarjeta 2D extra.
 * === **Primeras 3D** ===
 * = [[image:svga.jpg align="center"]] ||= [[image:voodoo.jpg]] ||
 * = SVGA ||= VOODOO ||
 * [[image:voodoo1.jpg]] || [[image:voodoo2.jpg]] ||=  ||
 * = VOODOO1 ||= VOODOO2 ||
 * ===2D/3D===

Hasta esta época parecía que los adaptadores de vídeo iban a separarse en dos ramas, las de 3D y las de 2D, ya que las tarjetas que hacían la doble función eran por lo general más lentas. Pero fue a finales de este mismo año cuando nació la primera tarjeta gráfica 2D/3D que realmente era potente, la NVIDIA TNT (conocida también como la "Vodoo2 Killer"), su procesador gráfico 3D no tenía nada que envidiar al de la Voodoo2, de hecho era capaz de mover 6 millones de triángulos por segundo por los tan solo 3 millones que movía la voodoo2, y además de esto tenía la ventaja añadida de no necesitar una tarjeta SVGA extra, por lo que rápidamente empezó a comerle terreno en el mercado. El panorama en 1999 se dibujaba de la siguiente manera, existían dos grandes compañías fabricantes de gráficas que prácticamente acaparaban el mercado, estas eran NVIDIA y 3DFX, la última aprendió de sus errores y el siguiente modelo de tarjeta, la Voodoo3, ya realizaba las dos funciones (2D/3D), aunque la compañía 3DFX estaba muy lejos de ser capaz de competir en potencia y prestaciones con la tarjeta rival de NVIDIA, la TNT2. La Voodoo3 era capaz de mover 8 millones de triángulos por segundo y la TNT2 9, por lo que la reina seguía siendo la tarjeta de NVIDIA, además esta contaba con más memoria, 32 Mbytes por los 16 con los que venían las Voodoo3 de gama alta. Como se puede ver cada vez era más la potencia que generaban estas tarjetas gráficas, en este punto el puerto PCI que se venía usando para ellas desde hace ya muchos años empezaba a quedarse corto, para satisfacer estas nuevas necesidades Intel desarrollaría el puerto AGP (//Acelerated Graphics Port//), este nuevo puerto solucionaría los graves cuellos de botella que se producían entre el procesador y las tarjetas gráficas. Otro campo que se vio afectado fue el de la memoria, ahora las tarjetas poseían entre 16 y 32 Mbytes, una auténtica locura si lo comparamos con los 4 Mbytes que se solían poner hace solo 2 o 3 años atrás.
 * == Actualidad ==

A finales de 1999 hasta mediados del año 2002, la compañía dominante del mercado NVIDIA (3DFX fue adquirida por esta) empezó a sacar sus modelos Gforce, Gforce2, Gforce3, Gforce4. NVIDIA basó la mejora de sus tarjetas en el procesador gráfico, de forma que cada vez eran más rápido y podían realizar más cálculos en menos tiempo. Atrás compañías como ATI se dedicaron a mejorar los algoritmos 3D que realizaban sus tarjetas para obtener mejores resultados con micros menos potentes. Durante esta época las mejoras en las tarjetas de vídeo se ceñían a la cantidad de algoritmos 3D vía hardware que una tarjeta podía realizar, además de mejorar hasta niveles impensables los procesadores de las mismas. El campo de las memorias también se vio salpicado, ahora se necesitaban memorias muy rápidas, empezaron a aparecer las tarjetas gráficas con memoria DDR. En cuanto a la cantidad de memoria, las primeras Gforce salieron con 32 Mbytes, las Gforce2 y 3 solían llevar 64 Mbytes y ya las Gforce4 entre 64 y 128 Mbytes.

Actualmente el liderato está en manos de dos compañías, NVIDIA y ATI. Las tarjetas de hoy prometen realizar a tiempo real animaciones que hasta hace poco veíamos en películas de cine, como aseguraba NVIDIA: "Ya podemos obtener en los juegos los mismos efectos especiales que vemos en el mejor cine de acción. Utilizando una tecnología de procesamiento del color con calidad cinematográfica, los personajes y universos 3D adquieren un realismo nunca visto. Los sueños de Hollywood se han convertido en la realidad del PC....esto se traduce en juegos donde podemos obtener la profundidad de color y los efectos especiales de películas de animación digital tales como Toy Story o Monsters Inc., y renderizarlas en el momento."

Una tarjeta gráfica actual es capaz de realizar más de 51.000.000.000 de operaciones de coma flotante por segundo sólo en el sombreador de píxeles. Esto significa: · Poder renderizar 100 dinosaurios de Jurassic Park a 100 fotogramas por segundo. · Más capacidad de coma flotante que un superordenador Cray SV-1. · 30 veces la capacidad geométrica de Infinite Reality. · 5 veces la población mundial estimada para el año 2050. · Si se convirtiesen en metros, representaría 120 veces la distancia de la tierra a la luna. · Si se convirtiesen en litros, representaría 2 veces el volumen de vino producido en todo el mundo durante este año. Además la memoria se ha visto incrementada rápidamente, si las primeras Gforce salían a la luz con 32 megas de RAM, las nuevas vienen con 1GB o 2GB en sus gamas altas. Como se puede ver los problemas de cantidad de colores y de resoluciones que se tenía antes queda ya muy lejos.

= Tipos = Podemos realizar diferentes clasificaciones dentro de las tarjetas gráficas, en una de ellas distinguimos su capacidad con el tratamiento de imágenes en 2D o 3D.


 * · 2D: Las 2D sólo se encargan de las imágenes en dos dimensiones, como el office o para navegar, si alguna vez se necesitan imágenes en tres dimensiones, éstas se emularán en el procesador.


 * · 3D: Las de tres dimensiones sólo nos servirán para los juegos o para programas de diseño gráfico. Para utilizar estas tarjetas necesitaremos otra tarjeta 2D a parte, los ejemplos más claros serían la Voodoo y la Vodoo2 de 3dfx.


 * · 2D/3D: La mayoría de las tarjetas actuales son de este tipo, tienen capacidad de procesamiento 2D y 3D, por lo que no es necesario el uso de otra tarjeta adicional, la calidad 2D es muy buena y permite el tratamiento de imágenes 3D.

Otra de las clasificaciones posibles es según su aparición en el tiempo y las nuevas capacidades que aportaban, este se toca más profundamente en la parte de historia, pero aún así merece la pena hacer un pequeño resumen.


 * MDA: Texto monocromo.


 * HGC (Hércules): Gráficos monocromos.


 * CGA: Capacidad para mostrar gráficos a color (4 colores).


 * EGA: Superó a la CGA (16 colores).


 * VGA: Fue la tarjeta estándar durante un tiempo gracias a que contaba con varios modos de vídeo y una mayor paleta de colores para mostrar. Permite resoluciones 640x480 a 16 o 256 colores.


 * SVGA, SuperVGA: Soporta múltiples resoluciones como son: 640x480, 800x600, 1024x768, 1280x1024 y 1600x1280 y muestra una diversa cantidad de colores en base a la cantidad de memoria con la que esté equipada la tarjeta. Es el estándar más usado.

= Componentes =
 * == GPU ==

La GPU, que significa «unidad de procesamiento gráfico» es un procesador (como la CPU) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en coma flotante, predominante en las funciones 3D. La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características de la GPU, pues constituye la parte más importante de la tarjeta. Tres de las más importantes de dichas características son la frecuencia de reloj del núcleo, que en 2010 oscilaba entre 500 MHz en las tarjetas de gama baja y 850 MHz en las de gama alta, el número de procesadores shaders y el número de //pipelines// (//vertex// y //fragment shaders//), encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles.
 * == Tipos de Memorias ==

La tarjeta gráfica ha de tener memoria suficiente para almacenar la información de los datos de una pantalla. La memoria de vídeo está formada por bits dispuestos en tres dimensiones:

- **Altura**: número de píxeles desde la parte inferior a la parte superior de la pantalla. - **Anchura**: número de píxeles desde la parte izquierda a la parte derecha de la pantalla. - **Profundidad del color** (o sólo profundidad, por abreviar): es el número de bits usados para cada píxel o la cantidad de colores que puede mostrar una imagen. Cuantos más colores, mejor calidad, y, por lo tanto, mayor fidelidad con el original. Por ejemplo:



- Una tarjeta que utilice 1 bit para cada píxel sólo puede tener 2 colores (21). - Una tarjeta que utilice 2 bits para cada píxel sólo puede tener 4 colores (22). - Una tarjeta que utilice 4 bits para cada píxel sólo puede tener 16 colores (24). - Una tarjeta que utilice 8 bits para cada píxel sólo puede tener 256 colores (28).

La **resolución** es el número de puntos (o píxeles) que es capaz de presentar una tarjeta de vídeo en la pantalla, tanto en horizontal como en vertical. Así, «800x600» significa que la imagen está formada en total por 600 líneas horizontales de 800 puntos cada una. Para calcular la cantidad de memoria de una tarjeta gráfica multiplicamos la anchura por la altura por el número de bits (es decir, la resolución por la profundidad) para representar cada píxel, y lo dividimos entre 8 para convertir bits en bytes. Para calcular kilobytes, volvemos a dividir por 1 024. En la mayoría de los casos la cantidad de memoria integrada en un adaptador se redondea hasta llegar a las cantidades siguientes: 256 K, 512 K, 1 MB, 2 MB, 4 MB, 8 MB, 16 MB, 32 MB, 64 MB, 128 MB o 256 MB. El mínimo de memoria de una tarjeta gráfica fabricada en los últimos años es de sesenta y cuatro megabytes, aunque actualmente es corriente encontrarse con tarjetas gráficas de 128 megabytes incluso de 256 megabytes de memoria



- El modo **Color verdadero** (True Color) utiliza 24 o 32 bits por píxel.

- El modo **Color de alta densidad** (High Color) utiliza 16 bits por píxel.

- El modo de **256 colores** utiliza 8 bits por píxel.

La resolución y el número de colores que se puedan mostrar en una pantalla dependen directamente de la memoria de vídeo incorporada en la tarjeta gráfica. La resolución baja, como 640 x 480, aumenta el tamaño de los elementos de la pantalla, aunque el área de ésta sea pequeña. Una resolución alta, como 1024 x 768, aumenta el área de la pantalla, pero los elementos de ésta parecerán pequeños.

Los tipos de memoria de vídeo más comunes son:

**- DRAM:** fueron los circuitos predominantes durante mucho tiempo. Proporcionan valores de rendimiento bajos.

- **EDO DRAM:** se han usado durante bastante tiempo; más económica que la VRAM, se usa en tarjetas de calidad media-baja.

- **VRAM:** se puede escribir en ella y leer de ella al mismo tiempo. Es mucho más rápida que las anteriores; sin embargo, es un tipo de memoria cara.

- **WRAM:** es una versión modificada de la VRAM que mejora su rendimiento y es más barata.

- **SGRAM:** actualmente son las que más se utilizan, ya que ofrecen muy buen rendimiento. Es el modelo más utilizado en tarjetas de gama media.

- **MDRAM:** es un tipo de memoria más reciente; es más rápida que las anteriores y se utiliza en tarjetas gráficas de alta calidad. Los sistemas de conexión más habituales entre la tarjeta gráfica y el dispositivo visualizador (como un monitor o un televisor) son:
 * == Salidas  ==

- DA-15 conector RGB usado mayoritariamente en los Apple Macintosh

- Digital TTL DE-9: usado por las primitivas tarjetas de IBM (MDA, CGA y variantes, EGA y muy contadas VGA)

- SVGA/Dsub-15: estándar analógico de los años 1990; diseñado para dispositivos CRT, sufre de ruido eléctrico y distorsión por la conversión de digital a analógico y el error de muestreo al evaluar los píxeles a enviar al monitor.

- DVI: sustituto del anterior, fue diseñado para obtener la máxima calidad de visualización en las pantallas digitales como los LCD o proyectores. Evita la distorsión y el ruido al corresponder directamente un píxel a representar con uno del monitor en la resolución nativa del mismo.

- S-Video: incluido para dar soporte a televisores, reproductores de DVD, vídeos, y videoconsolas.

Otras no tan extendidas en 2010 son:

- S-Video implementado sobre todo en tarjetas con sintonizador TV y/o chips con soporte de video NTSC/PAL

- Vídeo Compuesto: Es bastante antiguo y equiparable al euroconector, es analógico de muy baja resolución mediante conector RCA.

- Vídeo por componentes: utilizado también para proyectores; de calidad comparable a la de SVGA, dispone de tres clavijas (Y, Cb y Cr).

- HDMI: tecnología de audio y vídeo digital cifrado sin compresión en un mismo cable.

- Display Port: Puerto para Tarjetas gráficas creado por VESA y rival del HDMI, transfiere video a alta resolución y audio. Sus ventajas son que está libre de patentes, y por ende de regalías para incorporarlo a los aparatos, también dispone de unas pestañitas impidiendo que se desconecte el cable accidentalmente.




 * == Tipos de Slot  ==

Aparecidas en el año 1.981, se dividen en dos tipos diferentes:
 * ===ISA===

· ISA XT, con un bus de 8 bits, una frecuencia de 4.77 MHz y un ancho de banda de 8 Mb/s.

· ISA AT, con un bus de 16 bits, una frecuencia de 8.33 MHz y un ancho de banda de 16 Mb/s.

En ese mismo año aparecen las primeras gráficas monocromo MDA (Monochrome Graphics Adapter), con una memoria de 4Kb, capaces de mostrar 80x25 líneas en modo texto exclusivamente. Los monitores más utilizados eran los llamados de Fósforo verde.

También en 1.981 salen al mercado las tarjetas CGA, primeras en trabajar con color. Con una memoria de 16Kb, 80x25 líneas en modo texto y una resolución de 640x200 en modo gráfico, con un total de 4 colores. Con posterioridad (1.982) salieron al mercado las tarjetas HGC, conocidas como Hércules, también monocromo, pero con una memoria de 64Kb, 80x25 líneas en modo texto y una resolución de 720x384 en modo gráfico.

En 1.984 salen las tarjetas EGA, con una memoria de 256Kb, 80x25 líneas en modo texto y una resolución de 640x350 en modo gráfico, capaces de mostrar 16 colores.

Hay que esperar tres años (hasta 1.987) para que haya una evolución en el mundo de las tarjetas gráficas, con la salida de las tarjetas VGA. Estas son las primeras tarjetas que incorporan el conector de salida de vídeo de 15 pines que ha llegado hasta nuestros días. Con una memoria de 256Kb, 720x400 líneas en modo texto y una resolución de 640x480 en modo gráfico, con un total de 256 colores.




 * === VESA ===



Con un bus de 32 bits, una frecuencia de 33 MHz y un ancho de banda de 160 Mb/s.

Aparecido en 1.989, junto con los ordenadores 80486, solucionaban las restricciones de los 16 bits, y pronto se convirtieron en el estándar para gráficas, hasta la salida de los slot PCI.

Por esas fechas hacen su aparición las tarjetas **SVGA**. Con una memoria de hasta 2Mb, 80x25 líneas en modo texto y una resolución de hasta 1024x768 en modo gráfico, con un total de 256 colores.



En 1.990 aparecen las tarjetas **XGA**, que son las que llegan hasta nuestros días. Con una memoria de hasta 1Mb, 80x25 líneas en modo texto y una resolución de hasta 1024x768 en modo gráfico, con un total de colores de 64k. Estas tarjetas han evolucionado con el tiempo, llegando a los valores actuales en lo referente a memoria, resolución y prestaciones, pero básicamente las tarjetas actuales siguen siendo tarjetas **XGA**.


 * === PCI ===



Las gráficas PCI tienen un bus de datos de 32 bits, una frecuencia de 33 MHz y un ancho de banda de 132 Mb/s.

Con la aparición en 1.993 del bus PCI se abandona el uso de los slot VESA para gráficas.

El bus PCI en realidad no supuso una mejora sobre VESA en cuanto a rendimiento, pero si en cuanto a tamaño (hay que recordar que las tarjetas VESA eran enormes), y sobre todo permitían una configuración dinámica, abandonándose la configuración mediante jumpers.



En 1.995 aparecen las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI.

Pero es en el año 1.997 cuando, de la mano de fabricantes como 3dfx, con sus fabulosas tarjetas de alto rendimiento Voodoo y Voodoo 2, y Nvidia con sus TNT y TNT2, las tarjetas gráficas dan un salto cualitativo que hacen que cada vez sean más insuficientes las prestaciones ofrecidas por el bus PCI, provocando un cuello de botella.




 * === AGP ===



El puerto AGP (Advanced Graphics Port, o Puerto de Gráficos Avanzado) es un puerto exclusivamente para gráficas.

En 1.996, para solucionar el cuello de botella provocado por el constante aumento de las prestaciones de las tarjetas gráficas y la imposibilidad del bus PCI para negociar la cantidad de datos generados, Intel desarrolla el puerto AGP. Se trata de un puerto de 32 bits, al igual que el bus PCI, pero con importantes diferencias sobre este destinadas a optimizar el rendimiento de las gráficas. El puerto AGP es exclusivo, por lo que solo puede haber uno en la placa base.

Para empezar cuenta con 8 canales adicionales de acceso a la memoria RAM, accediendo directamente a esta a través del Northbridge, lo que permite emular memoria de vídeo en la RAM.

En 1.997 salen al mercado las primeras placas base que cuentan con este puerto, aumentando sus prestaciones con el tiempo.

Las versiones que han salido de del puerto AGP son las siguientes:

- AGP 1x.- Con un bus de 32 bits, una frecuencia de 66 MHz, un ancho de banda de 256 Mb/s y un voltaje de 3.3 v.

- AGP 2x.- Con un bus de 32 bits, una frecuencia de 133 MHz, un ancho de banda de 528 Mb/s y un voltaje de 3.3 v.

- AGP 4x.- Con un bus de 32 bits, una frecuencia de 266 MHz, un ancho de banda de 1 Gb/s y un voltaje de 3.3 o 1.5v.

- AGP 8x.- Con un bus de 32 bits, una frecuencia de 533 MHz, un ancho de banda de 2 Gb/s y un voltaje de 0.7 o 1.5v.

Este aumento tanto de frecuencia como de ancho de banda ha propiciado la escalada en prestaciones que han tenido las tarjetas gráficas.




 * === PCIexpress ===



En el año 2.004 Intel desarrolla el bus PCIe con vistas a unificar en un solo interfaz los existentes hasta el momento (PCI y AGP). Se trata de un bus al híbrido serie/paralelo (hasta el momento, todos los bus y puertos utilizados son puertos paralelo), pensado para ser utilizado solo como bus local.

Hay varios tipos de bus PCIa (PCIe 1x, PCIe 4x, PCIe 8x, PCIe 16x), pero para su uso como slot para tarjetas gráficas se utiliza solo el bus PCIe 16x.

Con un bus a 32 bits, una frecuencia de hasta 200 MHz y ancho de banda de hasta 3.2 Gb/s, las prestaciones de las tarjetas gráficas se han disparado. Pero mayores prestaciones representan también un mayor consumo. El puerto PCIe tiene un máximo de 150w, lo que es insuficiente para las tarjetas gráficas de gama alta de última generación, por lo que se ha recurrido por parte de los fabricantes a alimentar estas tarjetas directamente desde la fuente de alimentación, sin pasar por la placa base.



= Fabricantes =

No debemos confundir el fabricante de la GPU (NVIDIA o AMD/ATI) con el fabricante (ensamblador) de la tarjeta gráfica en su conjunto XFX, GainWard, Point of View, Galaxy, etc. Ninguna de las dos marcas es mejor o peor en términos absolutos. En la actualidad ambos fabricantes se encuentran bastante igualados en el mercado, y sus productos cubren cualquier segmento: la barata gama baja, la equilibrada gama media, y la cara y potente gama alta. A esta pregunta no puedo dar una respuesta clara, lo mejor es informarse adecuadamente y preguntar siempre por un producto que se ajuste a nuestras expectativas y a nuestro bolsillo. Hace unos años ATI mantuvo una posición bastante dominante, en aquellos momentos la recomendación hubiera sido mucho más sencilla, pero la fuerza con la que está golpeando NVIDIA el mercado actualmente hace que sea muy difícil decidir. Siempre estarán los incondicionales de ATI y los de NVIDIA que lucharán a muerte por sus respectivas marcas, las recomendaciones de dichos incondicionales no son la más adecuadas a seguir. También existen otros fabricantes de GPUs, como pueden ser Intel o S3 con un menor peso en el mercado y que se han centrado en la fabricación de GPUs integradas en la placa base, para portátiles o Netbooks, etc. En cuanto a fabricantes ensambladores se sabe de ciertos que ofrecen una calidad y una confianza mucho mayor que otros. Por poner unos ejemplos: XFX, Zotac, Asus, Sapphire, etc...
 * == NVIDIA contra ATI ==

En una tarjeta gráfica destacan siempre esas dos cosas, la marca de la GPU y el ensamblador de la misma. Normalmente se las llama por el ensamblador primero y luego la marca de la GPU, por ejemplo:


 * GainWard 7900GT: el fabricante es GainWard, y la tarjeta lleva una GPU NVIDIA GeForce 7900GT
 * Sapphire X1900GT: el fabricante es Sapphire, la tarjeta lleva una GPU AMD/ATI X1900GT
 * == Sobre GPUs ==

Con referencia a las GPUs existen un par de puntos a tener en cuenta en cuanto a las nomenclaturas usadas por los fabricantes para definir sus características.

A continuación se encunetran unos enlaces hacia la Wikipedia (en inglés) en los que se puede observar, en las diversas tablas, los modelos de GPUs tanto ATI como Nvidia a lo largo de su historia y sus capacidades de proceso, anchos de banda, tipos de conexión, etc.
 * 1) Los nombres de los modelos son únicamente el modelo de referencia básico, existen versiones que añaden unas letras después para informar sobre un modelo superior o inferior respecto el básico. Por ejemplo: basándonos en la GPU GeForce 9600, existe otro modelo llamado GeForce 9600GT, éste último añade las letras GT para indicar que es superior al 9600 básico. Lo mismo sucede con ATI, sus modelos añaden letras al final para indicar variaciones en las capacidades de la GPU. Esto provoca que por ejemplo una GeForce 9800 pueda ser considerada gama media, y una 9800 Ultra pueda llegar a ser gama alta puesto que el modelo básico se encuentra en una especie de “frontera”, de manera que los modelos mejores estarían en la gama alta y los menores en gama media. Lo mismo tendríamos con ATI.
 * 2) Las gamas se suelen nombrar como: Baja, media y alta. Esto es en función de la potencia de la tarjeta gráfica, pero sobretodo en la capacidad para manejar los juegos actuales y más exigentes, ya que, si es capaz de manejar eficientemente las texturas de un videojuego, tendrá capacidad de sobra para cualquier otra tarea que podamos encomendarle. Lo cual quiere decir que una tarjeta de gama baja no tiene porqué ser mala, todo dependerá del uso que vayamos a darle, siempre intentando mantener un equilibrio en la relación calidad/precio.
 * Comparacion entre GPUs AMD/ATI
 * Comparación entre GPUs Nvidia

= Problemas Comúnes =


 * ==Problemas de Software==

Son los problemas que normalmente están causados por los controladores de estas tarjetas. Estos problemas son comunes a los dos tipos y suelen estar motivados por la pérdida de estos drivers por parte de nuestro sistema.

Esta pérdida de los drivers por parte del sistema lo más normal es que se deba a algún problema relacionado con el sistema operativo, no directamente con los drivers, como pueden ser los causados por virus u otro tipo de malware, y en estos casos la solución pasa por delimitar en primer lugar el problema que ha causado la perdidas de los mencionados controladores, y una vez solucionado este problema, proceder a eliminar totalmente los controladores existentes e instalarlos de nuevo.
 * == Problemas de hardware ==

Aquí el tema cambia un poco, y sí que hay que distinguir entre ambos tipos de tarjetas gráficas.

Una fuente de problemas de las gráficas, sean del tipo que sean, aunque en este caso siempre imputable a un mal uso, suele ser la ruptura del conector, motivada casi siempre por intentar forzarlo.

Aparte de este problema, las tarjetas gráficas presentan unos problemas específicos dependiendo de su tipo.


 * ===Tarjetas Externas (no integradas)===

- La principal causa de averías en este tipo de tarjetas es la temperatura.

- Las gráficas de este tipo (GPU), sobre todo las modernas, suelen alcanzar unas temperaturas muy altas (bastante más que los procesadores), por lo que necesitan una buena ventilación. Cada vez es más normal que estas gráficas ocupen incluso dos ranuras de expansión para poder alojar los sistemas de refrigeración.

Pero hay una serie de gráficas (sobre todo AGP de hace unos años, donde la refrigeración no estaba en consonancia con el rendimiento de algunas gráficas) en las que la refrigeración corre a cargo de unos disipadores con unos ventiladores bastante pequeños (del mismo tipo que los utilizados en los chipset), muy vulnerables al polvo, que se bloquean con bastante facilidad.

Esta falta de refrigeración provoca un fuerte aumento en la temperatura de la GPU, que puede llegar a superar con una cierta facilidad los 85º.

Si no remediamos este problema con prontitud termina por dañar la gráfica de forma permanente.

Un síntoma de avería de estos ventiladores suele ser que comienzan a hacer bastante ruido, además de los bloqueos ya mencionados, que se producen cuando este ventilador deja de funcionar.


 * ===Tarjetas Internas (integradas)===

Son gráficas con un rendimiento mucho menor, por lo que el sistema de refrigeración suele estar a cargo de, como mucho, un disipador pasivo, por lo que los problemas de temperatura suelen estar ligados a los problemas generales de temperatura de nuestro PC.

Sin caer en la excesiva repetición, siempre es conveniente recordar la necesidad de mantener nuestro PC lo más limpio posible de polvo, para facilitar la refrigeración y evitar averías motivadas por un exceso de temperatura o como mínimo una ralentización de nuestro sistema.

Estas gráficas no cuentan normalmente con memoria propia, dependiendo de la RAM para proveerse de esta, reservando una parte de nuestra memoria RAM para vídeo, por lo que a veces un problema en la RAM puede causar un mal funcionamiento de la gráfica.

Los problemas de averías que suelen dar están casi siempre relacionados con la calidad de la placa base, su buena terminación y los controles de calidad que esta tenga.

A esto hay que añadir que las placas base con gráfica integrada no suelen ser precisamente de gama alta, siendo incluso la opción más barata dentro de muchas marcas de placas base.

Normalmente estas placas base suelen tener un puerto para gráfica (bien AGP o PCIe), por lo que la solución ante una avería de estas gráficas pasa por la instalación de una tarjeta gráfica en dicho puerto.



= =