Novedades en AMD
Con la familia Radeon HD AMD ha pasado de la arquitectura VLIW (Very Long Instruction Word) a la GCN (Graphics Core Next). Tradicionalmente, AMD ha estado por delante de NVIDIA en eficiencia y consumo bruto de energía, lo que ponía a NVIDIA en una posición complicada, pero también AMD ha estado por detrás de NVIDIA en un apartado clave para el futuro de los procesadores gráficos: GPGPU.
Con GPGPU, se trata de usar los recursos de paralelismo en las arquitecturas gráficas para acelerar aplicaciones y código que en una arquitectura x86 no puede paralelizarse más allá de un nivel básico. En este campo, NVIDIA ha estado por delante con su tecnología CUDA, una API desarrollada por la firma para facilitar la programación de aplicaciones que aprovechen el paralelismo de sus chips gráficos.
AMD ha detectado esta carencia y ha rediseñado los bloques sobre los que se construyen sus chips. El paralelismo en una tarjeta gráfica se basa en la integración de centenares o miles de unidades de procesamiento relativamente simples (shaders) que realizan cálculos a nivel de píxel, vértices o geometría.
En generaciones anteriores, AMD había optado por un paralelismo óptimo para procesar gráficos, donde apenas hay dependencias entre operaciones. Pero, en GPGPU, sí las hay, y, en estos casos, gran parte de los recursos de computación en la arquitectura VLIW estaban a la espera de la resolución de dependencias. Con GCN, AMD ha conseguido liberarse en gran medida de estas dependencias y aumentar el rendimiento en aplicaciones GPGPU sin penalizar el rendimiento gráfico.
Tarjeta AMD |
El avance de NVIDIA
Con el modelo GTX 680, NVIDIA se ha puesto al día en cuanto a arquitectura con cambios no tan radicales como los de AMD, pero sí con optimizaciones en eficiencia energética. Uno de los más notables ha sido el de unificar relojes. Es decir, antes NVIDIA usaba una velocidad de reloj para el chip, pero los shaders funcionaban al doble de megahercios, lo que implica mayor consumo energético; así que ha reducido la velocidad de reloj de los shaders, de modo que funcionan a la velocidad del núcleo. Al ser una velocidad menor, para un mismo número de shaders, el rendimiento baja.
Por eso, NVIDIA ha diseñado shaders más simples, aunque con la misma estructura que en la anterior generación, pero ha integrado muchos más. Y de paso ha duplicado el resto de unidades funcionales que acompañan a los shaders. En conjunto, NVIDIA ha conseguido aumentar el rendimiento de sus tarjetas sin un aumento espectacular del número de transistores. Como consecuencia, el funcionamiento es similar a Fermi, pero aumentado y optimizado. El resultado es una tarjeta que no necesita conectores de 8 pines, con un tamaño inferior al de la de AMD y con un TDP inferior.
En otros apartados, se ha compensado la reducción del ancho del bus de memoria con el aumento de la frecuencia, e introducido tecnologías como GPU Boost, que aumenta la velocidad de reloj de forma dinámica siempre que haya margen térmico. Además, también aumenta el voltaje dinámicamente para ofrecer más estabilidad.
En el campo del vídeo, NVIDIA permite ahora controlar cuatro monitores en el modo 3D Vision Surround. Además, es compatible con PCI-E Gen 3 y añade la tecnología Adaptive Vsync, que permite desactivar el sincronizado vertical cuando la tasa de frames cae por debajo de los establecidos (60 fps, por ejemplo). En cuanto a la eficiencia, se traduce en un buen nivel de ruido en funcionamiento y en un control fino de las frecuencias de trabajo de forma dinámica.
Tarjeta NVIDIA |
Pros y contras de las nuevas arquitecturas
Lo mejor
- Aumento del rendimiento con reducción del consumo. Se invierte la trayectoria de las pasadas generaciones.
- Atención especial a las aplicaciones GPGPU. Destaca el avance de AMD en este campo.
- Control dinámico de la velocidad de reloj y voltajes o control del TDP.
- Mejoras en el vídeo y audio con compatibilidad para monitores 4K, así como modos multimonitor 3D.
- Mayor ancho de banda en puntos clave: PCI 3.0 vs PCI 2.0, conexiones HDMI que ahora pueden llevar el audio para cada monitor de forma independiente.
Lo peor
- El precio de las tarjetas de gama alta sigue estando fuera del alcance de la mayoría de los usuarios.
Aqui dejo un video con una comparativa entre AMD Y NVIDIA
Fuentes:
No hay comentarios:
Publicar un comentario