arzh-CNenfrdejakoplptesuk
Buscar encontrar 4120  disqus social  tg2 f2 lin2 in2 Icono X 3 y2  p2 tik steam2

Evolución de las arquitecturas de GPU: desde GeForce 256 hasta las modernas GPU

9c12a1f1 a18d 42b3 bb19 bea606cdd83a

La evolución de las arquitecturas de GPU continúa, ofreciendo un rendimiento cada vez mayor y compatible con las últimas tecnologías. Con cada nueva generación... GPU Se están volviendo más potentes, abriendo nuevos horizontes para desarrolladores y usuarios. El futuro de las GPU se presenta aún más emocionante, con nuevas innovaciones y avances que seguirán transformando el mundo de los gráficos y la computación por computadora.

1999

NVIDIA GeForce 256

La NVIDIA GeForce 256, lanzada en 1999, fue el primer procesador gráfico en recibir ese nombre. GPUEste dispositivo introdujo el concepto de transformación e iluminación de hardware (T&L), que mejoró significativamente la calidad y el rendimiento de los gráficos 256D. La GeForce 220 utilizaba una tecnología de proceso de 32 nm y contaba con 166 MB de memoria DDR a 15 MHz. La arquitectura incluía cuatro canales de píxeles, cada uno capaz de procesar un píxel por ciclo de reloj y ejecutar XNUMX millones de triángulos por segundo.

La GeForce 256 era compatible con DirectX 7, lo que permitió a los desarrolladores de juegos utilizar nuevos efectos gráficos. Por primera vez, la aceleración por hardware hizo posible realizar efectos de iluminación realistas y texturas mejoradas, lo que supuso un gran paso adelante en comparación con los métodos de renderizado por software. La tarjeta tenía una interfaz AGP 4X, que proporcionaba un alto rendimiento de datos entre el procesador y la tarjeta de vídeo.

ATI y 3dfx

En el momento del lanzamiento de la GeForce 256, los principales competidores de NVIDIA eran ATI y 3dfx. ATI en ese momento lanzó su línea de tarjetas gráficas Rage 128. La Rage 128 admitía gráficos 1600D acelerados por hardware y era capaz de ejecutarse a resoluciones de hasta 1200x128. La tarjeta utilizaba un bus de memoria de 32 bits y admitía colores de XNUMX bits. ATI ha estado trabajando activamente para mejorar sus controladores y software para garantizar un rendimiento estable de sus soluciones gráficas.

3dfx lanzó Voodoo3 en ese momento, continuando con su exitosa línea de aceleradores 3D. Voodoo3 ofrecía suavizado de hardware y admitía hasta 256 colores. La tarjeta utilizaba una GPU de 183 MHz y 16 MB de SGRAM. Voodoo3 era popular entre los jugadores debido a su alto rendimiento y calidad de imagen, pero la falta de soporte de hardware T&L limitó sus capacidades en comparación con la GeForce 256.

2000

NVIDIA GeForce 2

En 2000, NVIDIA lanzó la GeForce 2 GTS, que supuso una mejora significativa con respecto a la GeForce 256. La GeForce 2 GTS utilizaba un proceso de 180 nm y tenía 64 MB de memoria DDR. La tarjeta tenía canales de 8 píxeles, duplicando el rendimiento de la generación anterior. GeForce 2 era compatible con DirectX 7 y OpenGL, lo que le permitía trabajar con los juegos y aplicaciones más avanzados de la época.

GeForce 2 GTS introdujo soporte para texturas múltiples, lo que mejoró la calidad de las texturas y creó efectos gráficos más realistas. La tarjeta también admitía la nueva interfaz AGP 4X Pro, proporcionando un rendimiento de datos aún mayor.

ATI y Matrox

En ese momento, ATI lanzó su línea Radeon 7000, que utilizaba una tecnología de proceso de 180 nm y tenía hasta 64 MB de SDRAM. La Radeon 7000 admitía T&L de hardware y texturas múltiples, lo que la colocaba a la par de la GeForce 2. ATI desarrolló activamente sus controladores, lo que hizo posible lograr una alta compatibilidad y rendimiento en juegos y aplicaciones.

Matrox, otro competidor de NVIDIA, lanzó su tarjeta G400, que utilizaba un proceso de 250 nm y tenía hasta 32 MB de SDRAM. El G400 era compatible con DualHead, lo que permitía conectar dos monitores simultáneamente, y era popular entre los usuarios profesionales por su alta calidad de imagen y su compatibilidad con la multitarea.

2001

NVIDIA GeForce 3

En 2001, NVIDIA lanzó la GeForce 3, que fue la primera GPU compatible con DirectX 8 y sombreadores. GeForce 3 utilizaba una tecnología de proceso de 150 nm y tenía hasta 128 MB de memoria DDR. La tarjeta incluía sombreadores de 4 píxeles y 2 vértices, lo que mejoró significativamente los efectos y detalles gráficos.

GeForce 3 admitía la tecnología nFiniteFX, que permitió a los desarrolladores crear efectos gráficos más complejos y realistas, como luces y sombras dinámicas, materiales complejos y animaciones. La tarjeta también incluía la tecnología Lightspeed Memory Architecture, que mejoraba el rendimiento al utilizar la memoria de manera más eficiente.

ATI y Matrox

ATI lanzó su línea Radeon 8500, que también era compatible con DirectX 8 y utilizaba una tecnología de proceso de 150 nm. La Radeon 8500 tenía hasta 128 MB de memoria DDR e incluía 4 píxeles y 2 sombreadores de vértices. La tarjeta era compatible con la tecnología HyperZ II, que mejoró el rendimiento al optimizar la memoria y aumentar la velocidad de procesamiento de gráficos.

Matrox lanzó su tarjeta Parhelia, que utilizaba una tecnología de proceso de 180 nm y tenía hasta 256 MB de memoria DDR. Parhelia admitía hasta tres monitores simultáneamente y estaba dirigido a usuarios profesionales. La tarjeta ofrecía alta calidad de imagen y compatibilidad con varios estándares gráficos como DirectX 8 y OpenGL.

2002

NVIDIA GeForce 4

En 2002, NVIDIA lanzó GeForce 4, que supuso una mejora significativa con respecto a las generaciones anteriores. GeForce 4 utilizaba una tecnología de proceso de 150 nm y tenía hasta 128 MB de memoria DDR. La tarjeta incluía canales de hasta 8 píxeles y admitía la tecnología nView, lo que permitía conectar varios monitores.

GeForce 4 era compatible con DirectX 8.1 y la tecnología Accuview Antialiasing, que mejoró la calidad de la imagen al suavizar los bordes. La tarjeta también utilizó Lightspeed Memory Architecture II, que mejoró el rendimiento al utilizar la memoria de manera más eficiente.

ATI y Matrox

ATI lanzó su línea Radeon 9700, que utilizaba una tecnología de proceso de 150 nm y tenía hasta 128 MB de memoria DDR. La Radeon 9700 era compatible con DirectX 9 e incluía sombreadores de 8 píxeles y 4 vértices. La tarjeta ofrecía alto rendimiento y calidad de imagen, lo que la hacía popular entre jugadores y usuarios profesionales.

Matrox lanzó su tarjeta Parhelia, que utilizaba una tecnología de proceso de 180 nm y tenía hasta 256 MB de memoria DDR. Parhelia admitía hasta tres monitores simultáneamente y estaba dirigido a usuarios profesionales. La tarjeta ofrecía alta calidad de imagen y compatibilidad con varios estándares gráficos como DirectX 8 y OpenGL.

2003

NVIDIA GeForce FX

En 2003, NVIDIA introdujo la arquitectura GeForce FX (o GeForce 5), que brindaba soporte para DirectX 9. GeForce FX utilizaba una tecnología de proceso de 130 nm y tenía hasta 256 MB de memoria DDR. Esta serie incluía varios modelos, desde el FX 5200 hasta el FX 5950 de alto rendimiento. Ultra. GeForce FX fue la primera serie de NVIDIA en utilizar la arquitectura CineFX, que proporcionaba sombreadores de píxeles y vértices más complejos, mejorando el realismo de los gráficos.

GeForce FX admitió Intellisample y UltraShadow, que mejoró la calidad de las texturas y el rendimiento de los efectos de sombra. Sin embargo, la serie enfrentó críticas por su alta emisión de calor y ruido, lo que obligó a NVIDIA a reconsiderar sus enfoques para el desarrollo de generaciones posteriores.

 ATI Radeon 9000 y Matrox Parhelia

ATI continuó compitiendo con NVIDIA al lanzar la serie Radeon 9000, que también admitía DirectX 9. La Radeon 9000 utilizaba una tecnología de proceso de 130 nm y tenía hasta 128 MB de memoria DDR. Esta serie incluía modelos como Radeon 9500 y 9700, que ofrecían una excelente relación precio/rendimiento. ATI ha estado mejorando activamente sus controladores y optimizando su arquitectura para mejorar el rendimiento.

Matrox siguió centrándose en los usuarios profesionales lanzando actualizaciones de su serie Parhelia. Estas tarjetas ofrecían una excelente calidad de imagen y soporte para configuraciones de múltiples monitores, pero no podían competir con NVIDIA y ATI en el segmento de juegos.

2004 - 2005

NVIDIA GeForce 6

La arquitectura GeForce 6, lanzada en 2004, supuso un importante paso adelante para NVIDIA. Esta serie utilizó una tecnología de proceso de 110 nm y tenía hasta 512 MB de memoria GDDR3. GeForce 6800 Ultra se convirtió en el modelo insignia, ofreciendo alto rendimiento y soporte para nuevos estándares gráficos como Shader Model 3.0.

GeForce 6 incluía hasta 16 canales de píxeles y 6 sombreadores de vértices, lo que mejoró significativamente el rendimiento en aplicaciones XNUMXD. Tecnologías UltraShadow II e Intellisample 3.0 mejoraron la calidad de las sombras y texturas, haciendo que los juegos sean más realistas. GeForce 6 también admitía SLI (Scalable Link Interface), que permitía combinar dos tarjetas de vídeo para duplicar el rendimiento.

ATI Radeon X800 y Matrox Parhelia

ATI respondió al desafío de NVIDIA con la serie Radeon X800, que utilizaba una tecnología de proceso de 110 nm y tenía hasta 256 MB de memoria GDDR3. Radeon X800 ofrecía hasta 16 canales de píxeles y 6 sombreadores de vértices, lo que la colocaba a la par con la GeForce 6800. Ultra. ATI desarrolló activamente sus tecnologías como HyperMemory y Avivo, que mejoraron el rendimiento y la calidad de la imagen.

Matrox continuó trabajando en su serie Parhelia, pero no pudo competir con NVIDIA y ATI en el segmento de juegos. El enfoque principal de la empresa estaba en soluciones profesionales para configuraciones de múltiples monitores y aplicaciones especializadas.

2005 - 2006

NVIDIA GeForce 7

En 2005, NVIDIA lanzó la serie GeForce 7, que utilizaba una tecnología de proceso de 90 nm y tenía hasta 512 MB de memoria GDDR3. La emblemática GeForce 7800 GTX presentaba canales de 24 píxeles y 8 sombreadores de vértices, lo que ofrecía importantes mejoras de rendimiento con respecto a la generación anterior.

GeForce 7 admitía las tecnologías HDR (alto rango dinámico) y Transparency Antialiasing, que mejoraron la calidad de la iluminación y el anti-aliasing. La tarjeta también era compatible con SLI, lo que permitía a los usuarios combinar dos tarjetas gráficas para mejorar el rendimiento.

Competidores: ATI Radeon X1000 y Matrox Parhelia

ATI respondió con la serie Radeon X1000, que utilizaba una tecnología de proceso de 90 nm y tenía hasta 512 MB de memoria GDDR3. La Radeon X1800 XT se convirtió en el modelo insignia y ofrece hasta 16 canales de píxeles y 8 sombreadores de vértices. ATI introdujo tecnologías como Avivo y CrossFire, que mejoraron la calidad de la imagen y permitieron combinar dos tarjetas gráficas para mejorar el rendimiento.

Matrox continuó trabajando en su serie Parhelia, ofreciendo actualizaciones y mejoras para usuarios profesionales. Sin embargo, en el segmento de juegos, Matrox no pudo competir con NVIDIA y ATI, que dominaban el mercado.

2006 - 2008

NVIDIA GeForce 8

En 2006, NVIDIA lanzó la serie GeForce 8, que se volvió revolucionaria gracias a la introducción de una arquitectura de sombreado unificada. La GeForce 8800 GTX utilizaba una tecnología de proceso de 90 nm y tenía hasta 768 MB de memoria GDDR3. La tarjeta incluía 128 sombreadores unificados que podían realizar operaciones tanto de píxeles como de vértices.

GeForce 8 era compatible con DirectX 10 y ofrecía mejoras significativas en el rendimiento y la calidad de los gráficos. Las tecnologías CUDA y PhysX permitieron el uso de GPU para computación paralela y modelado físico, ampliando así las capacidades. GPU más allá de la industria del juego.

ATI Radeon HD 2000 y Matrox

ATI respondió al desafío de NVIDIA con la serie Radeon HD 2000, que utilizaba una tecnología de proceso de 65 nm y tenía hasta 1 GB de memoria GDDR3. La Radeon HD 2900 XT se convirtió en el modelo insignia, ofreciendo hasta 320 sombreadores unificados y soporte para DirectX 10. ATI desarrolló activamente sus tecnologías, como UVD (Unified Video Decoder) y CrossFireX, que mejoraron el rendimiento y la calidad de la imagen.

Matrox siguió centrándose en soluciones profesionales con actualizaciones de su serie Parhelia. Sin embargo, en el segmento de juegos, Matrox no pudo competir con NVIDIA y ATI, que continuaron dominando el mercado.

2008 - 2009

NVIDIA GeForce 9

En 2008, NVIDIA lanzó la serie GeForce 9, que utilizaba una tecnología de proceso y una arquitectura mejoradas basadas en la GeForce 8. El modelo insignia GeForce 9800 GTX+ utilizaba una tecnología de proceso de 55 nm y tenía hasta 512 MB de memoria GDDR3. La tarjeta incluía 128 sombreadores unificados y era compatible con DirectX 10.

GeForce 9 ofreció tecnologías mejoradas como HybridPower y PureVideo HD, que mejoraron la eficiencia energética y la calidad de reproducción de video. La tarjeta también era compatible con SLI, lo que permitía a los usuarios combinar dos tarjetas gráficas para mejorar el rendimiento.

ATI Radeon HD 4000 y Matrox

ATI lanzó la serie Radeon HD 4000, que utilizaba una tecnología de proceso de 55 nm y tenía hasta 1 GB de memoria GDDR5. La Radeon HD 4870 se convirtió en el modelo insignia y ofrece hasta 800 sombreadores unificados y compatibilidad con DirectX 10.1. ATI desarrolló activamente sus tecnologías, como ATI Stream y CrossFireX, que mejoraron el rendimiento y ampliaron las capacidades de las GPU.

Matrox continuó trabajando en sus soluciones profesionales, ofreciendo actualizaciones y mejoras a su serie Parhelia. Sin embargo, en el segmento de juegos, Matrox no pudo competir con NVIDIA y ATI, que continuaron dominando el mercado.

2008 - 2010

NVIDIA GeForce GTX 200

En 2008, NVIDIA lanzó la serie GeForce GTX 200, que utilizaba una tecnología de proceso de 65 nm y tenía hasta 1,5 GB de memoria GDDR3. La GeForce GTX 280 insignia incluía 240 sombreadores unificados y era compatible con DirectX 10. La GeForce GTX 200 ofrecía importantes mejoras de rendimiento y admitía tecnologías como CUDA y PhysX.

La GeForce GTX 200 soportaba la nueva arquitectura Tesla, que permitía el uso de GPU para computación paralela. La tarjeta también admitía las tecnologías PureVideo HD y SLI de 3 vías, que mejoraron la calidad de reproducción de video y permitieron combinar hasta tres tarjetas de video para aumentar el rendimiento.

 ATI Radeon HD 5000 y Matrox

ATI respondió con la serie Radeon HD 5000, que utilizaba una tecnología de proceso de 40 nm y tenía hasta 2 GB de memoria GDDR5. La Radeon HD 5870 se convirtió en el modelo insignia, ofreciendo hasta 1600 sombreadores unificados y soporte para DirectX 11. ATI desarrolló activamente sus tecnologías, como Eyefinity y Stream, que mejoraron el rendimiento y ampliaron las capacidades de las GPU.

Matrox siguió centrándose en soluciones profesionales con actualizaciones de su serie Parhelia. Sin embargo, en el segmento de juegos, Matrox no pudo competir con NVIDIA y ATI, que continuaron dominando el mercado.

2010 - 2011

NVIDIA GeForce GTX 400

En 2010, NVIDIA lanzó la serie GeForce GTX 400, que utilizaba una tecnología de proceso de 40 nm y tenía hasta 1,5 GB de memoria GDDR5. La GeForce GTX 480 insignia incluía 480 sombreadores unificados y era compatible con DirectX 11. La GeForce GTX 400 ofrecía importantes mejoras de rendimiento y admitía tecnologías como CUDA y PhysX.

La GeForce GTX 400 utilizó la arquitectura Fermi, que mejoró el rendimiento y la eficiencia energética. La tarjeta también admitía las tecnologías 3D Vision y Surround, que mejoraron la calidad de la imagen y permitieron utilizar varios monitores simultáneamente.

 ATI Radeon HD 6000 y Matrox

ATI lanzó la serie Radeon HD 6000, que utilizaba una tecnología de proceso de 40 nm y tenía hasta 2 GB de memoria GDDR5. La Radeon HD 6970 se convirtió en el modelo insignia, ofreciendo hasta 1536 sombreadores unificados y soporte para DirectX 11. ATI desarrolló activamente sus tecnologías, como Eyefinity y Stream, que mejoraron el rendimiento y ampliaron las capacidades de las GPU.

Matrox continuó trabajando en sus soluciones profesionales, ofreciendo actualizaciones y mejoras a su serie Parhelia. Sin embargo, en el segmento de juegos, Matrox no pudo competir con NVIDIA y ATI, que continuaron dominando el mercado.

2011 - 2012

NVIDIA GeForce GTX 500

En 2011, NVIDIA lanzó la serie GeForce GTX 500, que utilizaba una tecnología de proceso de 40 nm y tenía hasta 3 GB de memoria GDDR5. La GeForce GTX 580 insignia incluía 512 sombreadores unificados y era compatible con DirectX 11. La GeForce GTX 500 ofrecía importantes mejoras de rendimiento y admitía tecnologías como CUDA y PhysX.

La GeForce GTX 500 utilizó una arquitectura Fermi mejorada, que mejoró el rendimiento y la eficiencia energética. La tarjeta también admitía las tecnologías 3D Vision y Surround, que mejoraron la calidad de la imagen y permitieron utilizar varios monitores simultáneamente.

 AMD Radeon HD 7000 y Matrox

AMD, después de adquirir ATI, lanzó la serie Radeon HD 7000, que utilizaba una tecnología de proceso de 28 nm y tenía hasta 3 GB de memoria GDDR5. La Radeon HD 7970 se convirtió en el modelo insignia y ofrece hasta 2048 sombreadores unificados y compatibilidad con DirectX 11.1. AMD ha estado desarrollando activamente sus tecnologías, como Eyefinity y GCN (Graphics Core Next), que mejoran el rendimiento y amplían las capacidades de las GPU.

Matrox continuó trabajando en sus soluciones profesionales, ofreciendo actualizaciones y mejoras a su serie Parhelia. Sin embargo, en el segmento de juegos, Matrox no pudo competir con NVIDIA y AMD, que siguieron dominando el mercado.

2012 - 2013

NVIDIA GeForce GTX 600

En 2012, NVIDIA lanzó la serie GeForce GTX 600, basada en la arquitectura Kepler. Estas GPU utilizaban una tecnología de proceso de 28 nm y tenían hasta 4 GB de memoria GDDR5. El modelo insignia GeForce GTX 680 incluía 1536 núcleos CUDA y era compatible con DirectX 11.1. El objetivo principal de la arquitectura Kepler fue la eficiencia energética y el aumento del rendimiento por vatio.

Tecnologías compatibles con GeForce GTX 600 GPU Boost, que aumentaba dinámicamente la frecuencia del núcleo para mejorar el rendimiento en aplicaciones exigentes. Las tarjetas también eran compatibles con NVIDIA Surround y 3D Vision, lo que permitía usar varios monitores y disfrutar de gráficos 3D estereoscópicos.

 AMD Radeon HD 8000 y Matrox

AMD lanzó la serie Radeon HD 8000, que utilizaba una tecnología de proceso mejorada de 28 nm y tenía hasta 3 GB de memoria GDDR5. La Radeon HD 8970 fue el modelo insignia, con 2048 procesadores de flujo y compatibilidad con DirectX 11.1. AMD continuó desarrollando la arquitectura GCN, mejorando el rendimiento y la eficiencia energética de sus GPU.

Matrox, aunque seguía centrada en soluciones profesionales, actualizó sus tarjetas para configuraciones de monitores múltiples y aplicaciones especializadas. En el segmento de juegos, Matrox no pudo competir con NVIDIA y AMD, que siguieron siendo líderes del mercado.

2013 - 2014

NVIDIA GeForce GTX 700

En 2013, NVIDIA presentó la serie GeForce GTX 700, que se basó en una arquitectura Kepler mejorada. Estas GPU utilizaban una tecnología de proceso de 28 nm y tenían hasta 4 GB de memoria GDDR5. El modelo insignia GeForce GTX 780 incluía 2304 núcleos CUDA y era compatible con DirectX 11.2. El objetivo de esta serie fue mejorar el rendimiento y la eficiencia energética.

Tecnologías compatibles con GeForce GTX 700 GPU Boost 2.0, que proporcionó aumentos aún mayores en la frecuencia del núcleo para un mejor rendimiento. Las tarjetas también eran compatibles con las tecnologías ShadowPlay y G-Sync, que mejoraron la grabación de juegos y la sincronización de cuadros para una experiencia de juego más fluida.

 AMD Radeon R9 200 y Matrox

AMD lanzó la serie Radeon R9 200, que utilizaba una tecnología de proceso de 28 nm y tenía hasta 4 GB de memoria GDDR5. El modelo insignia fue Radeon R9 290X, que incluye 2816 procesadores de flujo y soporte para DirectX 11.2. AMD introdujo las tecnologías Mantle y TrueAudio, que mejoraron el rendimiento de los juegos y la calidad del audio.

Matrox continuó actualizando sus soluciones profesionales, lanzando tarjetas para configuraciones de monitores múltiples y aplicaciones especializadas. En el segmento de juegos, Matrox no pudo competir con NVIDIA y AMD, que siguieron dominando el mercado.

2014 - 2016

NVIDIA GeForce GTX 900

En 2014, NVIDIA presentó la serie GeForce GTX 900, basada en la arquitectura Maxwell. Estas GPU utilizaban una tecnología de proceso de 28 nm y tenían hasta 4 GB de memoria GDDR5. El modelo insignia GeForce GTX 980 incluía 2048 núcleos CUDA y era compatible con DirectX 12. El objetivo principal de la arquitectura Maxwell era aumentar el rendimiento por vatio y mejorar la eficiencia energética.

La GeForce GTX 900 admitía las tecnologías Dynamic Super Resolution (DSR) y Multi-Frame Sampled Anti-Aliasing (MFAA), que mejoraron la calidad de la imagen. Las tarjetas también eran compatibles con la tecnología VR Direct, que optimiza el rendimiento en realidad virtual.

 AMD Radeon R9 300 y Furia

AMD lanzó la serie Radeon R9 300 y la línea Fury, que utilizaba una tecnología de proceso de 28 nm y tenía hasta 4 GB de memoria HBM (High Bandwidth Memory). La Radeon R9 Fury X fue el modelo insignia, con 4096 procesadores de flujo y soporte para DirectX 12. AMD desarrolló activamente tecnologías como LiquidVR y FreeSync, que mejoraron el rendimiento y la calidad de la imagen en los juegos.

Matrox continuó actualizando sus soluciones profesionales, ofreciendo tarjetas para configuraciones de monitores múltiples y aplicaciones especializadas. En el segmento de juegos, Matrox no podía competir con NVIDIA y AMD, que seguían siendo líderes del mercado.

2016 - 2018

NVIDIA GeForce GTX 10

En 2016, NVIDIA presentó la serie GeForce GTX 10, basada en la arquitectura Pascal. Estas GPU utilizaban una tecnología de proceso de 16 nm y tenían hasta 11 GB de memoria GDDR5X. El modelo insignia GeForce GTX 1080 Ti incluía 3584 núcleos CUDA y era compatible con DirectX 12. El objetivo principal de la arquitectura Pascal era mejorar el rendimiento y la eficiencia energética.

GeForce GTX 10 era compatible con las tecnologías Ansel y Multiproyección simultánea (SMP), que mejoraron la captura de imágenes y el rendimiento en realidad virtual. Las tarjetas también eran compatibles con la tecnología NVIDIA GameWorks, que ofrece a los desarrolladores un conjunto de herramientas para mejorar los gráficos de los juegos.

 AMD Radeon RX 400 y RX 500

AMD lanzó las series Radeon RX 400 y RX 500, que utilizaban una tecnología de proceso de 14 nm y tenían hasta 8 GB de memoria GDDR5. El modelo insignia fue la Radeon RX 580, que incluye procesadores de flujo 2304 y soporte para DirectX 12. AMD introdujo las tecnologías Polaris y Radeon Chill, que mejoraron el rendimiento y la eficiencia energética.

Matrox continuó centrándose en soluciones profesionales, actualizando sus tarjetas para configuraciones de monitores múltiples y aplicaciones especializadas. En el segmento de juegos, Matrox no pudo competir con NVIDIA y AMD, que siguieron dominando el mercado.

2018 - 2020

NVIDIA GeForce RTX 20

En 2018, NVIDIA presentó la serie GeForce RTX 20, basada en la arquitectura Turing. Estas GPU utilizaban una tecnología de proceso de 12 nm y tenían hasta 11 GB de memoria GDDR6. El modelo insignia GeForce RTX 2080 Ti incluía 4352 núcleos CUDA y era compatible con DirectX 12. El objetivo principal de la arquitectura Turing era admitir tecnologías Ray Tracing y inteligencia artificial.

GeForce RTX 20 era compatible con las tecnologías NVIDIA DLSS (Deep Learning Super Sampling) y Real-Time Ray Tracing (RTX), que mejoraron la calidad de la imagen y el rendimiento. Las tarjetas también eran compatibles con la tecnología NVIDIA Reflex, que reduce el retraso de entrada para un juego más fluido.

 AMD Radeon RX 5000

AMD lanzó la serie Radeon RX 5000, que utilizaba una tecnología de proceso de 7 nm y tenía hasta 8 GB de memoria GDDR6. La Radeon RX 5700 XT se convirtió en el modelo insignia, con 2560 procesadores de flujo y soporte para DirectX 12. AMD introdujo la arquitectura RDNA, que mejoró el rendimiento y la eficiencia energética.

2020 - 2022

NVIDIA GeForce RTX 30

En 2020, NVIDIA presentó la serie GeForce RTX 30 basada en la arquitectura Ampere. Estas GPU utilizaban la tecnología de proceso de 8 nm y tenían hasta 24 GB de memoria GDDR6X. El modelo insignia GeForce RTX 3090 incluía 10496 núcleos CUDA y era compatible con DirectX 12 Ultimate. La arquitectura Ampere se centró en aumentar el rendimiento y admitir tecnologías de trazado de rayos e inteligencia artificial.

GeForce RTX 30 era compatible con las tecnologías NVIDIA DLSS 2.0 y Reflex, que mejoraron la calidad de la imagen y redujeron el retraso de entrada. Las tarjetas también eran compatibles con la tecnología NVIDIA Broadcast, que mejoró la calidad de la transmisión de vídeo y audio.

Competidores: AMD Radeon RX 6000

AMD lanzó la serie Radeon RX 6000, que utilizaba una tecnología de proceso de 7 nm y tenía hasta 16 GB de memoria GDDR6. El modelo insignia fue la Radeon RX 6900 XT, que incluye procesadores de flujo 5120 y compatibilidad con DirectX 12 Ultimate. AMD introdujo la arquitectura RDNA 2, que mejoró el rendimiento y la eficiencia energética.

2022-presente

NVIDIA GeForce RTX 40

La serie GeForce RTX 40, lanzada por NVIDIA en 2022, se basa en la arquitectura Ada Lovelace. Estas GPU utilizan un proceso de 4 nm y cuentan con hasta 24 GB de memoria GDDR6X. La GeForce insignia... RTX 4090 Incluye 16384 núcleos CUDA y es compatible con DirectX 12 Ultimate. La arquitectura Ada Lovelace se centra en aumentar el rendimiento y en la compatibilidad con tecnologías de trazado de rayos e inteligencia artificial.

GeForce RTX 40 es compatible con las tecnologías DLSS 3 y Real-Time Ray Tracing, que mejoran la calidad y el rendimiento de la imagen. Estas tarjetas también son compatibles con la tecnología NVIDIA Reflex, que reduce el retraso de entrada, y NVIDIA Broadcast, que mejora la calidad de la transmisión de vídeo y audio. Las velocidades de reloj de la serie RTX 40 oscilan entre 2,5 y 2,8 GHz, que es significativamente más alta que las generaciones anteriores.

AMD Radeon RX 7000

AMD lanzó la serie Radeon RX 7000, basada en la arquitectura RDNA 3. Estas GPU utilizan una tecnología de proceso de 5 nm y cuentan con hasta 16 GB de memoria GDDR6. Modelo insignia de Radeon RX 7900 XTX Incluye procesadores de flujo 6144 y es compatible con DirectX 12 Ultimate. AMD ha introducido tecnologías como FSR (FidelityFX Super Resolution) y Ray Tracing, mejorando el rendimiento y la calidad de la imagen.

Radeon RX 7000 presenta tecnologías avanzadas de eficiencia energética y capacidades de realidad virtual mejoradas. Las tarjetas de esta serie también son compatibles con las tecnologías AMD Infinity Cache, que aumentan el ancho de banda de la memoria, y AMD Smart Access Memory, que permite a los procesadores Ryzen utilizar toda la memoria de video disponible.

El futuro

NVIDIA GeForce RTX 50

La próxima serie GeForce RTX 50 se basará en la arquitectura de próxima generación conocida como Blackwell. Es probable que estas GPU utilicen una tecnología de proceso aún más avanzada y tengan especificaciones mejoradas en comparación con la serie RTX 40. El objetivo principal de la arquitectura Blackwell será mejorar aún más el rendimiento del trazado de rayos e integrar nuevas tecnologías de inteligencia artificial.

La GeForce RTX 50 puede incluir nuevas tecnologías como versiones mejoradas de DLSS y RTX, así como nuevos enfoques para la gestión del calor y la energía. Se espera que estas tarjetas ofrezcan mejoras significativas en rendimiento y eficiencia energética con respecto a las generaciones actuales.

 AMD Radeon RX 8000

AMD planea lanzar la serie Radeon RX 8000, que se basará en la arquitectura RDNA 4 mejorada. Estas GPU probablemente utilizarán una nueva tecnología de proceso y tendrán especificaciones mejoradas en comparación con la serie RX 7000. La arquitectura RDNA 4 se centrará en una mayor. rendimiento y eficiencia energética, así como capacidades mejoradas para trabajar con realidad virtual y trazado de rayos.

La Radeon RX 8000 puede incluir nuevas tecnologías como versiones mejoradas de FSR y Ray Tracing, así como nuevos enfoques para la gestión del calor y la energía. Se espera que estas tarjetas ofrezcan mejoras significativas en rendimiento y eficiencia energética con respecto a las generaciones actuales.