Warning: filemtime(): stat failed for fake/style.css in /home/customer/www/mejorapp.net/public_html/wp-content/themes/generatepress/inc/general.php on line 67
Las mejores GPU de todos los tiempos - MejorApp ▷➡️

Las mejores GPU de todos los tiempos

La GPU es quizás la parte más interesante de una PC para juegos: proporciona la potencia necesaria para aumentar las resoluciones y la configuración de detalles visuales y se puede actualizar fácilmente generación tras generación. También es el escenario tradicional donde Nvidia y AMD se enfrentan por la supremacía comercial y tecnológica (aunque la lucha se ha trasladado al centro de datos en los últimos años). Estas dos empresas a menudo han luchado con uñas y dientes cada generación, a veces produciendo tarjetas gráficas que no sólo son geniales, sino verdaderamente decisivas para cambiar la dirección de la industria.

 

Es extremadamente difícil elegir incluso una docena de tarjetas gráficas históricas; A lo largo de los 30 años de historia de la industria, se podrían sugerir más de 20 GPU revolucionarias, y simplemente tomaría demasiado tiempo analizar cada una de ellas. He identificado las siete tarjetas gráficas Nvidia y AMD más importantes de los últimos 20 años y cómo cada una de ellas marcó un punto de inflexión significativo.

 

Nvidia GeForce 8800

 

La 9700 Pro realmente sentó las bases para las próximas dos décadas de tarjetas gráficas, y muy rápidamente quedó claro que las nuevas GPU de gama alta debían ser grandes. Nvidia y ATI siguieron al R300 con chips de 200 mm e incluso 300 mm2, y aunque fue ATI quien inició esta carrera armamentista, finalmente Nvidia recuperó el liderazgo en rendimiento con su serie GeForce 8 en 2006, que debutó con la GeForce 8800 GTX y 8800 GTS.

 

El buque insignia 8800 GTX fue entre un 50% y un 100% más rápido que el Radeon X1950 de gama alta de ATI, lo que resultó en una victoria que, según Anandtech , fue "similar a lo que vimos con el Radeon 9700 Pro". Mientras tanto, la GeForce GTS de gama media alta podría igualar a la X1950 en algunos títulos y superarla en un 50% en otros. Incluso a $600 y $450 respectivamente, la 8800 GTX y la 8800 GTS recibieron grandes elogios.

 

Pero la verdadera estrella de la familia GeForce 8800 fue la GeForce 8800 GT, que se lanzó a finales de 2007. A pesar de que era sólo una 8800 GTX ligeramente rebajada, se vendió por unos 200 dólares, aproximadamente un tercio del precio de la modelo superior. Básicamente, dejó obsoletas todas las demás GPU Nvidia y ATI, incluso la Radeon HD 2900 XT más nueva. Lo que Nvidia hizo con el 8800 GT fue impactante y es impensable que volvamos a ver algo así dado el estado actual del mercado .

 

GPU AMD Radeon HD 5970

 

Después de la serie GeForce 8, Nvidia disfrutó de un período de dominio sobre ATI, que fue adquirida por AMD en 2006. Las series Radeon HD 2000 y 3000 ya estaban planeadas cuando se produjo la adquisición, lo que significó que AMD sólo podía comenzar a cambiar la dirección de su Nueva unidad gráfica a partir de la serie HD 4000 en adelante. AMD observó la dinámica entre Nvidia y ATI y finalmente rechazó el gran status quo de GPU que había persistido desde la serie Radeon 9000. El nuevo plan de ATI y AMD se denominó "estrategia de troquel pequeño".

Te puede interesar:  Que es una GPU de perfil bajo

 

La filosofía básica de las series HD 4000 y 5000 era que las GPU grandes eran demasiado caras de diseñar y producir. Las GPU más pequeñas podrían obtener la mayor parte del rendimiento que tenían las GPU grandes, especialmente si utilizaban el último proceso o nodo de fabricación. Si AMD quisiera una GPU súper rápida, podría confiar en su tecnología CrossFire, que permitía que dos tarjetas funcionaran juntas. La estrategia de matriz pequeña debutó con la serie HD 4000, y aunque no superó a la serie GTX 200 en rendimiento, las GPU más pequeñas de AMD eran casi igual de rápidas y costaban casi la mitad del precio.

 

La serie HD 5000 en 2009 no solo repitió la estrategia de matriz pequeña, sino que también aprovechó las dificultades de Nvidia para sacar al mercado su desastrosa serie GTX 400. La HD 5870 era la GPU más rápida de AMD con un solo procesador de gráficos y superó a la GTX 285 insignia de Nvidia, que estaba asediada debido a su vejez. La HD 5970, sin embargo, era una tarjeta gráfica con dos de los procesadores gráficos de gama alta de AMD, lo que resultó en una GPU que era literalmente demasiado rápida para la mayoría de los usuarios . La lamentablemente inadecuada GTX 400 de Nvidia aseguró que la HD 5970 siguiera siendo la GPU más rápida del mundo hasta 2012, un reinado de aproximadamente tres años.

 

La estrategia de AMD con matrices pequeñas, aunque tuvo un éxito momentáneo, finalmente fue abandonada después de la serie HD 5000. Después de todo, si las GPU GTX 400 de Nvidia fueran buenas, entonces el pequeño tamaño de la HD 5000 habría sido un gran problema. A partir de este momento, AMD seguiría dando prioridad a llegar al nodo más nuevo, pero no rehuiría fabricar GPU de gran tamaño. Mientras tanto, Nvidia a menudo permanecería en nodos más antiguos y maduros para ahorrar dinero y producir GPU grandes de manera rentable. Estas tendencias se han mantenido en su mayoría hasta el día de hoy.

 

AMD Radeon R9 290X

 

Después de HD 5000 y GTX 400, la dinámica entre AMD y Nvidia comenzó a cambiar y volverse más equilibrada. La serie HD 6000 de AMD realmente no mejoró mucho respecto a la HD 5000, mientras que la serie GTX 500 de Nvidia resolvió los problemas de rendimiento y eficiencia energética de la GTX 400. En 2012, las series HD 7000 y GTX 600 pelearon hasta empatar, aunque AMD obtuvo la gloria. por lanzar la primera GPU de 1 GHz del mundo. En ese momento, AMD y Nvidia usaban el nodo de 28 nm de TSMC, y a AMD le hubiera gustado actualizar al nodo de 22 nm para seguir adelante.

Te puede interesar:  Cómo encontrar aplicaciones de mindfulness para aliviar la ansiedad

 

Eso es lo que AMD habría hecho si no fuera por el hecho de que prácticamente todos los fabricantes de silicio del mundo tenían problemas para avanzar más allá de los 28 nm. En 2013, AMD no podía confiar en una ventaja de proceso y ambas compañías lanzaron una vez más GPU nuevas en el nodo de 28 nm de TSMC, lo que resultó e n algunas de las GPU insignia más grandes que la industria había visto hasta la fecha. Nvidia superó a AMD en la siguiente generación con su GTX Titan de 1.000 dólares y su GTX 780 de 650 dólares, que eran GPU increíblemente rápidas con un tamaño de matriz de 561 mm2 (grande incluso para los estándares actuales).

 

El R9 290X se lanzó unos meses después y casi asestó un golpe decisivo a las nuevas y brillantes GPU de Nvidia. A pesar de su tamaño de troquel relativamente pequeño de 438 mm2, fue capaz de superar al 780 e igualar al Titan por sólo $550, lo que convierte al 290X en "un monstruo de precio/rendimiento" según Anandtech . Habría sido otro HD 5970 o 9700 Pro si no fuera por una debilidad clave: el consumo de energía. El 290X consumía demasiada energía y la tarjeta de referencia simplemente estaba demasiado caliente y hacía demasiado ruido. En última instancia, esta situación resultaría intratable para AMD y su victoria sería de corta duración.

 

GPU Nvidia GeForce GTX 1080

 

En los años posteriores al lanzamiento del 290X, la dinámica entre Nvidia y AMD cambió drásticamente. Desde la serie HD 5000, AMD siempre había logrado mantenerse al día con Nvidia y competir por el puesto número uno, pero los problemas financieros comenzaron a afectar a la empresa por diversas razones. Cuando Nvidia lanzó su nueva serie GTX 900 en 2014, no se encontraron nuevas GPU de AMD. AMD finalmente lanzó nuevas tarjetas en 2015, pero la mayoría de ellas eran tarjetas de la serie 200 actualizadas, mientras que la R9 Fury X de gama alta no logró recrear el momento mágico de la R9 290X.

 

Mientras tanto, TSMC finalmente lanzó su nuevo nodo de 16 nm en 2015, lo que significó que la próxima generación de GPU finalmente podría obtener una actualización muy necesaria. En circunstancias normales, esto habría sido una ventaja para AMD, y podría haber usado el nodo de 16 nm tan pronto como salió si no fuera por el hecho de que la compañía estaba al borde de la quiebra. En cambio, fue Nvidia quien llegó primero a los 16 nm en 2016 con su serie GTX 10, fundamentalmente idéntica a la serie GTX 900, aparte de usar el nodo de 16 nm.

 

Te puede interesar:  Las 10 mejores aplicaciones de productividad para aumentar tu eficiencia

La GTX 1080 insignia dejó en claro cuánto se estaba quedando atrás la industria del silicio sin nuevos nodos a los que actualizar. En comparación con el 980 Ti de gama alta de 2015, el 1080 tenía la mitad de tamaño, consumía un cuarto menos de energía y era un 30% más rápido en promedio . Se trata de un increíble nivel de mejora para una sola generación, sobre todo porque la serie 900 también se consideró una gran mejora con respecto a su predecesora. Nvidia logró una victoria tan monumental sobre AMD que las GPU para juegos casi se convirtieron en sinónimo de GeForce.

 

La serie 10 es quizás la mejor familia de tarjetas gráficas jamás lanzada, y también es única por ser la última gran generación de GPU antes de que el mercado empeorara. La GTX 1080 Ti tiene seis años en el momento de escribir este artículo y aún así ofrece una experiencia de juego de gama media a alta; Como referencia, en 2017, la GTX 680 de seis años ya casi no era de gama media. Los entusiastas de las PC casi universalmente sienten nostalgia por la serie 10, que se lanzó en un momento en que las GPU no costaban cuatro dígitos.

 

GPU Nvidia GeForce RTX 3080 10GB

 

La genialidad de la serie GTX 10 fue seguida inmediatamente por la infame y decepcionante serie RTX 20 en 2018. Estas GPU básicamente ofrecieron pocas o ninguna mejora de rendimiento significativa con respecto a la serie 10 hasta que salió la Super actualización en 2019. Nvidia quería confiar en su innovación. trazado de rayos y tecnologías de inteligencia artificial para destruir a AMD (que no tenía nada de eso), pero una gran escasez de juegos que realmente usaran trazado de rayos y súper muestreo de aprendizaje profundo (o DLSS) hizo que la serie 20 fuera un mal negocio en general.

 

Para ofrecer un mejor producto de próxima generación y evitar la amenaza inminente de las próximas GPU de próxima generación de AMD, Nvidia necesitaba centrarse en ofrecer un rendimiento y un valor claramente mejores. Fundamentalmente, Nvidia se asoció exclusivamente con Samsung y dejó TSMC, su socio tradicional. Al utilizar el nodo de 8 nm de Samsung, Nvidia dejaba algo de rendimiento y eficiencia sobre la mesa ya que el de 7 nm de TSMC era mejor. Sin embargo, dado que Samsung tenía menos demanda de procesadores, es muy probable que Nvidia haya obtenido una buena oferta para fabricar sus próximas GPU.

 

La serie RTX 30 se lanzó a finales de 2020 con RTX 3090 y 3080 a la cabeza. El 3090, con su precio de 1.500 dólares, era básicamente inútil; el 3080 de $700 fue la verdadera estrella del espectáculo. Fue un reemplazo directo del RTX 2080 con un 50% más de rendimiento en promedio a 1440p, lo que para Techspot fue "mucho mejor que lo que obtuvimos la última generación". La serie 30 también se benefició del mayor uso del trazado de rayos y DLSS, características que inicialmente eran trucos pero que finalmente se volvieron útiles.

crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram