Back

La tarjeta gráfica de mejor valor para Stable Diffusion XL

Motherboards ,

Graphics Cards ,

Peripherals ,

Desktops ,

Monitors ,

Case & Components

Si ha estado en Internet en los últimos meses, es probable que haya visto publicaciones en redes sociales, artículos de noticias y vídeos sobre la IA y el contenido que puede generar. La creación de OpenAI, ChatGPT, es con diferencia la más popular. Su interfaz tipo chat permite a los usuarios interactuar con el modelo de IA para hacerle preguntas, ordenarle que realice tareas, escribir código e incluso redactar frases, párrafos o artículos enteros.

Aparte de estos modelos basados en texto, como ChatGPT, también han surgido formas más visuales de modelos de IA que pueden generar imágenes a partir de una instrucción (como MidJourney, Stable Diffusion, DALL-E, etc.). Puedes pedir a estos modelos que creen arte digital a partir de una pregunta como ésta: “una chica guapa en las calles de París, tocando la guitarra”.

Con uno de estos modelos, éste es el resultado que obtuvimos con esa indicación: imagen generada aquí

Es comprensible que el acceso a herramientas tan potentes haya puesto patas arriba sectores enteros. Aunque ningún modelo de IA está cerca de replicar a un ser humano en lo que respecta al arte, los gráficos, la escritura y la creatividad en general, muchas profesiones están empezando a notar su impacto.

Sin embargo, el contenido generado por IA sigue utilizándose sólo como muleta para crear contenido genérico (texto, fragmentos de código, imágenes o gráficos), ya que a menudo puede ser incorrecto con mucha seguridad sobre una gran variedad de temas. De hecho, El chatbot Bard AI de Google cometió un error en su primera demostración!

Dicho esto, su utilidad sólo va a evolucionar con el paso del tiempo. Ya podemos ver la llegada de nuevos modelos de IA que mejoran las versiones anteriores.

VRAM y modelos de IA: ¿Cuánta necesitas?

Algunas herramientas de IA disponibles en la actualidad destacan por su naturaleza de código abierto, lo que permite a usuarios, empresas y organizaciones alojar localmente estos modelos en su hardware sin problemas de privacidad o seguridad.

Aunque las grandes empresas no carecen de la infraestructura o la financiación necesarias para autoalojar estos modelos, los particulares y profesionales que quieren aprovechar la IA pueden enfrentarse a un reto. Una de las razones por las que los modelos de IA pueden ser superlentos o incluso directamente no ser compatibles con el hardware moderno es el requisito de VRAM para esos modelos.

Requisitos mínimos - Stable Diffusion XL

Un ejemplo de ello es el modelo Stable Diffusion XL (SDXL) de Stability AI. La empresa lo describe como "la versión más avanzada" hasta la fecha.

Ahora puede generar caras mejoradas, texto legible y arte más agradable estéticamente utilizando indicaciones más cortas. Sin embargo, estas funciones mejoradas tienen un coste de hardware, en concreto, los requisitos de VRAM y el rendimiento de la GPU.

Entonces, ¿qué necesitas exactamente para disfrutar de las mejoras de SDXL en tu máquina en casa?

En primer lugar, Stability AI recomienda una tarjeta gráfica Nvidia para esta tarea, por lo que utilizaremos productos actuales y de generaciones anteriores para comprender mejor qué rendimiento puedes esperar de ellos. Aunque Stability AI pide un mínimo de 8 GB de VRAM en el comunicado de prensa que publicaron, queríamos comprobar los efectos de las mayores capacidades de VRAM.

¿Influye drásticamente en el rendimiento limitarse al mínimo (o superarlo muy ligeramente), o puede una GPU más potente compensar la falta de VRAM?

Para responder a esta pregunta, hemos dejado que nuestro laboratorio la pruebe para ver cómo funciona con hardware de la generación actual y de la anterior. Los datos te permitirán tomar una decisión más informada a la hora de comprar tu próxima tarjeta gráfica.

Pruebas de GPU SDXL para tarjetas gráficas GeForce.

Para nuestras pruebas, utilizaremos una tarjeta gráfica RTX 4060 Ti de 16 GB, una RTX 3080 de 10 GB y una RTX 3060 de 12 GB.

En primer lugar, vamos a empezar con una composición artística sencilla utilizando parámetros predeterminados para que nuestras GPU se ejerciten.

1024 x 1024
Tamaño de la VRAM (GB)
Velocidad (seg.)
RTX 4060 Ti 16G
11.4 GB
16.0 s
RTX 3080 10G
9.7 GB
65.1 s
RTX 3060 12G
11.7 GB
27.2 s


rtx gpu stable diffusion xl

rtx gpu stable diffusion xl

Los resultados son probablemente sorprendentes para quienes normalmente sólo se centran en las pruebas comparativas de juegos.

La RTX 4060 Ti 16GB, con su búfer de 16 GB de VRAM, supera fácilmente al resto con una rápida ejecución de 16 segundos para completar la tarea. Le sigue en segundo lugar, gracias a sus 12 GB de VRAM, la RTX 3060 12 GB, con un tiempo de 27,2 segundos. No es genial, pero está muy bien.

Por desgracia, la falta de VRAM de la RTX 3080 hace que su potencia bruta sea inútil, ¡con un tiempo muy lento de 65,1 segundos! Por tanto, una RTX 4060 Ti de 16 GB moderna aniquila a una RTX 3080 de gama alta de la generación anterior con un tiempo de generación de imágenes ~4 veces más rápido.

SDXL Benchmark: 1024x1024 + LoRA

Subamos un poco la apuesta. Para la próxima prueba, probaremos LoRA.

Las técnicas LoRA o Low-Rank Adaptation te permiten ajustar los modelos Stable Diffusion a estilos artísticos o personajes específicos. Sin embargo, esto supone una mayor carga para la VRAM, así que veamos cómo se comportan nuestros contendientes.

Usemos LoRA para generar una obra de arte 'Cybergirl' y averiguar cuánta disparidad puede haber entre una tarjeta gráfica con apenas VRAM y otra con mucha.

1024 x 1024 + LoRA
Tamaño de la VRAM (GB)
Velocidad (seg.)
RTX 4060 Ti 16G
15.5 GB
17.0 s
RTX 3080 10G
9.6 GB
98.8 s
RTX 3060 12G
11.5 GB
26.8 s


rtx gpu stable diffusion xl

rtx gpu stable diffusion xl

Aquí, la RTX 3080 se ve fácilmente superada por las tarjetas de la clase 60 con más VRAM. La RTX 4060 Ti de 16 GB vuelve a liderar la tabla, tardando solo 17 segundos en generar la imagen, mientras que la RTX 3080 se queda atrás con 98,8 segundos.

SDXL Benchmarks: 1024x1024 + LoRA + ControlNet

Vamos a ponérselo un poco más difícil a las tarjetas de clase 60 ahora con algunas condiciones adicionales utilizando ControlNet.

En primer lugar, ¿qué es exactamente ControlNet? En pocas palabras, es un modelo de red neuronal que puede utilizar para controlar y ajustar las composiciones (salidas) de Stable Diffusion. Le permite decirle a Stable Diffusion que está proporcionando una referencia clara del diseño que desea mediante la adición de más condiciones a las salidas, refinando aún más el resultado para que se ajuste más a lo que necesita.

Dirígete a la Página ControlNet en GitHub para más detalles y documentación sobre cómo configurarlo.

1024 x 1024 + LoRA + controlnet
Tamaño de la VRAM (GB)
Velocidad (seg.)
RTX 4060 Ti 16G
15.2 GB
48.7 s
RTX 3080 10G
9.7 GB
51 s
RTX 3060 12G
11.5 GB
89.2 s


rtx gpu stable diffusion xl

rtx gpu stable diffusion xl

La competencia está ahora bastante reñida, con la RTX 3080 casi acortando distancias con la RTX 4060 TI de 16 GB y superando finalmente a la RTX 3060 de 12 GB. Sin embargo, incluso en este escenario de alta carga computacional, la RTX 4060 Ti de 16 GB acaba en cabeza por un estrecho margen.

Stable Diffusion XL RTX 4060 Ti GPU Benchmarks 1

SDXL Benchmark: 1024x1024 + Upscaling

Ahora, probemos con un poco de escalado. ¿Podrán nuestros competidores de la clase 60 seguirle el ritmo a la RTX 3080? Para estas pruebas, usaremos las redes adversariales generativas de superresolución mejorada, también conocidas por su acrónimo algo más digerible: R-ESRGAN 4x+.

1024 x 1024 upscale x2
Tamaño de la VRAM (GB)
Velocidad (seg.)
RTX 4060 Ti 16G
10.8 GB
5.5 s
RTX 3080 10G
10 GB
8.6 s
RTX 3060 12G
10.4 GB
7.8 s


rtx gpu stable diffusion xl

Para una imagen de 1024x1024 ampliada a 2x, la RTX 4060 Ti de 16 GB supera tanto a la RTX 3080 como a la RTX 3060 de 12 GB, tardando sólo 5,5 segundos en terminar, lo que la hace un 36% más rápida que una RTX 3080 de 10 GB para generar la imagen.

1024 x 1024 upscale x4
Tamaño de la VRAM (GB)
Velocidad (seg.)
RTX 4060 Ti 16G
10.5 GB
10 s
RTX 3080 10G
10 GB
13 s
RTX 3060 12G
10.4 GB
12.3 s


rtx gpu stable diffusion xl

rtx gpu stable diffusion xl

El abismo entre la RTX 4060 Ti 16 GB y la competencia se reduce aún más con una tarea de escalado 4x usando el escalador R-ESRGAN 4x+. Ahora, la RTX 4060 Ti de 16 GB es un 23% más rápida en completar la tarea que una RTX 3080 de 10 GB, mientras que la RTX 3060 de 12 GB está ahora a tiro de piedra de la RTX 3080. No obstante, la RTX 4060 Ti de 16 GB sigue manteniendo el liderazgo.

Como se puede ver en estos dos últimos resultados, cuanto más intensiva es la carga de trabajo de ampliación, más se acerca la RTX 3080 a la competencia de la clase 60.

Stable Diffusion XL upscale RTX 4060 Ti GPU Benchmarks 2

La tarjeta gráfica con mejor relación calidad-precio para Stable Diffusion XL

Cuando se trata de modelos de IA como Stable Diffusion XL, tener más que suficiente VRAM es importante. A partir de las pruebas anteriores, es fácil ver cómo la RTX 4060 Ti de 16 GB es la tarjeta gráfica con mejor relación calidad-precio para la generación de imágenes de IA que puedes comprar ahora mismo.

The Best Value RTX Graphics Card for Stable Diffusion XL RTX 4060 Ti 16GB

Puede dirigirse a la página de Stability AI’s en GitHub para obtener más información sobre SDXL y otros modelos de difusión de Stability AI.

Más información sobre cómo la VRAM acelera la Difusión Estable XL:
https://youtu.be/7HDzpuGionA

Más información GeForce RTX™ 4060 Ti GAMING X SLIM 16G:
https://www.msi.com/Graphics-Card/GeForce-RTX-4060-Ti-GAMING-X-SLIM-16G

Subscríbase a nuestro Blog

Manténgase actualizado con el último hardware, consejos y novedades.

Please check the box if you would like to receive our latest news and updates.By clicking here, you consent to the processing of your personal data by [Micro-Star International Co., LTD.] to send you information about [MSI’s products, services and upcoming events]. Please note that you can unsubscribe from the MSI Newsletters here at any time.

Further details of our data processing activities are available in the MSI Privacy Policy