Menu
in

Cómo generar imágenes con el nuevo Stable Diffusion 3 Medium en línea

Imagino que no van a durar mucho, así que, ¡aprovecha!

Cómo generar imágenes con el nuevo Stable Diffusion 3 Medium en línea

En las últimas horas, la gente de Stability.ai anunció el lanzamiento del nuevo modelo «Stable Diffusion 3 Medium», que (supuestamente) incluye dos mil millones de parámetros, una comprensión más precisa de prompts, y mejoras generales en aspectos como el fotorrealismo. Este modelo también prioriza su funcionamiento en entornos con una cantidad de VRAM más limitada, pero si deseas ver qué puede hacer antes de iniciar cualquier descarga, lo cierto es que ya existen espacios gratuitos en HuggingFace


Admito que estoy desconectado de la generación de imágenes con inteligencia artificial. Después de obtener cientos de miles de resultados con Auto1111 y los modelos disponibles en Civitai, uno inevitablemente empieza a reconocer patrones, errores, limitaciones. A esto se suman los requerimientos de hardware: Modelos más complejos demandan una mayor cantidad de VRAM, y la única alternativa para muchos usuarios ha sido reciclar modelos antiguos.

Así llegamos a Stable Diffusion 3 Medium, que en teoría recibió varias optimizaciones para garantizar su ejecución en hardware comercial. En mi mente, eso significa «cualquier GPU con 8 GB de VRAM o menos», pero en vez de compartir enlaces a guías de instalación y descarga, hoy recomiendo algo mucho más sencillo: Visitar HuggingFace, y probar las demos gratuitas de Stable Diffusion 3 Medium en línea.


Probando Stable Diffusion 3 Medium en línea y gratis

Como era de esperarse, los modelos están bajo fuego…

¿Por qué? Bueno… porque lo están destrozando en Reddit. Se supone que el modelo es más fuerte a la hora de generar imágenes fotorrealistas, y eso es cierto si reproducimos paisajes o estructuras, pero el problema es cuando aparecen humanos en la ecuación. Los «viejos trucos» parecen funcionar bien (manos en los bolsillos o detrás de la espalda, amplios prompts negativos, etc.), sin embargo, es muy difícil aceptar que estos modelos sigan cometiendo los mismos errores después de tanto tiempo, cuando sus competidores ya llevan (como mínimo) un año generando manos correctamente.


«highly detailed image of an abandoned military bunker in the middle of the desert. Daylight in the deep desert, heat, bright blue sky. Rusted metal and crumbling concrete, broken walls, exposed beams, post-apocalyptic environment.»
«professional photography of a caucasian woman waiting in a bus stop. Wearing a long deep blue coat, hands in her pocket, small white wool winter hat, green scarf. Short pixie black hair, green eyes, looking at the camera. Rainy winter day, moisture, cold.»

Los usuarios culpan al «exceso de censura» por parte de Stability.ai (algo que ya sucedió con versiones previas), pero otros asocian la calidad del modelo a los inconvenientes financieros que está viviendo la compañía en la actualidad. Política interna a un lado, si deseas hacer pruebas con tus propios prompts en Stable Diffusion 3 Medium, haz clic en el enlace que aparece abajo, elige uno de los «Spaces» disponibles… y ten paciencia. Por momentos, es muy complicado acceder a un GPU libre…


Prueba Stable Diffusion 3 Medium: Haz clic aquí


Escrito por Lisandro Pardo

Leave a Reply