stable diffusion 2.1

Stable Diffusion 2.1 Demo

Te compartimos este espacio de Hugging Face en el que puedes utilizar Stable Diffusion 2.1 Demo, para poder generar imagenes con una interfaz amigable.

Acceso al Espacio:

https://stabilityai-stable-diffusion.hf.space

Ficha del modelo de Stable Diffusion v2-1

Esta ficha de modelo se centra en el modelo asociado al modelo Stable Diffusion v2-1, cuya base de código está disponible aquí.

Este modelo stable-diffusion-2-1 está afinado a partir de stable-diffusion-2 (768-v-ema.ckpt) con 55k pasos adicionales sobre el mismo conjunto de datos (con punsafe=0,1), y después afinado para otros 155k pasos adicionales con punsafe=0,98.

Utilícelo con el repositorio stablediffusion: descargue el v2-1_768-ema-pruned.ckpt aquí.
Utilícelo con difusores 🧨

Detalles del modelo

Desarrollado por: Robin Rombach, Patrick Esser

Tipo de modelo: Modelo de generación de texto a imagen basado en la difusión

Idioma(s): Inglés

Licencia: Licencia CreativeML Open RAIL++-M

Descripción del modelo: Este es un modelo que se puede utilizar para generar y modificar imágenes basadas en indicaciones de texto. Se trata de un modelo de difusión latente que utiliza un codificador de texto fijo y preentrenado (OpenCLIP-ViT/H).

Recursos para obtener más información: Repositorio GitHub.

Quizás te interese leer:   OpenAI entra por la puerta grande en el text to video con su nuevo modelo SORA
Total
0
Shares
Related Posts