Te compartimos este espacio de Hugging Face en el que puedes utilizar Stable Diffusion 2.1 Demo, para poder generar imagenes con una interfaz amigable.
Acceso al Espacio:
https://stabilityai-stable-diffusion.hf.space
Ficha del modelo de Stable Diffusion v2-1
Esta ficha de modelo se centra en el modelo asociado al modelo Stable Diffusion v2-1, cuya base de código está disponible aquí.
Este modelo stable-diffusion-2-1 está afinado a partir de stable-diffusion-2 (768-v-ema.ckpt) con 55k pasos adicionales sobre el mismo conjunto de datos (con punsafe=0,1), y después afinado para otros 155k pasos adicionales con punsafe=0,98.
Utilícelo con el repositorio stablediffusion: descargue el v2-1_768-ema-pruned.ckpt aquí.
Utilícelo con difusores 🧨
Detalles del modelo
Desarrollado por: Robin Rombach, Patrick Esser
Tipo de modelo: Modelo de generación de texto a imagen basado en la difusión
Idioma(s): Inglés
Licencia: Licencia CreativeML Open RAIL++-M
Descripción del modelo: Este es un modelo que se puede utilizar para generar y modificar imágenes basadas en indicaciones de texto. Se trata de un modelo de difusión latente que utiliza un codificador de texto fijo y preentrenado (OpenCLIP-ViT/H).
Recursos para obtener más información: Repositorio GitHub.