jueves 2, mayo 2024
spot_img

El nuevo modelo de Stability AI genera imágenes a partir de texto de 1MP en segundos

Madrid, 27 Jul. (Portaltic/EP) – Stability AI ha presentado Stable Diffusion XL, el modelo de inteligencia artificial (IA) generativa de imágenes a partir de texto más avanzado de la compañía hasta la fecha, con 3.500 millones de parámetros con capacidad para generar imágenes de 1 megapíxeles en segundos.

Stable Diffusion XL 1.0 está disponible en la API Stability AI, la página de la compañía en Github y las aplicaciones de Clipdrop y DreamStudio tras un acceso inicial, solo para investigadores, en junio, que permitió afinar el modelo.

El modelo, que contiene 3.500 millones de parámetros, genera imágenes a partir de una descripción en texto. El proceso de afinado permite que esas imágenes que se generan tengan «colores más vibrantes y precisos», con «mejor contraste, iluminación y sombreado».

Las imágenes se obtienen en segundos, en diferentes ratios de aspecto, y con una resolución de un megapíxel (1024×1024), como informa la compañía en una nota de prensa. Según Stability AI, se trata del «último y más avanzado» modelo de IA generativa de su conjunto insignia de modelos de texto a imagen.

En la API Stability AI, la compañía también ha incorporado un afinador, que requiere apenas cinco imágenes para «especializar» la generación de imágenes de personas específicas o productos.

Stable Diffusion XL 1.0 se ha anunciado este miércoles en el evento anual AWS Summit de Nueva York (Estados Unidos), ya que se ha incorporado al servicio de modelos fundacionales de Amazon Bedrock. Para el director ejectivo, Emad Mostaque, es una muestra del «firme compromiso» de la compañía con Amazon Web Services «para proporcionar las mejores soluciones para los desarrolladores y los clientes».

Noticias de Interés

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimas Noticias