
Da qualche mese mi diverto a giocare con Stable Diffusion, IA generativa open source e gratuita rilasciata nel 2022, che, con qualche competenza, può girare su più sistemi operativi (Macintosh, Windows, Linux), meglio se su PC potenti per non sorbirsi tempi biblici di render (esiste anche la possibilità di utilizzarla online). Dopo avere installato Stable Diffusion ho iniziato a familiarizzare con i prompt testuali e a finalizzarli, e devo dire che mi sono divertito. Qualche giorno fa ho provato a rappresentare l’Intelligenza Artificiale, e il risultato è invariabilmente quello di figure femminili, sia pure “artificializzate”, di notevole fattura anche se non particolarmente originali. Insomma, per Stable Diffusion l’IA è femmina! 🙂
Stable Diffusion è un modello di apprendimento automatico profondo pubblicato nel 2022, utilizzato principalmente per generare immagini dettagliate a partire da descrizioni di testo, sebbene possa essere applicato anche ad altre attività come la pittura, la pittura esterna e la generazione di traduzioni da immagine a immagine guidate da un prompt di testo.
Stable Diffusion è un modello di diffusione latente, una variante di rete neurale generativa profonda sviluppata dal gruppo CompVis alla LMU di Monaco. Il modello è stato rilasciato da una collaborazione tra Stability AI, CompVis LMU e Runway con il supporto di EleutherAI e LAION. Nell’ottobre 2022, Stability AI ha raccolto 101 milioni di dollari in un round di investimenti guidato da Lightspeed Venture Partners e Coatue Management.
Il codice di Stable Diffusion e i pesi del modello sono stati rilasciati pubblicamente.
Stable Diffusion può funzionare sulla maggior parte dell’hardware dotato di una GPU modesta con almeno 10 GB di VRAM. Ciò ha segnato un allontanamento dai precedenti modelli proprietari di creazione immagini da testo come DALL-E e Midjourney, accessibili solo tramite servizi cloud. (Da Wikipedia)
Di seguito alcuni esempi.
For some month now I’ve been enjoying playing with Stable Diffusion, an open source and free generative AI released in 2022, which, with some expertise, can run on multiple operating systems (Macintosh, Windows, Linux), better if on powerful PCs so as not to wait for biblical times to render (there is also the possibility to use it online). After installing Stable Diffusion I started getting familiar with the text prompts and finalizing them, and I have to say I’ve had a lot of fun. I recently tried to represent Artificial Intelligence, and the result is invariably that of female figures, albeit “artificialized”, of remarkable workmanship although not particularly original. In short, for Stable Diffusion AI is female! 🙂
Stable Diffusion is a deep learning, text-to-image model released in 2022. It is primarily used to generate detailed images conditioned on text descriptions, though it can also be applied to other tasks such as inpainting, outpainting, and generating image-to-image translations guided by a text prompt. It was developed by the start-up Stability AI in collaboration with a number of academic researchers and non-profit organizations.
Stable Diffusion is a latent diffusion model, a kind of deep generative neural network. Its code and model weights have been released publicly, and it can run on most consumer hardware equipped with a modest GPU with at least 8 GB VRAM. This marked a departure from previous proprietary text-to-image models such as DALL-E and Midjourney which were accessible only via cloud services. (From Wikipedia)
Here some examples.