In questo mondo frenetico in cui viviamo e dopo la pandemia, molti di noi si sono resi conto che avere un ambiente piacevole come casa per evadere dalla realtà non ha prezzo ed è un obiettivo da perseguire.
Che tu stia cercando uno stile scandinavo, minimalista o glamour per arredare la tua casa, non è facile immaginare come ogni singolo oggetto si inserirà in uno spazio pieno di pezzi e colori diversi. Per questo motivo, di solito cerchiamo un aiuto professionale per creare quelle straordinarie immagini 3D che ci aiutano a capire come sarà la nostra futura casa.
Tuttavia, queste immagini 3D sono costose e, se la nostra idea iniziale non sembra buona come pensavamo, ottenere nuove immagini richiederà tempo e più denaro, cose che oggigiorno scarseggiano.
In questo articolo esploro il modello di Diffusione Stabile iniziando con una breve spiegazione di cosa è, come viene addestrato e cosa è necessario per adattarlo all’inpainting. Infine, concludo l’articolo con la sua applicazione su un’immagine 3D della mia futura casa in cui cambio l’isola della cucina e i mobili con un colore e un materiale diversi.
Come sempre, il codice è disponibile su Github.
Che cos’è?
Stable Diffusion (1) è un modello di intelligenza artificiale generativa rilasciato nel 2022 da CompVis Group che produce immagini fotorealistiche da prompt di testo e immagini. È stato progettato principalmente per generare immagini influenzate da descrizioni di testo, ma può essere utilizzato per altre attività come l’inpainting o la creazione di video.
Il suo successo deriva da Compressione dell’immagine percettiva passo che converte un’immagine ad alta dimensionalità in uno spazio latente più piccolo. Questa compressione consente l’utilizzo del modello in macchine con poche risorse rendendolo accessibile a tutti, cosa che non era possibile con i precedenti modelli all’avanguardia.
Come impara?
Fonte: towardsdatascience.com