Primi approcci basati su regole (anni '70-'80)
La ricerca per automatizzare la progettazione di planimetrie è iniziata già negli anni '70. Una delle prime pietre miliari concettuali è stata l'introduzione delle grammatiche delle forme da parte di Stiny e Gips nel 1971, un sistema formale basato su regole per la generazione di progetti, compresi i layout architettonici, tramite regole ricorsive di trasformazione delle forme. Questi primi approcci erano in gran parte simbolici o basati su regole: ad esempio, il lavoro di Friedman del 1971 tentò una pianificazione algoritmica dello spazio, mentre la teoria di Mitchell del 1976 definì un metodo per enumerare le possibili disposizioni delle stanze. Alla fine degli anni '70 e negli anni '80, i ricercatori stavano esplorando sistemi esperti e regole euristiche per il "problema dell'allocazione dello spazio". Il lavoro di Shaviv del 1974 e del 1987 sull'allocazione computerizzata dello spazio esemplificava i metodi logici dell'epoca per la pianificazione del layout.
Ottimizzazione e metodi evolutivi (anni '90-2000)
Negli anni '90, l'intelligenza artificiale in architettura si è orientata verso algoritmi di ricerca e ottimizzazione per gestire la complessità combinatoria dei layout. Il lavoro pionieristico di John Gero e colleghi ha introdotto algoritmi evolutivi per la progettazione di planimetrie: Jo e Gero (1996) hanno simulato semplici progetti architettonici utilizzando algoritmi genetici, mentre Rosenman et al. (1997) hanno esteso questo approccio combinando algoritmi genetici con la programmazione genetica. Durante la fine degli anni '90, diversi ricercatori hanno applicato strategie evolutive per generare configurazioni spaziali.
All'inizio degli anni 2000, il settore ha visto una proliferazione di metodi euristici come il simulated annealing e metodi ibridi che combinavano algoritmi evolutivi con la programmazione vincolata o le grammatiche di forma. Una tendenza degna di nota è stata l'uso dell'ottimizzazione multi-obiettivo per bilanciare i requisiti funzionali con i criteri di prestazione.
Paradigmi basati sui dati e punti di svolta fondamentali (2010-2015)
Una svolta fondamentale è arrivata con l'articolo pubblicato nel 2010 da Paul Merrell et al., intitolato "Computer-Generated Residential Building Layouts" (Progetti di edifici residenziali generati al computer). Esso introduceva una rete bayesiana addestrata su planimetrie reali per apprendere i modelli di connettività delle stanze e una fase di ottimizzazione stocastica per la geometria della planimetria. Questo lavoro ha segnato l'inizio dei metodi referenziali che apprendono dai dati di progettazione precedenti.
Successivamente, sono stati avviati i primi tentativi di apprendimento automatico per analizzare ed etichettare i disegni architettonici. Si è trattato di anni di transizione in cui i metodi tradizionali basati su regole coesistevano con la modellazione basata sui dati, in attesa di set di dati più grandi e framework di apprendimento più potenti.
La rivoluzione dei modelli generativi profondi (2016-2020)
Grazie al deep learning, la generazione automatizzata di planimetrie ha registrato progressi significativi. Grandi set di dati come RPLAN (2019) e LIFULL Home Dataset hanno consentito l'addestramento di reti neurali profonde. I metodi iniziali basati su CNN hanno avuto difficoltà con la coerenza multi-stanza, ma le reti generative avversarie (GAN) hanno cambiato lo scenario.
- House-GAN (2020): È stato introdotto un GAN con vincoli grafici per generare layout da diagrammi a bolle utilizzando reti neurali grafiche.
- Graph2Plan, FloorplanGAN e House-GAN++ hanno ulteriormente migliorato il realismo e la coerenza del layout.
- I modelli ora sono in grado di generare sia planimetrie rasterizzate che layout vettoriali precisi con elevata fedeltà.
Anche la generazione condizionale ha fatto passi avanti, consentendo la generazione del layout entro confini fissi o in base a vincoli di adiacenza delle stanze.
Recenti progressi: reti grafiche, modelli multistrato e modelli di diffusione (2021-2025)
I modelli recenti mirano alla generazione multistrato e al perfezionamento del layout utilizzando architetture avanzate:
- Building-GAN (2022) e Building-GNN (2023): generano planimetrie sovrapposte utilizzando reti neurali grafiche.
- HouseDiffusion (2023): applica la diffusione con denoising per generare poligoni di stanze da diagrammi a bolle.
I modelli più recenti integrano i codici edilizi e i vincoli del mondo reale nella generazione dei layout. I modelli di diffusione migliorano la stabilità rispetto alle GAN e i benchmark di valutazione sono più standardizzati.
Si sta inoltre prestando sempre maggiore attenzione alla generazione condizionata dal testo e all'integrazione con modelli linguistici di grandi dimensioni (LLM) per l'interpretazione sintetica e la co-progettazione.
Verso il futuro
Lo sviluppo dell'intelligenza artificiale per la generazione di planimetrie si è evoluto dai sistemi simbolici ai modelli di deep learning in grado di generare layout architettonici realizzabili a partire da semplici input.
Momenti chiave:
- 1971: Grammatiche di forma
- Anni '90: Algoritmi genetici e di ottimizzazione
- 2010: Sintesi bayesiana del layout di Merrell
- Anni '20: GAN profonde, modelli di diffusione e reti grafiche
Il settore continua a orientarsi verso sistemi intelligenti in grado di comprendere le intenzioni progettuali dell'uomo e di produrre progetti architettonici creativi e funzionalmente validi. L'intelligenza artificiale sta rapidamente diventando un partner collaborativo nella progettazione architettonica.
