Periodico bimestrale
Anno XX, numero 93
luglio/agosto
ISSN 1128-3874

La sostenibilità dell’incertezza

N. 90 – gennaio/febbraio

Stampa
Simona Celi
Simona Celi

Nell’ultimo decennio, per lo studio di fenomeni complessi, si è affermato sempre più concretamente il metodo dell’Uncertainty Quantification (UQ) quale strumento per identificare, quantificare e ridurre le incertezze associate a modelli, algoritmi numerici ed esperimenti.
In ambito sperimentale, la stima delle incertezze è un problema largamente affrontato e compreso. Le fonti di incertezza durante un’attività sperimentale possono essere le più differenti e sia di tipo sistematico quanto statistico. Storicamente la loro trattazione avviene tramite l’uso dei metodi statistici classici fornendo risultati tanto migliori quanto maggiore è la dimensione campionaria.
La sistematica quantificazione delle incertezze e l’analisi di come si propagano all’interno di modelli complessi è, invece, una area di ricerca relativamente nuova nel campo della Analisi Computazionale. In questo contesto la UQ si è infatti affermata come un vero e proprio strumento applicativo e di ricerca in numerosi ambiti quali le scienze fisiche, l’ingegneria, la finanza e la biologia. Gli esempi posso infatti spaziare dalla progettazione in ambito aerodinamico di un aereo, prevedendo e attenuando i rischi derivanti dai cambiamenti climatici, fino alla emodinamica del corpo umano in relazione all’alimentazione, allo sforzo fisico e all’età. In ambito computazionale la necessità di fondo è quella di rispondere alla domanda reale e crescente di sintetizzare dati complessi con modelli computazionali altrettanto complessi basati sulla fisica del fenomeno in esame. In un ambiente numerico le principali fonti di incertezza possono essere di varia natura: condizioni iniziali e al contorno, parametri d’ingresso, incertezze legate ai modelli costitutivi, a quelli fisici, così come alle geometrie del dominio in esame.
È noto come ad una maggiore raffinatezza del modello deterministico si associ una maggiore complessità del problema e un aumento del calcolo computazionale. Per far fronte a ciò, negli anni si è passati attraverso differenti metodi quali il Monte Carlo fino alla generalized polynomial chaos expansion (gPCE) e la più ottimizzata adaptive sparse gPCE (agPCE) in cui il costo computazionale è ridotto rispetto alla gPCE, includendo solo i polinomi che significativamente incrementano la qualità del meta-modello. È opportuno sottolineare, infatti, come i modelli numerici ottenuti dalla UQ risultino ancora più dispendiosi da un punto di vista computazionale rispetto al relativo modello deterministico e come inoltre necessitino dello sviluppo di modelli capaci di riprodurre la risposta del sistema per determinare le incertezze legate alle variabili d’interesse. Questa ultima considerazione ci porta a contestualizzare del “perché ora” questi metodi si stiano affermando concretamente anche in ambito industriale. Un sempre più crescente utilizzo di strutture HPC e piattaforme cloud-based sta sempre più calando nella realtà industriale questi strumenti per consentire una maggiore previsione delle risposte del sistema attraverso input incerti, una quantificazione della fiducia nelle previsioni e trovare soluzioni ottimizzate stabili su un’ampia gamma di input, riducendo così i tempi di sviluppo, i costi di prototipazione e i guasti imprevisti.

 

— Simona Celi

« Notizie