La ricerca sui materiali a base di carbonio ha visto una rivoluzione grazie all’introduzione delle tecnologie di apprendimento automatico (machine learning, ML), che stanno cambiando il modo in cui vengono progettati e ottimizzati i materiali per applicazioni in settori ad alta tecnologia, come l'energia rinnovabile e l'aerospaziale. L'uso di algoritmi di machine learning per analizzare le caratteristiche strutturali e prevedere le proprietà sperimentali dei materiali ha aperto nuove possibilità per la progettazione di materiali avanzati.
Molti dei modelli di apprendimento automatico utilizzati per la ricerca sui materiali si basano su approcci matematici sofisticati, che correlano i dati sperimentali con le caratteristiche strutturali dei materiali stessi. Questo processo non solo facilita la progettazione di nuovi materiali, ma contribuisce anche alla loro ottimizzazione, migliorando la loro efficienza e prestazioni in diverse applicazioni industriali e tecnologiche. Ad esempio, modelli di regressione come la Gaussian Process Regression (GPR) permettono di prevedere le energie di adsorbimento, informazioni cruciali per comprendere la reattività superficiale e le attività catalitiche dei materiali. L'impiego di modelli generativi, che generano nuove strutture con caratteristiche desiderate, ha anche introdotto un nuovo approccio creativo nella scoperta dei materiali.
Un aspetto fondamentale della ricerca sui materiali è la selezione dell'algoritmo di apprendimento più adatto per ciascun compito. Non esiste un algoritmo universale, ma esistono delle linee guida che, sebbene basate su assunzioni semplificate, possono aiutare a restringere il campo e velocizzare il processo di selezione. Alcuni ricercatori, per esempio, si sono rivolti al meta-apprendimento, un approccio che consente di "imparare a imparare", per identificare la combinazione ottimale di algoritmo e parametri iper. Il meta-apprendimento può essere particolarmente utile per applicazioni in ambito energetico e chimico-farmaceutico, dove le caratteristiche dei materiali devono essere previste in condizioni diverse, come variazioni di temperatura e pressione.
All'interno di questi metodi, le reti neurali artificiali (ANNs) e le reti neurali convoluzionali (CNNs) si sono rivelate strumenti fondamentali per l'analisi di pattern e correlazioni su grandi set di dati complessi. Le CNNs, in particolare, sono state utilizzate per stimare le energie di legame, studiando le interazioni molecolari e la stabilità strutturale dei composti, mentre gli algoritmi di clustering sono impiegati nell'analisi spettrale per identificare materiali con caratteristiche simili. Inoltre, tecniche avanzate come la Support Vector Machine (SVM) e la regressione del Kernel Ridge (KRR) sono essenziali per le previsioni delle attività catalitiche e per lo studio delle strutture elettroniche dei materiali.
L'adozione di questi algoritmi ha rivoluzionato non solo la progettazione di nuovi materiali, ma anche la comprensione delle proprietà dei materiali esistenti. Tra gli algoritmi più utilizzati per i materiali a base di carbonio troviamo la regressione lineare, che rimane uno degli strumenti più efficaci per analizzare le correlazioni tra variabili e fare previsioni accurate. Sebbene la regressione lineare sia soggetta a alcune assunzioni, come la linearità e l'indipendenza degli errori, la sua applicabilità a diversi settori industriali e la sua semplicità la rendono una delle tecniche di apprendimento automatico più utilizzate.
Altri algoritmi come la regressione ad albero decisionale (DTR) e la regressione di boosting gradiente (GBR) vengono impiegati per migliorare le previsioni e affinare i modelli attraverso un approccio iterativo. La regressione ad albero decisionale suddivide i dati in gruppi più piccoli e omogenei, riducendo la varianza nel target variabile, mentre la GBR migliora progressivamente i modelli esistenti per ottenere previsioni sempre più accurate. Anche il Support Vector Regression (SVR), una metodologia potente che si basa sulle macchine a vettori di supporto (SVM), ha visto un utilizzo crescente nella ricerca sui materiali, poiché consente di costruire modelli robusti che possono generalizzare bene su nuovi set di dati.
Un'altra tecnologia emergente è l’analisi dei descritttori, che aiuta a selezionare le variabili più importanti per la previsione delle proprietà dei materiali. L'approccio Sure Independence Screening and Sparsifying Operator (SISSO) si è rivelato utile in questo senso, permettendo di focalizzarsi sugli elementi chiave che determinano l'efficacia delle previsioni. Questa selezione accurata dei descritttori è fondamentale per ridurre la complessità computazionale e migliorare l'efficienza del modello.
L’impiego dell’intelligenza artificiale (IA) e dell’apprendimento automatico nella ricerca sui materiali ha quindi aperto nuove prospettive, permettendo non solo di progettare e ottimizzare materiali con prestazioni superiori, ma anche di accelerare il processo di scoperta di nuovi materiali con caratteristiche specifiche desiderate. Gli algoritmi di machine learning sono diventati essenziali per lo sviluppo di materiali avanzati, in particolare per le applicazioni ad alta tecnologia, come i materiali per le celle solari, le batterie e le tecnologie aerospaziali.
Tuttavia, è cruciale che i ricercatori comprendano le limitazioni intrinseche di ciascun algoritmo e la necessità di adattare gli approcci alle specifiche esigenze del progetto. La scelta dell'algoritmo giusto non è mai automatica, ma deve essere guidata da una comprensione profonda dei dati e delle problematiche specifiche. Inoltre, l'approccio combinato tra apprendimento automatico e simulazioni fisiche, come quelle basate su teoria del funzionale di densità (DFT), rimane una chiave fondamentale per garantire la validità e la precisione delle previsioni.
Come superare le difficoltà nell'applicazione dei PINN alla modellazione delle fasi
Il moltiplicatore di Lagrange, indicato come λ, è anche noto come potenziale chimico o potenziale di diffusione, poiché la conservazione del parametro di ordine, combinata con la minimizzazione dell'energia libera totale, porta alla diffusione del parametro di ordine da concentrazioni elevate verso livelli più bassi. Per i parametri di ordine conservati, come la massa o la concentrazione di materia, è necessario soddisfare la conservazione del flusso. Considerando che il flusso è proporzionale al gradiente del potenziale di diffusione, la velocità di variazione del parametro di ordine, comunemente descritta dall'equazione di Cahn-Hilliard, è espressa come:
Quando il parametro di ordine è una quantità non conservata, la velocità di variazione del parametro di ordine è proporzionale al flusso netto che corrisponde al sistema. L'equazione di Allen-Cahn per la velocità di variazione di un parametro di ordine non conservato è data da:
Nel caso di un sistema binario semplice, la funzione di energia libera definita dalla teoria di Landau è espressa come:
Per il sistema binario semplice, basato sulla funzione di energia di Landau, le equazioni di Cahn-Hilliard e Allen-Cahn possono essere riscritte rispettivamente come segue:
Queste equazioni, unitamente al necessario insieme di condizioni iniziali che vincolano il parametro di ordine nell'intervallo (-1, 1) e con condizioni al contorno periodiche, sono comunemente trovate nella letteratura dei PINN (Wight e Zhao, 2020; Monaco e Apiletti, 2023).
I Physics Informed Neural Networks (PINN) hanno dimostrato la loro efficacia nel risolvere equazioni differenziali parziali (PDE) e ordinarie (ODE), come nel caso dell'equazione di Burgers o del moto armonico semplice (Raissi et al., 2019; Baty e Baty, 2023). Tuttavia, alcuni casi di test comuni in cui i PINN non riescono a trovare soluzioni sensate riguardano alti livelli di non-linearità e derivati temporali di ordine superiore. L'equazione di Allen-Cahn è una PDE altamente non-lineare, mentre la relazione di Cahn-Hilliard è altamente non-lineare e contiene derivati spaziali di ordine superiore (Wight e Zhao, 2020; Mattey e Ghosh, 2022).
La prestazione dei PINN vanilla nel risolvere l'equazione di Allen-Cahn e la relazione di Cahn-Hilliard è stata illustrata in altre pubblicazioni (Wight e Zhao, 2020). Sorprendentemente, per molte PDE che coinvolgono derivati di ordine superiore, la regressione con reti neurali semplici supera i PINN nell'apprendimento scientifico delle macchine. Un'eventuale spiegazione di questa anomalia potrebbe risiedere nel fatto che, prima dell'addestramento, le reti neurali sono inizializzate casualmente. Di conseguenza, specialmente nelle fasi iniziali dell'addestramento, le previsioni derivate da un modello di rete neurale sono erratiche e altamente rumorose. Questo fenomeno porta all'uso di un operatore differenziale su previsioni rumorose, con conseguente incertezza nelle derivate. Ne deriva che la "loss" fisica diventa imprecisa o rumorosa, con gradienti errati durante il backpropagation, che si riflettono in risultati indesiderati durante l'addestramento.
Per migliorare la performance dei PINN in scenari complessi, è essenziale comprendere i "failure modes" tipici che si verificano. Tra questi, alcuni dei più rilevanti includono:
-
PINN funziona bene solo per determinati valori dei coefficienti PDE: Per esempio, piccoli valori del coefficiente di diffusione cinetica in un'equazione di diffusione portano a previsioni migliori, mentre valori moderati o elevati di questo coefficiente portano a risultati erronei.
-
Difficoltà nell'ottimizzazione della regolarizzazione soft delle PDE: La funzione di perdita delle reti neurali combinata con i residui derivanti dalla fisica e dalle perdite ai confini come parametri di regolarizzazione può rendere difficile l'ottimizzazione, poiché la regolarizzazione produce paesaggi di perdita meno lisci.
-
Non rispetto del principio di causalità: Il principio di causalità impone che i cambiamenti locali nei dati iniziali o ai confini di un sistema dinamico spaziotemporale si riflettano nei suoi stati successivi. I metodi numerici classici assicurano il rispetto di questo principio, ma il modello PINN, nella sua formulazione originale, non lo rispetta poiché i pesi della rete neurale continuano ad adattarsi durante l'addestramento con i nuovi dati.
-
Disparità nell'apprendimento dei diversi termini di perdita: Il tasso di convergenza dei residui nei PINN varia ampiamente. Nella maggior parte dei casi, il termine di residuo della rete neurale converge molto più velocemente rispetto alla perdita ai confini, con conseguente previsione errata da parte della rete.
Al fine di affrontare questi problemi, sono stati proposti degli adattamenti avanzati ai PINN per migliorare le previsioni:
-
Regolarizzazione Curriculum: L'idea alla base di questa tecnica è quella di presentare al modello compiti via via più complessi durante l'apprendimento. Questo metodo può migliorare la rappresentazione dei dati da parte del modello e la sua capacità di generalizzare su esempi non visti.
-
Apprendimento Seq2Seq: L'approccio originale dei PINN allena la rete neurale per predire l'intero spazio-tempo in una sola volta. Tuttavia, questo approccio può risultare problematico in molti casi. Con il metodo Seq2Seq, la rete neurale impara a predire la soluzione del prossimo passo temporale invece di tutto il dominio. L'apprendimento parte dalla previsione dei valori del prossimo passo in una griglia spaziotemporale.
È importante che il lettore comprenda che l'uso dei PINN in contesti complessi richiede una comprensione profonda delle problematiche legate alla loro ottimizzazione e alla gestione delle difficoltà fisiche e matematiche che emergono in simulazioni di sistemi dinamici spaziotemporali. Le sfide nell'apprendimento delle PDE ad alta non-linearità e con derivate di ordine superiore non sono solo tecniche ma anche concettuali, poiché implicano la gestione di condizioni al contorno, la causalità e il trattamento dei residui in modo coerente con la fisica del sistema. Un adeguato intervento nelle strategie di regolarizzazione e nella gestione delle fasi di addestramento delle reti neurali può fare la differenza nell'ottenere risultati affidabili.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский