banner
Casa / Blog / Un nuovo modello di intelligenza artificiale trasforma la comprensione del metallo
Blog

Un nuovo modello di intelligenza artificiale trasforma la comprensione del metallo

Sep 21, 2023Sep 21, 2023

13 marzo 2023

Questo articolo è stato rivisto in base al processo editoriale e alle politiche di Science X. Gli editori hanno evidenziato i seguenti attributi garantendo al tempo stesso la credibilità del contenuto:

verificato

pubblicazione sottoposta a revisione paritaria

fonte attendibile

correggere le bozze

dell'Ecole Polytechnique Federale di Losanna

Come fa un iPhone a prevedere la parola successiva che digiterai nei tuoi messaggi? La tecnologia alla base di questo, e anche al centro di molte applicazioni di intelligenza artificiale, è chiamata trasformatore; un algoritmo di deep learning che rileva modelli nei set di dati.

Ora, i ricercatori dell’EPFL e del KAIST hanno creato un trasformatore per strutture metallo-organiche (MOF), una classe di materiali cristallini porosi. Combinando linker organici con nodi metallici, i chimici possono sintetizzare milioni di materiali diversi con potenziali applicazioni nello stoccaggio di energia e nella separazione del gas.

Il "MOFtransformer" è progettato per essere il ChatGPT per i ricercatori che studiano i MOF. La sua architettura è basata su un'intelligenza artificiale chiamata Google Brain in grado di elaborare il linguaggio naturale e costituisce il nucleo di modelli linguistici popolari come GPT-3, il predecessore di ChatGPT. L'idea centrale alla base di questi modelli è che sono pre-addestrati su una grande quantità di testo, quindi quando iniziamo a digitare su un iPhone, ad esempio, modelli come questo "conoscono" e completano automaticamente la parola successiva più probabile.

"Volevamo esplorare questa idea per i MOF, ma invece di suggerire una parola, volevamo che suggerisse una proprietà", afferma il professor Berend Smit, che ha guidato la parte EPFL del progetto. "Abbiamo pre-addestrato il MOFTransformer con un milione di ipotetici MOF per apprenderne le caratteristiche essenziali, che abbiamo rappresentato come una frase. Il modello è stato poi addestrato per completare queste frasi per fornire le caratteristiche corrette del MOF."

I ricercatori hanno poi messo a punto il MOFTransformer per compiti legati allo stoccaggio dell’idrogeno, come la capacità di stoccaggio dell’idrogeno, il suo coefficiente di diffusione e il gap di banda del MOF (una “barriera energetica” che determina la facilità con cui gli elettroni possono muoversi attraverso un materiale ).

L’approccio ha dimostrato che MOFTransformer potrebbe ottenere risultati utilizzando molti meno dati rispetto ai metodi convenzionali di apprendimento automatico, che richiedono molti più dati. "Grazie al pre-addestramento, il MOFTtransformer conosce già molte delle proprietà generali dei MOF; e grazie a questa conoscenza, abbiamo bisogno di meno dati per addestrare un'altra proprietà", afferma Smit. Inoltre, lo stesso modello potrebbe essere utilizzato per tutte le proprietà, mentre nell’apprendimento automatico convenzionale è necessario sviluppare un modello separato per ciascuna applicazione.

MOFTransformer rappresenta una svolta per lo studio dei MOF, fornendo risultati più rapidi con meno dati e una comprensione più completa del materiale. I ricercatori sperano che MOFTransformer possa aprire la strada allo sviluppo di nuovi MOF con proprietà migliorate per lo stoccaggio dell'idrogeno e altre applicazioni.

I risultati sono pubblicati sulla rivista Nature Machine Intelligence.

Maggiori informazioni: Jihan Kim, Un trasformatore di pre-formazione multimodale per l'apprendimento del trasferimento universale in strutture metallo-organiche, Nature Machine Intelligence (2023). DOI: 10.1038/s42256-023-00628-2. www.nature.com/articles/s42256-023-00628-2

Informazioni sul diario:Intelligenza artificiale della natura

Fornito dall'Ecole Polytechnique Federale de Lausanne