Dispositivo PFC analogico bridgeless da 1 kW
Apr 05, 20231 MHz, 2 schede, 4 bit e una CPU fatta in casa
Jan 11, 2024Riassunti delle notizie sulla stampa 3D, 13 maggio 2023: Raccolta RAPID, parte 2
Dec 18, 2023Riassunti delle notizie sulla stampa 3D, 13 maggio 2023: Raccolta RAPID, parte 2
Mar 18, 2023Si prevede che le tendenze delle 6 camere da letto saranno enormi nel 2023
Jun 22, 2023Un nuovo modello di intelligenza artificiale trasforma la comprensione del metallo
13 marzo 2023
Questo articolo è stato rivisto in base al processo editoriale e alle politiche di Science X. Gli editori hanno evidenziato i seguenti attributi garantendo al tempo stesso la credibilità del contenuto:
verificato
pubblicazione sottoposta a revisione paritaria
fonte attendibile
correggere le bozze
dell'Ecole Polytechnique Federale di Losanna
Come fa un iPhone a prevedere la parola successiva che digiterai nei tuoi messaggi? La tecnologia alla base di questo, e anche al centro di molte applicazioni di intelligenza artificiale, è chiamata trasformatore; un algoritmo di deep learning che rileva modelli nei set di dati.
Ora, i ricercatori dell’EPFL e del KAIST hanno creato un trasformatore per strutture metallo-organiche (MOF), una classe di materiali cristallini porosi. Combinando linker organici con nodi metallici, i chimici possono sintetizzare milioni di materiali diversi con potenziali applicazioni nello stoccaggio di energia e nella separazione del gas.
Il "MOFtransformer" è progettato per essere il ChatGPT per i ricercatori che studiano i MOF. La sua architettura è basata su un'intelligenza artificiale chiamata Google Brain in grado di elaborare il linguaggio naturale e costituisce il nucleo di modelli linguistici popolari come GPT-3, il predecessore di ChatGPT. L'idea centrale alla base di questi modelli è che sono pre-addestrati su una grande quantità di testo, quindi quando iniziamo a digitare su un iPhone, ad esempio, modelli come questo "conoscono" e completano automaticamente la parola successiva più probabile.
"Volevamo esplorare questa idea per i MOF, ma invece di suggerire una parola, volevamo che suggerisse una proprietà", afferma il professor Berend Smit, che ha guidato la parte EPFL del progetto. "Abbiamo pre-addestrato il MOFTransformer con un milione di ipotetici MOF per apprenderne le caratteristiche essenziali, che abbiamo rappresentato come una frase. Il modello è stato poi addestrato per completare queste frasi per fornire le caratteristiche corrette del MOF."
I ricercatori hanno poi messo a punto il MOFTransformer per compiti legati allo stoccaggio dell’idrogeno, come la capacità di stoccaggio dell’idrogeno, il suo coefficiente di diffusione e il gap di banda del MOF (una “barriera energetica” che determina la facilità con cui gli elettroni possono muoversi attraverso un materiale ).
L’approccio ha dimostrato che MOFTransformer potrebbe ottenere risultati utilizzando molti meno dati rispetto ai metodi convenzionali di apprendimento automatico, che richiedono molti più dati. "Grazie al pre-addestramento, il MOFTtransformer conosce già molte delle proprietà generali dei MOF; e grazie a questa conoscenza, abbiamo bisogno di meno dati per addestrare un'altra proprietà", afferma Smit. Inoltre, lo stesso modello potrebbe essere utilizzato per tutte le proprietà, mentre nell’apprendimento automatico convenzionale è necessario sviluppare un modello separato per ciascuna applicazione.
MOFTransformer rappresenta una svolta per lo studio dei MOF, fornendo risultati più rapidi con meno dati e una comprensione più completa del materiale. I ricercatori sperano che MOFTransformer possa aprire la strada allo sviluppo di nuovi MOF con proprietà migliorate per lo stoccaggio dell'idrogeno e altre applicazioni.
I risultati sono pubblicati sulla rivista Nature Machine Intelligence.
Maggiori informazioni: Jihan Kim, Un trasformatore di pre-formazione multimodale per l'apprendimento del trasferimento universale in strutture metallo-organiche, Nature Machine Intelligence (2023). DOI: 10.1038/s42256-023-00628-2. www.nature.com/articles/s42256-023-00628-2
Informazioni sul diario:Intelligenza artificiale della natura
Fornito dall'Ecole Polytechnique Federale de Lausanne