Meta ha creato un “cervello digitale”. E cambierà tutto quello che facciamo in reparto

Scritto il 06/05/2026
da Davide Alborino

Il 26 marzo 2026 i ricercatori di Meta AI hanno pubblicato su ArXiv un paper dal titolo "A foundation model of vision, audition and language for in-silico neuroscience". Il modello si chiama TRIBE v2 e, secondo gli autori, è capace di prevedere con precisione inedita le risposte cerebrali a stimoli visivi, uditivi e linguistici, senza che sia necessaria nemmeno una scansione fMRI in tempo reale. I dati su cui è stato addestrato sono impressionanti: oltre 1.000 ore di risonanza magnetica funzionale registrate su 720 soggetti diversi.

Ma cosa fa esattamente questo modello?

La neuroscienza cognitiva ha sempre sofferto di una frammentazione di fondo: modelli diversi per la vista, per l'udito, per il linguaggio.

Ognuno studiava il proprio pezzo di corteccia, senza una visione d'insieme. TRIBE v2 rompe questo schema: è il primo modello trimodale, che integra contemporaneamente stimoli video, audio e testo ed è in grado di mappare l'attivazione di 70.000 voxel cerebrali (i "pixel" tridimensionali del cervello) per soggetti, compiti e stimoli che il modello non ha mai visto prima.

Il risultato? Quello che oggi richiede un esame fMRI da 45 minuti in un ambiente claustrofobico e costoso, domani potrebbe essere simulato in pochi secondi su un computer. Non per sostituire la clinica, ma per anticiparla, integrarla, potenziarla.

Attenzione: siamo ancora in fase di ricerca

Va detto con chiarezza: TRIBE v2 è un modello di ricerca, non uno strumento clinico certificato. Il paper è stato pubblicato su ArXiv, il grande archivio di preprint scientifico, e non ha ancora completato il percorso di validazione clinica che precede qualsiasi applicazione nella pratica sanitaria.

Ma la traiettoria è quella. E la velocità con cui l'IA sta penetrando nelle neuroscienze rende necessario che il professionista sanitario (medico, infermiere, terapista) non arrivi impreparato.

Capire oggi cosa sono i modelli predittivi cerebrali, come funzionano e quali domande etiche pongono (consenso informato, privacy dei dati neurali, equità di accesso) è già parte della nostra formazione continua.

Il cervello umano è stato a lungo l'ultimo confine dell'intelligenza artificiale: troppo complesso, troppo individuale, troppo sfuggente. TRIBE v2 non lo ha conquistato. Ma ha aperto una finestra attraverso cui, per la prima volta, si riesce a intravedere l'altra parte.