Nei giorni del 50esimo compleanno di Internet alcuni ricercatori del MIT hanno creato un modello in grado di rappresentare il traffico giornaliero dell’intera rete mondiale. A un supercomputer realizzato con 10.000 processori dell’MIT SuperCloud e una pipeline di reti neurali instanziata nello stesso supercomputer è stato dato in pasto un dataset di 50 miliardi di pacchetti dati raccolti in diversi anni.
Il capo progetto, Jeremy Kepner, è anche un astronomo; esiste infatti un’analogia con il modello e le misurazioni realizzate per la radiazione cosmica di fondo dell’Universo. Afferma Kepner:
“Abbiamo creato un modello accurato per misurare lo sfondo (background) dell’universo virtuale di Internet. Se si desidera rilevare eventuali varianze o anomalie, è necessario disporre di un buon modello di sfondo.”
Una fase di pre-processamento dei dati ha generato matrici di miliardi di righe e colonne che rappresentano le interazioni tra sorgenti e destinazioni. Questo “dataset ipersparso” è stato quindi filtrato dalle rete neurale; con tecniche di trial-and error e di correzione di errore si è arrivati aun modello semplice in grado di descrivere il traffico internet con due soli parametri. Dai ping alle cascate di terbyte prodotte da colossi come Google e Facebook tutto è stato analizzato, scoprendo, tra le altre cose, l’importanza non scontata di link isolati nel traffico web.
Questo modello avrà un’importante utilizzo nel campo della cybersicurezza, nell’identificare e prevenire interruzioni, nel progettare migliori infrastrutture con il minor numero possibile di colli di bottiglia.