10 trilioni di operazioni al secondo per elaborare ultra-dati su larga scala: è il risultato strabiliante di un nuovo processore neuromorfico ottico sviluppato da un team di ricercatori dell’Università di Tecnologia di Swinburne, in Australia.
Il nuovo processore, descritto in uno studio su Nature, sarebbe il più veloce al mondo, e potrebbe rivelarsi molto utile per il settore dell’intelligenza artificiale, dal momento che costituisce “un enorme balzo in avanti per le reti neurali e l’elaborazione neuromorfica”. Va ricordato che quello delle reti neurali è il settore dell’intelligenza artificiale che imita il funzionamento del cervello e delle sue sinapsi allo scopo di estrarre le caratteristiche più importanti dei dati grezzi per prevederne le proprietà e il comportamento con un livello di precisione, ma anche di semplicità, senza precedenti.
Il problema è che la forza computazionale di cui c’è bisogno è immensa e il risultato raggiunto dai ricercatori australiani si rivela un passo in avanti estremamente promettente. Questo nuovo processore ottico neuromorfico funziona infatti ad una velocità che è 1000 volte più grande rispetto al predecessore attualmente più veloce.
Non si tratta del processore più potente in assoluto: ci sono altri processori elettronici che possono superare anche la velocità di computazione di 100 TeraOP/s, ma di solito lo fanno con sistemi che vedono l’utilizzo di migliaia di processori in parallelo. Mentre in questo caso si tratta di un sistema che usa un singolo processore che si basa su una nuova tecnologia di interlacciamento simultaneo dei dati e della lunghezza d’onda tramite “micro-pettini ottici”, ossia chip di nuova concezione composti da centinaia di laser all’infrarosso che lavorano in parallelo su un singolo chip. Ne risulta un chip più veloce, più piccolo, più leggero e anche più economico.
E non si tratterebbe neanche di una tecnologia da utilizzare solo in ambienti specifici: questa tecnologia è infatti applicabile ad ogni forma di comunicazione o elaborazione consentendo di contenere costi e consumi, oltre che ingombro. E proprio per questo potrebbe avere un impatto enorme anche sulle reti neurali artificiali e sull’intelligenza artificiale.
Fonte: www.nature.com