Questi sono i processori che fanno girare le IA di Google e sono davvero potenti
Tra le azienda che più sembrano essere vicine al cervello artificiale c'è senz'altro Google; ce lo ha dimostrato più volte negli ultimi mesi con il lancio di diversi servizi basati su IA e, più clamorosamente, con la vincita di AlphaGo. Ma cosa rende così "intelligenti" le IA di Google?
Ve lo spiega BigG stessa con un intervento dove spiega come il tutto sia partito segretamente anni fa con un progetto per "acceleratori personalizzati per applicazioni del machine learning".
Da questa idea sono nati dei chip realizzati su misura (ASIC) denominati Tensor Processing Unit o TPU, pensati appunto per far girare gli algoritmi di TensorFlow, il software di machine learning di Google, tra l'altro distribuito con licenza open source.
LEGGI ANCHE: Perché la vittoria di AlphaGo, l’IA di Google, è così importante?
Sempre stando a Google, questi processori, utilizzati ormai da un anno, sono in grado di offrire rapporti performance/consumi maggiori di un ordine di grandezza rispetto alle soluzioni convenzionali; l'equivalente di un salto di sette anni nel futuro della tecnologia, o tre generazioni sulla legge di Moore.
Il segreto delle TPU, che occupano lo spazio di un normale hard disk, sta proprio nel fatto che la loro struttura interna è ottimizzata per certe operazioni, in questo caso quelle di machine learning, e quindi necessitano di meno transistor per fornire una certa potenza.
L'obiettivo, conclude Google, è quello di far diventare l'IA che gira sulle TPU il più potente sistema di apprendimento automatico sul mercato, su cui basare prodotti direttamente disponibili all'utenza finale, come Google Foto, Street View o l'ultimo arrivato Google Assistant, sia con sistemi sfruttabili dagli sviluppatori per creare il futuro dell'interazione uomo-macchina. Siamo proprio curiosi di vedere come si evolverà questa tecnologia, non necessariamente solo quelle di Google, che tutto sommato è ancora agli albori.