L'acceleratore di rete neurale basato su FPGA supera le GPU
È stata dimostrata come una rete CNN Inception-v1 GoogLeNet, utilizzando una risoluzione di otto bit integer. Ha raggiunto 16.8 operazioni terra al secondo (TOPS) e può inferire oltre 5.300 immagini al secondo su a Xilinx Virtex UltraScale + XCVU9P-3 fpga. L'approccio modulare e scalabile lo rende adatto per il rilevamento di oggetti e le applicazioni di elaborazione video a bordo e nel cloud, ha spiegato Fawcett, nonché per l'inferenza nei data center e nelle telecamere intelligenti.
La DPU può essere configurata per fornire prestazioni di calcolo ottimali per topologie di reti neurali in applicazioni di apprendimento automatico, utilizzando l'architettura DSP parallela, memoria distribuita e riconfigurabilità della logica e connettività per diversi algoritmi.
La DPU raggiunge prestazioni superiori del 50% rispetto a qualsiasi CNN in concorrenza e GPU con prestazioni superiori per un dato budget di energia o costi, afferma la società. "La fpga è una piattaforma e un'architettura all'avanguardia, molto flessibile per il futuro e in grado di superare le GPU nell'IA, con una minore latenza", ha aggiunto Fawcett.
La società ha inoltre annunciato che sta sponsorizzando un DPhil (PhD0 presso l'Università di Oxford per studiare le tecniche per implementare l'accelerazione di deep learning su fpgas. Il lavoro sarà in collaborazione con la ricerca di Omnitek sui motori e gli algoritmi di calcolo dell'intelligenza artificiale.
