Zum Hauptinhalt Zur Navigation

Xilinx übernimmt DeePhi Tech: Weltgrößter FPGA-Hersteller kauft China-Startup

Nach mehrjähriger Zusammenarbeit hat Xilinx bei DeePhi Tech zugegriffen: Das chinesische Startup entwickelt auf FPGAs des Herstellers beispielsweise eine Baidu-basierte Spracherkennung für Amazons AWS.
/ Marc Sauter
Kommentare News folgen (öffnet im neuen Fenster)
Eine Entwickler-Platine mit Xilinx-FPGA (Bild: DeePhi Tech)
Eine Entwickler-Platine mit Xilinx-FPGA Bild: DeePhi Tech

Xilinx hat DeePhi Tech übernommen(öffnet im neuen Fenster) , das gab der weltgrößte FPGA-Hersteller diese Woche bekannt. Der Kaufpreis für das chinesische Machine-Learning-Startup ist wie bei solchen Käufen üblich unbekannt. Xilinx hatte seit der Gründung 2016 mit DeePhi Tech zusammengearbeitet, da die Chinesen unter anderem auf Kintex-FPGAs des Herstellers per Descartes-Architektur ihr eigenes Modell für Spracherkennung entwickelt haben.

DeePhi Tech nutzt dafür das Deep Neural Network Development Kit, das SDK unterstützt übliche Frameworks wie Caffe, MX-Net und Tensorflow. Es läuft auf FPGAs sowie ASICs und dient als Grundlage für Aristotle sowie Descartes. Ersteres ist eine Architektur zur Bilderkennung und Zweitere eine für neuronale Netze zur Spracherkennung. Die sogenannte DDESE(öffnet im neuen Fenster) (DeePhi Descartes Efficient Speech Recognition Engine) ist im AWS-Marketplace verfügbar und kann auf Amazons F1-Instanzen mt bis zu acht Virtex-FPGAs verwendet werden.

Der Trend geht zu FPGAs

Neben Amazon arbeitet auch Microsoft mit FPGAs, das Ganze wird als Azure Brainwave bezeichnet. Wer nicht auf die Cloud eines Anbieters zurückgreifen möchte, kann unter anderem Poweredge-Server von Dell EMC installieren. Intel wiederum hatte vor einigen Jahren mit Altera den zweitgrößten FPGA-Hersteller gekauft und mit dem Xeon Gold 6138P die erste Server-CPU mit einem FPGA auf dem gleichen Package entwickelt.

Generell geht der Trend von CPUs und GPUs in den vergangenen Jahren verstärkt in Richtung spezialisierter Server, die auch FPGAs oder ASICs integrieren. Diese sind schneller und effizienter, wenn es um Workloads wie künstliche Intelligenz geht, die Chips für bestimmte Algorithmen optimiert sind oder explizit entworfen wurden. Ein Beispiel sind Googles eigene Tensor Processings Units wie die TPU v3 mit Wasserkühlung.


Relevante Themen