Die Initiative Applied AI fördert die Anwendung künstlicher Intelligenz in Europa. Mehrere große Partner wie Google, SAP und Siemens sollen dabei helfen. Das Projekt will Europa beim Thema KI konkurrenzfähig machen, muss aber auch über Risiken aufklären.
AWS kündigt Neuerungen bei seinem Cloud-Speicher S3 an: Es wird ein preiswertes Angebot geben, das Daten in nur einer Verfügbarkeitszone speichert. Das verringert die Redundanz, könnte für deutsche Unternehmen aber ein Plus sein. Auch der KI-Editor Sagemaker wird verbessert.
GTC 2018 Wer künftig Chips mit ARM-Kernen entwickelt, kann darin auch Nvidias Deep Learning Accelerator verwenden. Passend dazu ist die TensorRT-Bibliothek nun Teil von Googles Tensorflow für eine höhere Leistung.
Ngraph ist ein neuer Framework-unabhängiger Modell-Compiler für Deep Learning von Intel. Mit Frameworks wie Tensorflow oder CNTK erzeugter Code lässt sich mit Ngraph in Zukunft für Intel-Chips, Nvidia GPUs, FPGAs und mögliche weitere Deep-Learning-Hardware übersetzen.
Aus der Luft Feinde und Stellungen erkennen und automatisch auswerten: Das US-Militär steckt viel Geld in die Nutzung von KI für militärische Zwecke. Google stellt einem Bericht zufolge einen Teil der dafür notwendigen Technik. Unter Mitarbeitern soll es heftige Diskussionen darüber geben.
Microsoft kündigt mehrere Neuerungen bei seinen KI-Systemen an. Der Custom Vision Service erstellt Modelle mit eigenen Klassifizierern, Face API kann bis zu einer Million Gesichter analysieren und Bing Entity Search eifert Googles weiterführender Suche nach.
Das UP Core Plus ist ein Kit für Edge-Computing. Die Platine nutzt einen x86-Chip und hat viele Schnittstellen. Per Dockingstecker können Platinen mit einem FPGA und daran zusätzliche Hardware für künstliche Intelligenz angeschlossen werden.
MWC 2018 Der Helio P60 kombiniert sehr schnelle CPU-Kerne und eine flotte Grafikeinheit mit dedizierter Hardware und Software für künstliche Intelligenz. Erste Smartphones mit dem neuen Mediatek-Chip sollen noch im Frühling 2018 erscheinen.
Die Deep-Learning-Beschleuniger von Google lassen sich nun in einem offenen Betaprogramm der sogenannten Cloud-TPU testen. Für Machine-Learning-Aufgaben sollen aber weiter auch Skylake-CPUs und Nvidias GPUs bereitstehen.
Mit der PowerVR GT8540 gibt es eine Grafikeinheit für Automotive- oder Smartphone-Chips, sie kann per CLDNN angesprochen werden. Das auf OpenCL aufsetzende Neural-Net-SDK ist vornehmlich für den AI-Beschleuniger PowerVR 2NX gedacht.
Die auf dem Python-Framework Caffe2 basierende Objekterkennung Detectron von Facebook steht nun als Open Source bereit. Das Projekt implementiert verschiedene Algorithmen auf Basis maschinellen Lernens und stellt auch einen Modellzoo bereit.
Nvidias neue Titan V für 3.100 Euro ist eine extrem schnelle Grafikkarte - zumindest in den Workloads, für welche die Nvidia-Volta-Architektur ausgelegt wurde. Wer nur zocken möchte, wird sich über das vorgegebene 250-Watt-Limit ärgern.
Wer 2018 ein Oberklasse-Smartphone kauft, wird darin oft einen Snapdragon 845 finden. Qualcomm hat den Chip so optimiert, dass er viele Neuerungen integriert, ohne größer zu werden. Zu verdanken ist das der Architektur, denn die Fertigung ist fast gleich.
Sagemaker ist eine Plattform für das Erstellen von maschinellen Lernalgorithmen. AWS gibt dem Kunden Tools an die Hand, die das Training von Modellen möglichst einfach machen soll. Viele Frameworks sind bereits vorinstalliert, per Docker können auch eigene genutzt werden.
Mit Tensorflow Lite veröffentlicht Google eine extrem kleine Variante seiner Machine-Learning-Bibliothek, die speziell für Mobil- und Embedded-Geräte gedacht ist. Auf Android-Geräten wird eine neue Beschleuniger-API verwendet.
Oracles neue AI Cloud Platform soll für Kunden die Tools und die Hardware zum Erstellen eigener Lernalgorithmen bereitstellen. Auch in der Mobile Cloud können interaktive Chatbots erstellt werden. Allerdings ist die Konkurrenz mit Salesforce, Microsoft und Co. relativ stark.
Die Codesammlung Abseil von Google ist der grundsätzliche Baustein für die interne Software des Unternehmens und damit für alles, was bei Google an Software läuft. Das Projekt mit C++-Code steht nun als Open Source zur Verfügung.
Zwei neue Grafikeinheiten und ein Neural Net Accelerator: Imagination Technologies' PowerVR 2NX soll Smartphone-Chips helfen, künstliche Intelligenz lokal auf dem Gerät zu berechnen. Die GPUs liefern viel Füllrate pro Quadratmillimeter.
Ifa 2017 Der Kirin 970 ist Huaweis neuer Smartphone-Chip. Dank fest verdrahteter künstlicher Intelligenz soll er für bessere Fotos sorgen und die Akkulaufzeit steigern. Obendrein gibt es eine flottere Grafikeinheit plus ein 1,2-GBit/s-LTE-Modem.
Gleiche niedrige Leistungsaufnahme, aber viel höhere Geschwindigkeit: Der Myriad X ist zur Berechnung neuronaler Netze ausgelegt und dank 16FFC-Herstellungsverfahren schneller als sein Vorgänger. Gedacht ist der Intel-Chip mit HEVC-Encoding unter anderem für Multicopter.
Hot Chips Statt auf fest verdrahtete ASICs, wie Googles TPU, setzt Microsoft für sein Azure-Cloud-Geschäft auf flexiblere FPGAs. Mit diesen sollen künftig Machine-Learning-Modelle beschleunigt werden, um "Echtzeit-KI" bereitzustellen.
Halbautonome IoT-Roboter, ein selbstgebautes 4G-Netz und ein ungewöhnliches Rechenzentrum: Viel mehr braucht es nicht für einen Supermarkt. Der Anbieter Ocado will mit diesem Konzept in Europa expandieren, doch die größten Probleme liegen nicht an der Technik.
Nach Unternehmen wie Google, Facebook und Microsoft gibt nun auch Sony seine intern genutzte Bibliothek für Deep-Learning frei. Das Projekt NNabla nutzt eine Kombination aus C++ und Python und läuft auf Windows und Linux.
PCIe oder SXM2: Nvidia wird die Tesla V100 genannte Volta-basierte Rechenkarte für Deep Learning noch 2017 in zwei Formfaktoren veröffentlichen. Die Tesla V100 in Modul-Bauweise ist wie beim Vorgänger etwas schneller und benötigt mehr Energie.
Anwender von Googles freiem Machine-Learning-Framework Tensorflow können künftig auf eine API zur Objekterkennung in Bildern zugreifen. Google nutzt die Technik intern für Streetview oder auch für die Nest Cam.
Googles neuer Lead SoC Architect heißt Manu Gulati und designt dort CPUs für Pixel-Smartphones. Zuvor arbeitete er für Apple und entwarf Chips für iPads und iPhones. Google dürfte mittelfristig Tensorflow-Hardware in seine SoCs integrieren.
I/O 2017 Die Zeiten aufsehenerregender Hardware-Experimente scheinen vorbei zu sein: Anstatt mittelfristig zum Scheitern verdammte Geräte wie die Google Glass zu zeigen, konzentriert sich Google bei der diesjährigen I/O auf das, wofür die Konferenz eigentlich steht - das Entwickeln.
30Kommentare/Eine Analyse von Tobias Költzsch,Sebastian Grüner
I/O 2017 Die von Google unterstützte Machine-Learning-Bibliothek Tensorflow soll in einer für Mobilgeräte optimierten Version erscheinen. Dieses Tensorflow Lite bekommt außerdem eine API für neuronale Netze an die Seite.
I/O 2017 Die zweite Generation von Googles TPU kann nicht nur Modelle anwenden, sondern beschleunigt auch massiv das Training für maschinelles Lernen. Ein Cluster aus 64 der neuen TPU erreicht 11,5 PFlops und kann in der Cloud gemietet werden.
Die Alphabet-Tochter Deepmind will bei der Krebsbehandlung helfen und schlägt menschliche Spieler in Go. Das nun verfügbare Open-Source-Framework Sonnet soll die Forschung an maschinellem Lernen in der Öffentlichkeit vorantreiben.
Zum maschinellen Lernen benötigt Google möglichst relevante, also echte Daten. Deshalb wird das Modell für die Android-Tastatur Gboard einfach auf Smartphones angelernt und später auf dem Server zusammengesetzt - eine radikale Abkehr von bisherigen Herangehensweisen.
Die von Google selbst entwickelten Machine-Learning-Chips, die Tensor Processing Units, sollen weitaus flotter und obendrein effizienter rechnen als Grafikkarten oder Prozessoren. Spannend ist dabei der interne Aufbau der ASICs.
Die Open-Source-Sparte von Google bekommt eine neue Heimat im Internet. Auf opensource.google.com vereint das Unternehmen künftig seine Open-Source-Aktivitäten, auch über den eigentlichen Code hinaus.
Webseiten können zukünftig Onlinekommentare auf ihr Troll- und Belästigungspotenzial prüfen. Der neue Service stammt von Google und soll kostenlos sein.
Das Deep-Learning-Framwork Tensorflow von Google verspricht mit Version 1.0 Stabilität für seine Python-API und beschleunigt die aktuelle und zukünftige Arbeit mit der Einführung des domain-spezifischen Algebra-Compilers.
CES 2017 Der Smartphone-Chip für 2017: Qualcomms Snapdragon 835 ist ein High-End-SoC mit neuer Grafikeinheit, Gigabit-LTE-Modem und moderner 10-nm-Fertigung. Die Kryo genannten CPU-Kerne sind allerdings keine komplette Eigenentwicklung mehr.
Das System zum Erkennen von gesprochener Sprache von Microsoft sei bei einem Standard-Test inzwischen ähnlich gut wie professionell geschulte Menschen. Das Forscherteam nutzt dafür Microsofts Open-Source-Toolkit CNTK, hat bei einigen Gesprächen aber noch große Schwierigkeiten.
Das Deep-Learning-Team von Google will Modelle erstellen, mit denen sowohl Musik als auch bildende Kunst maschinell generiert werden kann. Für das Projekt mit dem Namen Magenta will Google aktiv mit Künstlern zusammenarbeiten.
Um seine Projekte rund ums maschinelle Lernen zu beschleunigen, baut Google spezielle eigene Chips. Diese werden seit einem Jahr etwa für Street View oder Alpha Go genutzt und sollen künftig auch für Googles Kunden bereitstehen.
Zum Erkennen natürlicher Sprache hat Google ein neues Modell zum Parsen der Syntax entwickelt und mit seinem Deep-Learning-Framework Tensorflow implementiert. Der daraus erstellte Englisch-Parser Parsey McParseface soll die derzeit beste maschinelle Erkennungsrate für Syntaxbäume aufweisen.
Man nehme ein bereits trainiertes neuronales Netz, einen aus den DJI-Multicoptern bekannten VLIW-Chip und packe beides in ein USB-Gerät: Fertig ist Movidius' Fathom Neural Compute Stick.
Das Deep-Learning-Werkzeug CNTK von Microsoft steht nun als Open Source bereit. Wie vergleichbare Technik kann es zur Bild- oder Spracherkennung genutzt werden, soll dabei aber deutlich schneller sein als Googles Tensorflow.