Grafikspezialist Nvidia bietet mit seiner sogenannten GPU-Cloud Zugriff auf spezielle Anwendungs-Container, die für den Einsatz mit den GPUs des Herstellers optimiert sind. Microsofts Cloud-Dienst Azure hat das Angebot nun integriert.
Das Forschungsteam von Google Brain stellt mit Dopamine ein quelloffenes Framework bereit, das unter anderem die Reproduzierbarkeit von Ergebnissen beim sogenannten bestärkenden Lernen erreichen soll. Dopamine basiert auf Tensorflow und soll außerdem ein schnelles Experimentieren mit Ideen ermöglichen.
Intel hat einen Ausblick auf seine Server-Roadmap gegeben: Noch 2018 soll Cascade Lake SP mit einer Befehlssatzerweiterung für Machine Learning erscheinen, 2019 und 2020 dann Cooper Lake SP und Ice Lake SP für einen neuen Sockel. AMD legt bis dahin mit 64 Zen-Kernen vor.
Damit Machine-Learning-Modelle künftig noch schneller in sogenannten Edge-Geräten angewendet werden können, stellt Google mit den Edge-TPUs einen Spezialchip für eben diese Aufgabe vor. Google plant dafür eine Kooperation mit vielen Geräteherstellern und Hardwarezulieferern.
Move Mirror ist eine Demo für maschinelles Lernen mit Posenet, bei der sich Nutzer vor der Webcam bewegen und Bilder anderer Personen mit ähnlicher Pose angezeigt bekommen - darunter Tänzer und Kung-Fu-Kämpfer. Daraus können Nutzer auch animierte GIFs erstellen.
Nach mehrjähriger Zusammenarbeit hat Xilinx bei DeePhi Tech zugegriffen: Das chinesische Startup entwickelt auf FPGAs des Herstellers beispielsweise eine Baidu-basierte Spracherkennung für Amazons AWS.
Im Atem finden sich Stoffe, die auf Krankheiten, unter anderem Krebs, hindeuten. Die menschliche Nase ist aber nicht fein genug, um diese wahrzunehmen. Das machen Sensoren. Die Auswertung der Daten übernimmt ein KI-System.
Das KI-Startup Wave Computing hat MIPS übernommen und plant, entsprechende CPU-Kerne für künftige Dataflow Processing Units (DPU) genannte Chips für Künstliche Intelligenz zu verwenden.
Mit der Übernahme von Github manövriert sich Microsoft geschickt aus einer Abhängigkeit und stärkt dabei noch sein Cloud-Geschäft. Das setzt wohl vor allem Atlassian unter Druck. Was der Kauf für das Open-Source-Engagement Githubs bedeutet, ist damit eigentlich auch völlig klar.
Eine Analyse von Sebastian Grüner
Nach der Integration im Kirin 970 für Huawei-Smartphones hat Cambricon mit dem MLU100 einen selbst entwickelten Beschleuniger für künstliche Intelligenz vorgestellt. Kunden wie Lenovo nutzen den Chip.
Intel hat sich zur Rechengeschwindigkeit des Nervana NNP (Lake Crest) geäußert: Der AI-Chip soll Nvidias Tesla V100 teils schlagen. Der Nervana NNP-L1000 (Spring Crest) genannte Nachfolger verschiebt sich auf Ende 2019, zudem wird ein Inferencing-Beschleuniger entwickelt.
Build 2018 Microsoft gibt Excel-Entwicklern neue Werkzeuge an die Hand, um die Software noch umfangreicher zu machen. Javascript-Funktionen können Informationen von Webseiten integrieren, maschinelles Lernen kann aus Tabellen Schlüsse ziehen. Auch die Visualisierung wird durch neue Diagramme möglich.
Google I/O 2018 Mit dem ML Kit bietet Google künftig als Teil seines Firebase-SDK Schnittstellen, um einfache KI-Anwendungen in eigenen Anwendungen zu integrieren. Genutzt werden soll das auf Android und iOS.
Mit Hilfe der bereits bekannten KI-Software Fakeapp und Adobe After Effects wurde ein Videoclip erstellt, der den ehemaligen US-Präsidenten Obama beleidigende Sätze sprechen lässt. Die Fälschung ist bereits sehr gelungen, aber nicht ohne Fehler. Das Potenzial solcher Techniken ist schon groß.
Googles AIY Vision und Voice erinnern an Nintendo Labo. Es handelt sich um Bastelkästen aus Pappkarton und Raspberry Pi Zero WH. Doch erst der Google Assistant und Tensorflow sollen die Würfel zum Bilderkennungssystem oder zum Mini-Google-Home machen.
Die Initiative Applied AI fördert die Anwendung künstlicher Intelligenz in Europa. Mehrere große Partner wie Google, SAP und Siemens sollen dabei helfen. Das Projekt will Europa beim Thema KI konkurrenzfähig machen, muss aber auch über Risiken aufklären.
AWS kündigt Neuerungen bei seinem Cloud-Speicher S3 an: Es wird ein preiswertes Angebot geben, das Daten in nur einer Verfügbarkeitszone speichert. Das verringert die Redundanz, könnte für deutsche Unternehmen aber ein Plus sein. Auch der KI-Editor Sagemaker wird verbessert.
GTC 2018 Wer künftig Chips mit ARM-Kernen entwickelt, kann darin auch Nvidias Deep Learning Accelerator verwenden. Passend dazu ist die TensorRT-Bibliothek nun Teil von Googles Tensorflow für eine höhere Leistung.
Ngraph ist ein neuer Framework-unabhängiger Modell-Compiler für Deep Learning von Intel. Mit Frameworks wie Tensorflow oder CNTK erzeugter Code lässt sich mit Ngraph in Zukunft für Intel-Chips, Nvidia GPUs, FPGAs und mögliche weitere Deep-Learning-Hardware übersetzen.
Aus der Luft Feinde und Stellungen erkennen und automatisch auswerten: Das US-Militär steckt viel Geld in die Nutzung von KI für militärische Zwecke. Google stellt einem Bericht zufolge einen Teil der dafür notwendigen Technik. Unter Mitarbeitern soll es heftige Diskussionen darüber geben.
Microsoft kündigt mehrere Neuerungen bei seinen KI-Systemen an. Der Custom Vision Service erstellt Modelle mit eigenen Klassifizierern, Face API kann bis zu einer Million Gesichter analysieren und Bing Entity Search eifert Googles weiterführender Suche nach.
Das UP Core Plus ist ein Kit für Edge-Computing. Die Platine nutzt einen x86-Chip und hat viele Schnittstellen. Per Dockingstecker können Platinen mit einem FPGA und daran zusätzliche Hardware für künstliche Intelligenz angeschlossen werden.
MWC 2018 Der Helio P60 kombiniert sehr schnelle CPU-Kerne und eine flotte Grafikeinheit mit dedizierter Hardware und Software für künstliche Intelligenz. Erste Smartphones mit dem neuen Mediatek-Chip sollen noch im Frühling 2018 erscheinen.
Die Deep-Learning-Beschleuniger von Google lassen sich nun in einem offenen Betaprogramm der sogenannten Cloud-TPU testen. Für Machine-Learning-Aufgaben sollen aber weiter auch Skylake-CPUs und Nvidias GPUs bereitstehen.
Mit der PowerVR GT8540 gibt es eine Grafikeinheit für Automotive- oder Smartphone-Chips, sie kann per CLDNN angesprochen werden. Das auf OpenCL aufsetzende Neural-Net-SDK ist vornehmlich für den AI-Beschleuniger PowerVR 2NX gedacht.
Die auf dem Python-Framework Caffe2 basierende Objekterkennung Detectron von Facebook steht nun als Open Source bereit. Das Projekt implementiert verschiedene Algorithmen auf Basis maschinellen Lernens und stellt auch einen Modellzoo bereit.
Nvidias neue Titan V für 3.100 Euro ist eine extrem schnelle Grafikkarte - zumindest in den Workloads, für welche die Nvidia-Volta-Architektur ausgelegt wurde. Wer nur zocken möchte, wird sich über das vorgegebene 250-Watt-Limit ärgern.
Wer 2018 ein Oberklasse-Smartphone kauft, wird darin oft einen Snapdragon 845 finden. Qualcomm hat den Chip so optimiert, dass er viele Neuerungen integriert, ohne größer zu werden. Zu verdanken ist das der Architektur, denn die Fertigung ist fast gleich.
Ein Bericht von Marc Sauter
Sagemaker ist eine Plattform für das Erstellen von maschinellen Lernalgorithmen. AWS gibt dem Kunden Tools an die Hand, die das Training von Modellen möglichst einfach machen soll. Viele Frameworks sind bereits vorinstalliert, per Docker können auch eigene genutzt werden.
Mit Tensorflow Lite veröffentlicht Google eine extrem kleine Variante seiner Machine-Learning-Bibliothek, die speziell für Mobil- und Embedded-Geräte gedacht ist. Auf Android-Geräten wird eine neue Beschleuniger-API verwendet.
Oracles neue AI Cloud Platform soll für Kunden die Tools und die Hardware zum Erstellen eigener Lernalgorithmen bereitstellen. Auch in der Mobile Cloud können interaktive Chatbots erstellt werden. Allerdings ist die Konkurrenz mit Salesforce, Microsoft und Co. relativ stark.
Die Codesammlung Abseil von Google ist der grundsätzliche Baustein für die interne Software des Unternehmens und damit für alles, was bei Google an Software läuft. Das Projekt mit C++-Code steht nun als Open Source zur Verfügung.
Zwei neue Grafikeinheiten und ein Neural Net Accelerator: Imagination Technologies' PowerVR 2NX soll Smartphone-Chips helfen, künstliche Intelligenz lokal auf dem Gerät zu berechnen. Die GPUs liefern viel Füllrate pro Quadratmillimeter.
Ifa 2017 Der Kirin 970 ist Huaweis neuer Smartphone-Chip. Dank fest verdrahteter künstlicher Intelligenz soll er für bessere Fotos sorgen und die Akkulaufzeit steigern. Obendrein gibt es eine flottere Grafikeinheit plus ein 1,2-GBit/s-LTE-Modem.
Ein Bericht von Marc Sauter
Gleiche niedrige Leistungsaufnahme, aber viel höhere Geschwindigkeit: Der Myriad X ist zur Berechnung neuronaler Netze ausgelegt und dank 16FFC-Herstellungsverfahren schneller als sein Vorgänger. Gedacht ist der Intel-Chip mit HEVC-Encoding unter anderem für Multicopter.
Hot Chips 29 Statt auf fest verdrahtete ASICs, wie Googles TPU, setzt Microsoft für sein Azure-Cloud-Geschäft auf flexiblere FPGAs. Mit diesen sollen künftig Machine-Learning-Modelle beschleunigt werden, um "Echtzeit-KI" bereitzustellen.
Halbautonome IoT-Roboter, ein selbstgebautes 4G-Netz und ein ungewöhnliches Rechenzentrum: Viel mehr braucht es nicht für einen Supermarkt. Der Anbieter Ocado will mit diesem Konzept in Europa expandieren, doch die größten Probleme liegen nicht an der Technik.
Von Sebastian Grüner
Nach Unternehmen wie Google, Facebook und Microsoft gibt nun auch Sony seine intern genutzte Bibliothek für Deep-Learning frei. Das Projekt NNabla nutzt eine Kombination aus C++ und Python und läuft auf Windows und Linux.
PCIe oder SXM2: Nvidia wird die Tesla V100 genannte Volta-basierte Rechenkarte für Deep Learning noch 2017 in zwei Formfaktoren veröffentlichen. Die Tesla V100 in Modul-Bauweise ist wie beim Vorgänger etwas schneller und benötigt mehr Energie.
Anwender von Googles freiem Machine-Learning-Framework Tensorflow können künftig auf eine API zur Objekterkennung in Bildern zugreifen. Google nutzt die Technik intern für Streetview oder auch für die Nest Cam.
Googles neuer Lead SoC Architect heißt Manu Gulati und designt dort CPUs für Pixel-Smartphones. Zuvor arbeitete er für Apple und entwarf Chips für iPads und iPhones. Google dürfte mittelfristig Tensorflow-Hardware in seine SoCs integrieren.
Google I/O 2017 Die Zeiten aufsehenerregender Hardware-Experimente scheinen vorbei zu sein: Anstatt mittelfristig zum Scheitern verdammte Geräte wie die Google Glass zu zeigen, konzentriert sich Google bei der diesjährigen I/O auf das, wofür die Konferenz eigentlich steht - das Entwickeln.
Eine Analyse von Tobias Költzsch und Sebastian Grüner
Google I/O 2017 Die von Google unterstützte Machine-Learning-Bibliothek Tensorflow soll in einer für Mobilgeräte optimierten Version erscheinen. Dieses Tensorflow Lite bekommt außerdem eine API für neuronale Netze an die Seite.
Google I/O 2017 Die zweite Generation von Googles TPU kann nicht nur Modelle anwenden, sondern beschleunigt auch massiv das Training für maschinelles Lernen. Ein Cluster aus 64 der neuen TPU erreicht 11,5 PFlops und kann in der Cloud gemietet werden.
Die Alphabet-Tochter Deepmind will bei der Krebsbehandlung helfen und schlägt menschliche Spieler in Go. Das nun verfügbare Open-Source-Framework Sonnet soll die Forschung an maschinellem Lernen in der Öffentlichkeit vorantreiben.
Zum maschinellen Lernen benötigt Google möglichst relevante, also echte Daten. Deshalb wird das Modell für die Android-Tastatur Gboard einfach auf Smartphones angelernt und später auf dem Server zusammengesetzt - eine radikale Abkehr von bisherigen Herangehensweisen.
Die von Google selbst entwickelten Machine-Learning-Chips, die Tensor Processing Units, sollen weitaus flotter und obendrein effizienter rechnen als Grafikkarten oder Prozessoren. Spannend ist dabei der interne Aufbau der ASICs.
Die Open-Source-Sparte von Google bekommt eine neue Heimat im Internet. Auf opensource.google.com vereint das Unternehmen künftig seine Open-Source-Aktivitäten, auch über den eigentlichen Code hinaus.
Webseiten können zukünftig Onlinekommentare auf ihr Troll- und Belästigungspotenzial prüfen. Der neue Service stammt von Google und soll kostenlos sein.
Das Deep-Learning-Framwork Tensorflow von Google verspricht mit Version 1.0 Stabilität für seine Python-API und beschleunigt die aktuelle und zukünftige Arbeit mit der Einführung des domain-spezifischen Algebra-Compilers.