Wieder mit integriertem 5G-Modem und erstmals einem besonders schnellen CPU-Kern: Der Snapdragon 888 ist Qualcomms Aufgebot für 2021.
Ein Bericht von Marc Sauter
Das Trainium-Design soll Training für maschinelles Lernen besonders preisgünstig in der eigenen AWS-Cloud ermöglichen.
Amazons Cloud-Computing-Sparte AWS verwendet die Steckkarten der von Intel für 2 Milliarden US-Dollar zugekauften Habana Labs.
Was am 19. November 2020 neben den großen Meldungen sonst noch passiert ist, in aller Kürze.
Was am 12. November 2020 neben den großen Meldungen sonst noch passiert ist, in aller Kürze.
Zu den praktischsten Neuerungen von Android Studio 4.1 dürften der Database Inspector und der integrierte Android-Emulator zählen.
Hot Chips 32 Mit der Wafer Scale Engine 2 baut Cerebras erneut einen KI-Chip mit riesigen Ausmaßen.
Der Jetson Nano ist ein Rechner für Machine Learning in der Größe eines Raspberry Pi. Wir haben einige KI-Anwendungen mit ihm ausprobiert.
Von Dirk Koller
Das Auto: ein Notebook mit Webcam. Die Fahrstrecke: die Autobahn von Los Santos in GTA V. Die Basis: Selbstfahrsoftware eines Honda Civic.
Die Spracherkennung von Mozilla soll mit der aktuellen Version schneller werden und Modelle sollen sich einfacher anpassen lassen.
Die Forschung an Machine-Learning sowie an Quantencomputern will Google mit Tensorflow Quantum zusammenbringen. Dabei hilft auch Volkswagen.
Die Werkzeugsammlung Kubeflow soll es einfach ermöglichen, komplizierte Machine-Learning-Aufgaben mit Kubernetes aufzusetzen. Das Projekt erreicht nun die wichtige Version 1.0.
Mehrere Google-Forscher überlegen in einer Abhandlung, wie sich der Bau von Intermediate Representations (IR) für domänenspezifische Programmiersprachen vereinfachen lässt. Das könnte große Auswirkungen auf den Compilerbau von LLVM haben.
Open-Source-Entwickler haben auf der Fosdem die Open Food Facts vorgestellt - ein Wikipedia-artiges Projekt, das Informationen zu Lebensmitteln sammelt und bewertet. Aber auch darüber hinaus ist die Landwirtschaft ein Thema für die Entwickler.
Der Gründer des Compiler-Projekts LLVM, Chris Lattner, ist künftig für das Platform Engineering der RISC-V-Spezialisten Sifive zuständig. Zuvor war Lattner bei Apple, Tesla und Google.
Mit Hilfe von Machine Learning will Github seinen Nutzern künftig einfache erste Beitragsmöglichkeiten zu Open-Source-Projekten vorschlagen. Das ist das erste Deep-Learning-Produkt von Github.
LTE bleibt trotz 5G weiter wichtig und mit Navic wird ein regionales indisches Satellitennavigationssystem unterstützt: Qualcomm hat den Snapdragon 720G mit 8-nm-Technik, den Snapdragon 662 mit HEIF-Support und den Snapdragon 460 mit Performance-Kernen vorgestellt.
Mit den Services von Amazon, IBM, Microsoft und Google kann jeder recht einfach Bilder analysieren, ohne die genauen Mechanismen dahinter zu kennen. Die Anwendungen unterscheiden sich aber stark - vor allem im Funktionsumfang.
Von Miroslav Stimac
CES 2020 Mit seinen Coral-Produkten will Google seine KI-Beschleuniger einfacher für Entwickler zugänglich machen. Den dazugehörigen Mini-TPU-Chip gibt es jetzt als ASIC und außerdem ein neues Board.
Auto-Hersteller BMW hat einige Maschine-Learning-Algorithmen als Open Source veröffentlicht, die das Unternehmen selbst produktiv einsetzt. Dabei handelt es sich vor allem um Bild- und Objekterkennung.
Die freie Spracherkennung Deep Speech von Mozilla läuft in der aktuellen Version 0.6 auch auf wenig leistungsfähigen Chips in Echtzeit. Darüber hinaus hat das Team das Modell weiter deutlich verkleinert.
Nutzern von Amazon Web Services steht künftig ein Inferencing-Chip für Deep-Learning-Aufgaben zur Verfügung. Der Machine-Learning-Dienst Sagemaker soll nun zudem vollständig automatisiert arbeiten können und das Unternehmen hat eine Java-Bibliothek für Deep Learning als Open Source bereitgestellt.
Adobes künstliche Intelligenz kann Personen aus Bildern ausschneiden, Sprachaufnahmen verbessern, das Verhalten von Nutzern vorhersagen und vieles mehr. Wir haben mit einem der Entwickler über Vorhersagen von Nutzerverhalten, Datenschutz und einen Berliner Chatbot gesprochen.
Von Martin Wolf
Die aktuelle Version 19.10 von Ubuntu alias Eoan Ermine ist verfügbar. Die Version bringt experimentellen ZFS-Support für die Root-Partition, anders als zunächst geplant auch i386-Pakete sowie aktuelle Software für die Cloud und den Linux-Kernel 5.3.
Entwickler müssen sich bei Xilinx' FPGAs nicht länger mit Hardware-Sprachen auseinandersetzen: Bei der Vitis Software Platform reichen C++ oder Python, um die Schaltungen zu programmieren.
Mit der aktuellen Version 2.0 von Tensorflow soll das Deep-Learning-Framework deutlich einfacher und nutzerfreundlicher werden. Der dazu wohl wichtigste Punkt ist die Reduzierung des API auf Keras.
Das Machine-Learning-Framework Tensorflow von Google ist um das sogenannte Neural Structured Learning erweitert worden. Damit können auch Graphen und anderen strukturierte Eingabesignale aus Lerngrundlage genutzt werden.
Nur wenige Firmen haben so viele Daten für das autonome Fahren gesammelt wie Waymo. Googles Schwesterfirma gibt ein Terabyte davon frei - allerdings nicht für den Einsatz in Fahrzeugen.
Die nächste Xeon-Generation, intern Cooper Lake genannt, sind CPUs mit 56 Kernen. Intel hat zudem eine Unterstützung für das bfloat16-Format für beschleunigtes maschinelles Lernen in die Chips integriert.
Googles Deep Learning Containers sind in der Cloud gehostete Entwicklungsumgebungen, in der Nutzer ohne viel Einrichtungsaufwand ihre Machine-Learning-Software trainieren können. Die Container schöpfen Ressourcen direkt aus der Google-Cloud mit Intel-CPUs und Nvidia-GPUs. Amazon war aber zuerst da.
Der Stromverbrauch und CO2-Ausstoß bei der Erstellung von Deep-Learning-Modellen ist erheblich, wie eine jetzt veröffentlichte Studie zeigt.
Computex 2019 In Zukunft wird es drei Versionen der Asus-Bastelplatine geben: Das Tinker Board Edge R und CR1S-CM-A richten sich mit Google-KI-Chip an Hobbyentwickler und kleinere Industrieanwendungen. Das Tinker Board R hat mit 4 GByte RAM und 2 GByte RAM für den KI-Chip reichlich mehr Reserven.
Mit dem Spring Crest genannten Design plant Intel einen eigenen Beschleuniger für künstliche Intelligenz. Der Chip ist sehr groß und für das Training neuronaler Netze mithilfe von Matrix-Multiplikationen ausgelegt, hinzu kommen 32 GByte Stapelspeicher für viel Bandbreite.
Mit der Cloud AI 100 genannten Beschleunigerkarte für Inferencing will Qualcomm im Markt für künstliche Intelligenz ebenfalls eine Rolle spielen. Der Hersteller hebt vor allem die Effizienz des 7-nm-Chips hervor.
Googles Ateac-Projekt wurde beendet. Es war von Anfang an zum Scheitern verurteilt: Warum beruft das Unternehmen offensichtlich intolerante Menschen ein? Die heftigen Proteste für Gleichberechtigung innerhalb des eigenen Teams zeigen doch, dass dort die eigentlichen Experten gefunden werden können.
Ein IMHO von Oliver Nickel
Entwickler können sich mit den AWS DL Containers die Einrichtung einer Umgebung für ihre Machine-Learning-Programme sparen. Die Docker-Container sind zu gängigen Frameworks wie Apache MXnet und Google Tensorflow kompatibel.
Die Tensorflow 2.0 Alpha soll einfacher werden: Das erreicht Google, indem alle bis auf eine API gekürzt werden. Außerdem veröffentlicht das Unternehmen Tensorflow Lite, eine Variante, die KI-Software für mobile Geräte trainieren und anpassen kann.
Um Machine-Learning-Modelle künftig noch schneller in sogenannten Edge-Geräten zu verwenden, verkauft Google nun wie angekündigt seine Edge-TPU. Diese gibt es als Entwicklerboard, als System-on-Module oder USB-Beschleuniger.
Mit den Amazon Web Services bereichere sich das Unternehmen an Open-Source-Software, ohne viel zurückzugeben, sagen einige Kritiker. Das Unternehmen sieht sich selbst eher als "stillen Beitragenden" und bemüht sich um größeres Engagement.
Der KI-Chef von Facebook möchte die aktuelle Herangehensweise an Deep-Learning-Probleme gern völlig neu denken. Dazu gehört eine Programmiersprache, die effizienter ist als Python, ebenso wie neue Hardware, die nicht nur Matrizen multipliziert.
Weite Reisen in ferne Länder, eine Braut in jedem Hafen: Klischees über die Seefahrt täuschen darüber hinweg, dass diese ein Knochenjob ist. Doch in wenigen Jahren werden Schiffe ohne Besatzung fahren, überwacht von Steuerleuten, die nach dem Dienst zur Familie zurückkehren. Daran arbeitet etwa Rolls Royce.
Ein Bericht von Werner Pluta
Wo fangen Entwickler an, wenn es um Amazons Machine-Learning-Dienste geht? Das Unternehmen stellt unentgeltlich Onlinekurse zur Verfügung, die diese und andere Fragen beantworten sollen. Die Kurse beziehen sich auf AWS-Produkte und werden von Amazon selbst auch für interne Weiterbildungen genutzt.
Nach jahrelanger Entwicklung bietet Amazon neue günstige Cloud-Instanzen an, die auf selbst designten ARM-64-Bit-Chips basieren. Die zu mietende Rechenleistung kostet weniger als die von Intel-Prozessoren, überdies gibt es mittlerweile Instanzen mit AMDs Epyc-CPUs.
Der Betreuer des Grafik-Subsystems des Linux-Kernels, David Airlie, schlägt vor, eine einheitliche Open-Source-Alternative zu der Cuda-Bibliothek zu schaffen. Die Grundlagen dafür seien bereits vorhanden.
Der FPGA-Spezialist Xilinx verkauft drei Alveo-Modelle als Beschleuniger für maschinelles Lernen, etwa Inferencing. Ein erster Partner ist Dell EMC, ein System schaffte vor einigen Wochen gar einen Weltrekord.
Programme zum Maschinenlernen stellen andere Herausforderungen an Entwickler als die klassische Anwendungsentwicklung, denn hier lernt der Computer selbst. Wir geben eine Übersicht über die wichtigsten Entwicklerwerkzeuge - inklusive Programmierbeispielen.
Von Miroslav Stimac
Für Google ist der Einsatz von künstlicher Intelligenz offenbar immer noch nicht einfach genug, deshalb stellt das Unternehmen in dem neuen AI-Hub nun Funktionen vor, die eine Plug-and-Play-Nutzung ermöglichen soll. Außerdem wird das Weiterreichen eigener Machine-Learning-Anwendungen nun einfacher.
GTC Europe 2018 Durch AI-Hardware in Servern und in medizinischen Geräten hilft Nvidia unter anderem in Großbritannien dabei, Radiologie zu verbessern. Mit Project Rapids gibt es zudem eine GPU-beschleunigte Plattform, um etwa das Kaufverhalten von Nutzern eines Online-Shops zu analysieren.
Google lehnt ein lukratives Geschäft mit der US-Regierung ab: Das Unternehmen beteiligt sich nicht an einem Cloud-Projekt des US-Verteidigungsministeriums. Eine KI-Kooperation mit dem US-Militär kam bei der Belegschaft nicht gut an.
Huawei hat endlich erklärt, wie der GPU Turbo für die eigenen Smartphones funktioniert: Der Hersteller lädt je Spiel ein trainiertes neuronales Netz auf die Geräte, um Takt und Spannung der Kirin-Chips zu optimieren.