Nachdem Apple, Huawei und Img Tech bereits Hardware oder IP für künstliche Intelligenz in Smartphones haben, zieht ARM nach: Project Trillium umfasst Inferencing und Objekterkennung. Die Integration erfolgt eng neben den CPU-Kernen.
Die Deep-Learning-Beschleuniger von Google lassen sich nun in einem offenen Betaprogramm der sogenannten Cloud-TPU testen. Für Machine-Learning-Aufgaben sollen aber weiter auch Skylake-CPUs und Nvidias GPUs bereitstehen.
Bei weißen Männern funktioniert Gesichtserkennung mit 99 Prozent Genauigkeit, ganz anders ist es bei schwarzen Frauen. Das zeigt die Studie einer MIT-Informatikerin, die Geschlechterzuordnung untersucht hat. Betroffen sind etwa Systeme von Microsoft und IBM.
Mit der PowerVR GT8540 gibt es eine Grafikeinheit für Automotive- oder Smartphone-Chips, sie kann per CLDNN angesprochen werden. Das auf OpenCL aufsetzende Neural-Net-SDK ist vornehmlich für den AI-Beschleuniger PowerVR 2NX gedacht.
Die auf dem Python-Framework Caffe2 basierende Objekterkennung Detectron von Facebook steht nun als Open Source bereit. Das Projekt implementiert verschiedene Algorithmen auf Basis maschinellen Lernens und stellt auch einen Modellzoo bereit.
Ein Beatles-Song auf Knopfdruck? Kein Problem. Hip-Hop-Beats in Sekunden? Bitte sehr. Künstliche Intelligenz wird kreativ - und könnte die Musikbranche verändern.
Wer eine Geforce oder Titan verwendet, darf diese Nvidia-Karten der aktualisierten Endbenutzer-Lizenzvereinbarung zufolge nicht mehr in Rechenzentren, etwa für Deep Learning, einsetzen. Für Server-Anbieter oder Universitäten ist das ein Problem.
Für die aktuelle Version seiner Sprachsynthese aus Text kombiniert Google verschiedene Ansätze und erreicht so fast die Qualität professionell vorgelesener Aufnahmen. Das System, Tacotron 2, hat aber noch große Schwierigkeiten mit Fremdwörtern und praktische Probleme.
Nima soll möglichst genau die ästhetische und handwerkliche Qualität eines Fotos einschätzen können, ohne dass das direkte Referenzbild zur Verfügung steht. Die Ergebnisse sind laut Google schon nah an der menschlichen Einschätzung, die Forschung aber noch recht fern von der produktiven Anwendung.
Nvidias neue Titan V für 3.100 Euro ist eine extrem schnelle Grafikkarte - zumindest in den Workloads, für welche die Nvidia-Volta-Architektur ausgelegt wurde. Wer nur zocken möchte, wird sich über das vorgegebene 250-Watt-Limit ärgern.
CES 2018 Mit dem Markennamen ThinQ will LG künftig all seine Geräte mit Einbindung künstlicher Intelligenz bezeichnen. Das Portfolio soll Unterhaltung und den Haushalt abdecken, erste Produkte will der südkoreanische Hersteller auf der CES 2018 zeigen.
Facebook verwendet künftig eine optionale, auf Maschinenlernen basierende Gesichtserkennung, um Nutzer zu benachrichtigen, wenn sie auf Fotos anderer User zu sehen sind. Das soziale Netzwerk will diese Technik auch zum Schutz der Identität der Nutzer verwenden und damit Fake-Profile entlarven.
Die Xeon Phi Knights Mill sind speziell für Deep Learning ausgelegt: Die gesockelten Prozessoren haben bis zu 72 Kerne und spezielle Instruktionen, die VNNI. Die hohe Geschwindigkeit geht mit einer Verlustleistung von bis zu 320 Watt einher.
Die zweite Generation von Googles Deep-Learning-Beschleunigern TPU wird in Clustern zu je 64 Stück genutzt. Solch ein Cluster hat Zugriff auf 4 TByte HBM-Speicher. Einem einzelnen Kern aus Matrix- und Vektor-Recheneinheit steht je ein Speicher-Stapel aus 8 GByte zur Verfügung.
Turi Create stellt Methoden für die Bilderkennung zur Verfügung. Es soll möglichst einfach und ohne Vorkenntnisse zu maschinellem Lernen bedienbar sein. Ungewöhnlich für Apple: Das Produkt ist quelloffen.
Am Beispiel des neuen AC922 zeigt IBM, dass der Power9-Prozessor in rechenintensiven Anwendungen wohl sehr effizient ist. Das System gibt es jetzt für den Unternehmenseinsatz zu kaufen. PCIe 4.0 und OpenCAPI sind dabei wichtige Faktoren, die die x86-Konkurrenz bisher noch nicht hat.
Rekognition Video ist die neue Ergänzung des Deep-Learning-Systems von AWS. In der Cloud können damit Gesichter, Objekte und Aktionen automatisch erkannt werden. Sogar Prominente sollen so zugeordnet werden können. Die Ergebnisse werden in einer Übersicht angezeigt.
Mit Deep Speech steht ein erstes freies Modell zur Spracherkennung von Mozilla bereit. Parallel dazu sammelt Mozilla mit Common Voice die Sprachdaten dafür und stellt diese ebenfalls frei zu Verfügung. Golem.de hat mit den Verantwortlichen der beiden Projekte gesprochen.
Sagemaker ist eine Plattform für das Erstellen von maschinellen Lernalgorithmen. AWS gibt dem Kunden Tools an die Hand, die das Training von Modellen möglichst einfach machen soll. Viele Frameworks sind bereits vorinstalliert, per Docker können auch eigene genutzt werden.
Ein Motor und viele Sensoren:Googles Chromebooks könnten sich in Zukunft von selbst öffnen und schließen. Ein Patent zeigt die Technik, mit der ein Notebook sich auch selbstständig entsperrt. Das erinnert ein wenig an Windows Hello und Apple Face ID.
Mit Tensorflow Lite veröffentlicht Google eine extrem kleine Variante seiner Machine-Learning-Bibliothek, die speziell für Mobil- und Embedded-Geräte gedacht ist. Auf Android-Geräten wird eine neue Beschleuniger-API verwendet.
Googles AutoML entwickelt sich. Jetzt kann das System komplexere Modelle selbstständig erschaffen - ohne menschliche Hilfe. Das neue Modell heist Nasnet und soll bei der Bild- und Objekterkennung sehr effizient sein.
Raja Koduri hat als Architekt neuer Grafiklösungen viel Erfahrung bei Apple und dann bei AMD gemacht. Jetzt wechselt er zu Intel - ein erstes Zeichen für die Entwicklung von eigenen Grafikkarten.
Künstliche Intelligenz ist ein Trend, trotzdem scheinen nur wenige Unternehmen diese überhaupt zu nutzen. Das Problem: zu wenig Fachkräfte, die fast alle direkt zu Google, Amazon und Microsoft gehen.
Mit Rust, Servo und dem Videocodec Daala hat Mozilla Infrastruktur-Experimente gepflegt, die erst Jahre später langsam produktiv genutzt werden. Für VR, Sprache und Machine Learning soll das genauso laufen. Wer braucht da schon konkrete Produktideen?
Prominente, Tiere oder Fahrzeuge: Nvidias maschineller Lernalgorithmus generiert möglichst realistische Bilder. Die Vorlage stellen 30.000 Referenzbilder. Momentan sind die Ergebnisse noch nicht ohne Fehler - es sei denn ein zweiköpfiges Pferd ist erwünscht.
Das Team von Vicarious AI arbeitet an einem maschinellen Lernalgorithmus, der automatisch Captchas verschiedener Anbieter lösen kann. Anders als vegleichbare Systeme nutzt das Recursive Cortical Network (RCN) aber nur einzelne Klartextbuchstaben als Referenz. Das Ergebnis soll trotzdem besser sein.
Wird "Zoomen und Verbessern" bald Realität? EnhanceNet-PAT ist ein Lernalgorithmus, der durch Mustererkennung Bilder hochauflösender machen kann. Das Vorbild für das maschinelle Lernen ist der Mensch selbst.
Huaweis Video Player, Appstore und KI-Schnittstelle kommen auf Smartphones und Tablets. Es soll Entwicklern einfacher gemacht werden, Apps für den Kirin-970-Chip zu programmieren. Das sei ein erster Schritt zur "digitalen Seidenstraße".
Für KI, Machine Learning und Big Data: Cray for Azure soll die Rechenleistung von Supercomputern in der Cloud für Kunden bereitstellen. Damit werden Cray-Systeme für mehr als nur wissenschaftliche Einrichtungen interessant.
Gluon ist ein weiterer Schritt in Richtung standardisierter APIs für neuronale Netze. Die Schnittstelle ist sowohl mit Microsofts Cognitive Toolkit als auch mit Apache Mxnet kompatibel. Sie skaliert mit mehr als 500 GPUs und soll mit wenig statt viel Daten umgehen können.
Wer war in welchem Video zu sehen? Auf Pornhub werden in Zukunft Darsteller anhand von Bilderkennung automatisch entsprechenden Videos zugeordnet. Später sollen auch Kriterien wie Körpermerkmale und Drehort analysiert werden können. Ein wichtiger Bestandteil: die Community.
Besser spät als nie: Alibaba will reichlich in die Forschung von Quantencomputern, Machine Learning und IoT investieren - mit Hilfe von renommierten Instituten wie dem MIT und Princeton. Sich gegen bereits etablierte Konkurrenten wie Microsoft und Google durchzusetzen, wird trotzdem nicht leicht.
Maschinelles Lernen und Bilderkennung finden immer mehr Anwendung. Im Trend liegt das Animieren von Bildern und Emoticons. Facebook arbeitet gemeinsam mit Forschern an einer eigenen Lösung. Ein erstes Ergebnis: eine noch mehr lächelnde Mona Lisa und wütende Profilbilder.
Drei Klassen und eine Webcam: Teachable Machine ist ein kleines Programm von Google, mit dem Nutzer das Konzept von maschinellem Lernen verstehen sollen. Es nutzt dazu die quelloffene Bibliothek Deeplearn.js. Das Besondere: Es funktioniert lokal im Browser statt über die Cloud.
Oracles neue AI Cloud Platform soll für Kunden die Tools und die Hardware zum Erstellen eigener Lernalgorithmen bereitstellen. Auch in der Mobile Cloud können interaktive Chatbots erstellt werden. Allerdings ist die Konkurrenz mit Salesforce, Microsoft und Co. relativ stark.
PixelNN kann unscharfe oder unvollständige Bilder rekonstruieren. Der Algorithmus sei dabei präziser als ähnliche Projekte. Die Entwickler nutzen ein neuronales Netz, um bereits jetzt relativ genaue Ergebnisse zu liefern.
Zwei neue Grafikeinheiten und ein Neural Net Accelerator: Imagination Technologies' PowerVR 2NX soll Smartphone-Chips helfen, künstliche Intelligenz lokal auf dem Gerät zu berechnen. Die GPUs liefern viel Füllrate pro Quadratmillimeter.
Supercomputer Watson sollte der klügste Computer der Welt werden und dem Unternehmen unter Chefin Virginia Rometty Milliarden bringen. Doch der Rechner enttäuscht.
133Kommentare/Von Matthias Kamp
(Wirtschaftswoche),Michael Kroker
(Wirtschaftswoche),Sven Prange
(Wirtschaftswoche)
ONNX soll Entwicklern eine homogene Plattform für die Entwicklung von KI-Applikationen bieten. Microsoft und Facebook kooperieren, um ihre Frameworks zu vereinheitlichen. Die Community kann das Projekt auf Github einsehen.
In einem Blogpost stellt Uber Michelangelo vor. Das ist ein Machine-Learning-System, das für viele Unternehmensprojekte eingesetzt wird. Die Basis sind zahlreiche Open-Source-Programme und eigene Softwareentwicklungen.
Pixelmator Pro integriert Apples Core-ML-Schnittstelle, um Funktionen wie Bilderkennung zu realisieren. Die Software soll im Vergleich zur Adobe Creative Cloud besonders preisgünstig und daher für "jedermann" sein - vorausgesetzt "jedermann" ist Mac-Nutzer.
Gleiche niedrige Leistungsaufnahme, aber viel höhere Geschwindigkeit: Der Myriad X ist zur Berechnung neuronaler Netze ausgelegt und dank 16FFC-Herstellungsverfahren schneller als sein Vorgänger. Gedacht ist der Intel-Chip mit HEVC-Encoding unter anderem für Multicopter.
Hot Chips Statt auf fest verdrahtete ASICs, wie Googles TPU, setzt Microsoft für sein Azure-Cloud-Geschäft auf flexiblere FPGAs. Mit diesen sollen künftig Machine-Learning-Modelle beschleunigt werden, um "Echtzeit-KI" bereitzustellen.
Hot Chips Der nächste Xeon-Phi-Beschleuniger, Knights Mill, erhält überarbeitete Ausführungseinheiten, um mit doppelter Geschwindigkeit und halber Genauigkeit zu rechnen.
Kommerzielle Fotoagenturen schützen ihre Bilder häufig mit sichtbaren Wasserzeichen. Doch Google-Forscher haben den Schutz geknackt. Und geben Tipps für Verbesserungen.
Das Machine-Learning-Team von Google will diesen Bereich der Informatik einfacher zugänglich machen und hat Deeplearn.js erstellt. Die Javascript-Bibliothek läuft komplett im Browser und benötigt kein Backend.
Zugriff auf die API von Starcraft 2, Werkzeuge für Forscher auf Basis von Linux und Replays von Tausenden von Partien: Blizzard und die Google-Tochter Deepmind Technologies haben eine Reihe von Tools ins Netz gestellt, mit denen KI-Forscher an neuen Algorithmen arbeiten können.