Zwar produziert der KI-gestützte Chemie-Roboter an der Universität Glasgow kein Gold, allerdings kann er sehr schnell chemische Reaktionen austesten und diese mit hoher Genauigkeit sogar vorausberechnen. Auch noch nicht zuvor entdeckte Reaktionen konnte der Roboter bereits finden.
Mit Hilfe von zwei neuronalen Netzen will Qualcomm ein Spracherkennungssystem entwickeln, das lokal auf dem Gerät und ohne Internetanbindung funktioniert. Trotzdem soll es zu 95 Prozent genau sein. Das Ziel: Hardware zu bauen, die sich an das Verhalten der Nutzer anpasst.
API-Aufrufe oder Fehlerbehandlung: Bayou ist ein maschinelles Lernsystem, das eigenständig Java-Programmteile erstellen kann. Die Forscher des Projekts sehen es als eine bessere Code-Vervollständigung, die später auch Nicht-Programmierern den Einstieg erleichtern soll.
Die Initiative Applied AI fördert die Anwendung künstlicher Intelligenz in Europa. Mehrere große Partner wie Google, SAP und Siemens sollen dabei helfen. Das Projekt will Europa beim Thema KI konkurrenzfähig machen, muss aber auch über Risiken aufklären.
Alterego ist eine Kombination aus neuronalem Netzwerk und Sensormaske. Das System kann Muskelimpulse deuten und in Wörter umwandeln. Der Sinn: mit Hardware natürlich und ohne sichtbare Interaktion kommunizieren zu können.
Mit neuronalen Netzen sind jetzt auch recht natürlich klingende Vorlesestunden möglich. Googles Deepmind-Team hat einen Text-to-Speech-Algorithmus entwickelt, den Entwickler einfach in ihre Projekte einbinden können - inklusive 32 Stimmen in vielen Sprachen wie Englisch, Deutsch und Japanisch.
Raketen aus dem 3D-Drucker, Milliarden-Investitionen aus dem Silicon Valley und Träume von künstlicher Intelligenz, die mit Lichtgeschwindigkeit durchs All reist: Die Digitalisierung sorgt für einen Boom in der Raumfahrt.
Wie genau trainierte neuronale Netze funktionieren, wissen selbst deren Ersteller oft nicht. Eine Möglichkeit, dies herauszufinden, ist aber offenbar, die Modelle gezielt zu zerstören. Das zeigt eine Untersuchung von Deepmind.
Berechnen, verdoppeln, besser berechnen: Zwei Forscher entwickeln ein neuronales Netz, das sich selbst repliziert. Die Hoffnung ist, dass sich das System selbstständig verbessert - ganz wie in der Natur. Allerdings ist das wohl noch nicht ganz der Fall.
Angreifer können aus bereits trainierten Deep-Learning-Modellen private und sicherheitskritische Informationen extrahieren. Das funktioniert besonders gut mit kurzem Text, zeigt eine Forschungsarbeit der UC Berkeley.
Gefilmt werden und eine Frage mündlich beantworten: Ein neues biometrisches Captcha-System soll verhindern, dass Algorithmen die Abfragen austricksen. Die Lösungszeit macht dabei den Unterschied zwischen Mensch und Maschine.
Ein soziales Netzwerk, das über die Frontkamera des iPhone X unsere Gesichtsregungen erkennt und entsprechende Inhalte anzeigt - was nach Zukunftsmusik klingt, haben vier Entwickler als Konzeptstudie auf einer Konferenz programmiert.
Ein Beatles-Song auf Knopfdruck? Kein Problem. Hip-Hop-Beats in Sekunden? Bitte sehr. Künstliche Intelligenz wird kreativ - und könnte die Musikbranche verändern.
Nima soll möglichst genau die ästhetische und handwerkliche Qualität eines Fotos einschätzen können, ohne dass das direkte Referenzbild zur Verfügung steht. Die Ergebnisse sind laut Google schon nah an der menschlichen Einschätzung, die Forschung aber noch recht fern von der produktiven Anwendung.
Bei der Auswertung von Daten des Kepler-Weltraumteleskops mit einem neuronalen Netzwerk haben Astronomen einen achten Planeten in einem fernen Sternsystem gefunden. Ein neuer Rekord.
Golem-Wochenrückblick Apples iPhone X ist verfügbar, HTC stellt noch schnell zwei neue Modelle vor, Razer debütiert mit einem Gamer-Phone. Und wir testen dann noch Smartphone-Kameras und einen Akku-Mod! Sieben Tage und viele Meldungen im Überblick.
Prominente, Tiere oder Fahrzeuge: Nvidias maschineller Lernalgorithmus generiert möglichst realistische Bilder. Die Vorlage stellen 30.000 Referenzbilder. Momentan sind die Ergebnisse noch nicht ohne Fehler - es sei denn ein zweiköpfiges Pferd ist erwünscht.
Gluon ist ein weiterer Schritt in Richtung standardisierter APIs für neuronale Netze. Die Schnittstelle ist sowohl mit Microsofts Cognitive Toolkit als auch mit Apache Mxnet kompatibel. Sie skaliert mit mehr als 500 GPUs und soll mit wenig statt viel Daten umgehen können.
Update Nicht nur elektrisch, sondern auch autonom: Die Deutsche Post treibt die Entwicklung eigener Lieferwagen mit dem Zulieferer ZF und dem Chiphersteller Nvidia voran.
PixelNN kann unscharfe oder unvollständige Bilder rekonstruieren. Der Algorithmus sei dabei präziser als ähnliche Projekte. Die Entwickler nutzen ein neuronales Netz, um bereits jetzt relativ genaue Ergebnisse zu liefern.
Wissenschaftler haben einen neuen Algorithmus programmiert, der aus einem einzelnen Bild ein 3D-Modell eines Gesichts konstruiert. Über ein Web-Interface kann die Methode ausprobiert werden - mit stellenweise bereits guten Ergebnissen.
Der neue Neural Compute Stick ist praktisch die fertige Variante des ursprünglichen Movidius-Modells. Intel hat ein paar Optimierungen vorgenommen, beispielsweise können mindestens vier Deep-Learning-Sticks an einem USB-Port betrieben werden.
Anhand von Streetview-Bildern nutzt Google maschinelles Lernen, um realistische Panoramen zu erstellen. Der Algorithmus nimmt auch professionelle Aufnahmen als Referenz. Das Ergebnis beeindruckt Fotografen.
Allo-Nutzer können in der neuen Version der App ein Sticker-Set anfertigen, das nach ihrem Ebenbild geschaffen wird. Googles Chat-App nutzt ein neuronales Netzwerk, um aus einem Foto eine Comic-Variante des Users zu erstellen. Die verschiedenen Bildchen können dann an Freunde verschickt werden.
Ein neues System zur maschinellen Übersetzung von Facebook liefert leicht bessere Ergebnisse als das bisher beste von Google und ist dabei sogar noch schneller. Anders als Google stellt Facebook den Code und die Trainingsdaten frei zur Verfügung.
Die Alphabet-Tochter Deepmind will bei der Krebsbehandlung helfen und schlägt menschliche Spieler in Go. Das nun verfügbare Open-Source-Framework Sonnet soll die Forschung an maschinellem Lernen in der Öffentlichkeit vorantreiben.
Zum maschinellen Lernen benötigt Google möglichst relevante, also echte Daten. Deshalb wird das Modell für die Android-Tastatur Gboard einfach auf Smartphones angelernt und später auf dem Server zusammengesetzt - eine radikale Abkehr von bisherigen Herangehensweisen.
Data-Center statt klassische Computer: Intel positioniert sich neu. Die bisherige 5G-Chefin wird nun Chief Strategy Officer. Außerdem wurde die Artificial Intelligence Products Group gebildet. Ihr Leiter ist Naveen Rao, Gründer des AI-Startups Nervana.
General Boris - so nennt das Entwicklerstudio Nival seinen KI-Gegner für das Echtzeit-Strategiespiel Blitzkrieg 3. Es soll das erste Mal sein, dass solche Algorithmen voll funktionsfähig in einem derartigen Titel verfügbar sind.
Schlauere Roboter und Drohnen: Nvidia hat eine neue Entwicklungsplattform vorgestellt. Jetson TX2 soll leistungsfähiger und energieeffizienter als die Vorgänger sein. Das System ist in Kürze verfügbar.
GDC 17 Deep Learning soll Spiele schlauer, vor allem aber schöner machen - sagt Nvidia. Außerdem hat das Unternehmen neue Angebote für Profi- und Hobbyentwickler vorgestellt und Andeutungen über eine High-End-PC-Version von Final Fantasy 15 gemacht.
In linearen Jump-'n'-Run-Spielen sind Maschinen schon lange besser als Menschen. In vergleichsweise hochkomplexen Multiplayer-Spielen wie Super Smash Bros. Melee kann KI nun aber auch Menschen übertrumpfen. Noch haben Menschen aber einen entscheidenden Vorteil.
Das Deep-Learning-Framwork Tensorflow von Google verspricht mit Version 1.0 Stabilität für seine Python-API und beschleunigt die aktuelle und zukünftige Arbeit mit der Einführung des domain-spezifischen Algebra-Compilers.
Zusammen mit der Universität Oxford forschen Google-Wissenschaftler an einem Algorithmus, der automatisiertes Lippenlesen ermöglichen soll. Die bisherigen Ergebnisse sind sehr vielversprechend: Die Erkennungsrate der KI ist weitaus höher als die eines menschlichen Lippenlesers.
Google sucht nach einem Weg, sein neuronales Übersetzungsnetzwerk auch für andere Sprachen nutzbar zu machen. Dabei wurde nun ein Weg gefunden, wie weitere Sprachkombinationen übersetzt werden können - auch wenn diese nicht explizit erlernt wurden.
Neue Hardware für Deep Learning: Die Intel-Tochter Nervana erwartet erste Muster von Lake Crest im kommenden Jahr, als Knights Crest sollen die Chips auch mit Xeons gekoppelt werden. Die neuen Skylake-EP-Server-CPUs liefert Intel derweil überraschend aus, verärgert aber viele seiner Partner massiv.
Der Google-Übersetzer hat bisher einzelne Wörter übersetzt und anschließend statistische Modelle verwendet, um diesen einen Sinn zu geben. Funktioniert hat das nicht immer gut - die Einbindung eines neuronalen Netzwerks ändert das.
Wer kein iPhone 7 Plus mit Doppelkamera besitzt, kann die iOS-10-Funktion auch mit einer App nachempfinden, die den Vordergrund des Bildes erkennt und den Hintergrund unscharf stellt. Das klappt erstaunlich gut.
Yahoo sucht mit maschinellem Lernen automatisch nach pornografischen Inhalten. Das zugrundeliegende Modell kann aber auch zur Bilderzeugung genutzt werden, was einerseits das Modell erklärt und andererseits interessante Ergebnisse liefert.
Das System zum Erkennen von gesprochener Sprache von Microsoft sei bei einem Standard-Test inzwischen ähnlich gut wie professionell geschulte Menschen. Das Forscherteam nutzt dafür Microsofts Open-Source-Toolkit CNTK, hat bei einigen Gesprächen aber noch große Schwierigkeiten.
Nach dem Beta-Test folgt die offizielle Freischaltung: Die beliebte Bildbearbeitungs-App Prisma ist für Android verfügbar. Wie bei der iOS-Version müssen sich Nutzer aber damit abfinden, dass ihre Fotos auf Server des Anbieters hochgeladen werden.
Hunderte Apps versprechen, Fotos mit Filtern schöner zu machen. Keiner gelingt das so gut wie Prisma. Doch Kritiker sprechen von einem Privatsphäre-Albtraum.
Das Deep-Mind-Team von Google kombiniert das Lernen durch Trial-and-Error mit neuronalen Netzen und erreicht damit übermenschliche Fähigkeiten in Go- oder Atari-Spielen. Google will dies künftig auch für Veränderungen in der Gesellschaft nutzen.
Wo gibt es Sportplätze, Containerlager oder Gebäude mit runden Strukturen? Auf Satellitenbildern sind sie zu finden, aber die Suche ist schwierig. Diese Aufgabe übernimmt Terrapattern.
Um besser zu verstehen, was die Nutzer von Facebook meinen, analysiert das Unternehmen Nachrichten in dem sozialen Netzwerk oder auch im Messenger per künstlicher Intelligenz. Das könnte künftig für Vorschläge genutzt werden.
Figuren in Computerspielen müssen mehr können als den Weg zu finden und einen Feind zu treffen. Technische Lösungen gibt es mehrere, in der Praxis könnte sich die Utility AI durchsetzen, sagte Jakob Rasmussen von Apex Game Tools bei einem Entwicklertreffen.
Zum Erkennen natürlicher Sprache hat Google ein neues Modell zum Parsen der Syntax entwickelt und mit seinem Deep-Learning-Framework Tensorflow implementiert. Der daraus erstellte Englisch-Parser Parsey McParseface soll die derzeit beste maschinelle Erkennungsrate für Syntaxbäume aufweisen.
Man nehme ein bereits trainiertes neuronales Netz, einen aus den DJI-Multicoptern bekannten VLIW-Chip und packe beides in ein USB-Gerät: Fertig ist Movidius' Fathom Neural Compute Stick.