Linus Torvalds hat die erste Vorab-Version des Linux-Kernels 4.14 veröffentlicht und damit dessen Testphase eröffnet. Linux wird künftig bis zu 128 Petabyte virtuellen Arbeitsspeicher verwalten können. Außerdem wurde viel Code aufgeräumt und entschlackt.
DeepL heißt ein neues Übersetzungstool. Es will besser als die Übersetzungsdienste von Google und Microsoft sein. In Stichproben war Golem.de von den Ergebnissen sehr angetan.
Ein Hands-on von Ingo Pakalski
Mit Falcon-9-Rakete und Dragon-Kapsel: HPE hat einen seiner Supercomputer zur ISS befördert. Er soll ein Jahr lang im Dauerbetrieb getestet werden. Später will HPE ihn für künftige Mars-Missionen bereitstellen.
Mehr Speicher für Supercomputer: Cray übernimmt die Clusterstor-Speichersysteme von Seagate und damit ein Konkurrenzprodukt zu den eigenen Maschinen. Mit dem Deal werden auch 100 Mitarbeiter und ehemalige Seagate-Kunden übernommen.
Dank 20 Epyc-Prozessoren und 80 Vega-Rechenkarten schafft AMDs Project 47 ein volles Petaflop an Rechenleistung und ist zudem extrem effizient. Das System wurde zusammen mit Inventec entwickelt und wird in dieser Form künftig auch verkauft.
Neben eigenen ARM-Prozessoren für den Post-K-Supercomputer arbeitet Fujitsu auch an Deep-Learning-Einheiten. Den DLUs reicht eine niedrige Integer-Präzision, weshalb die Energie-Effizienz extrem hoch ausfallen soll. Vorerst sind dedizierte Beschleuniger angedacht, später dann On-Package-Varianten.
Der Vice President of Design tritt zurück: David Hill, einer der Köpfe hinter den Thinkpads, bleibt Lenovo dennoch erhalten. Er hat die ikonischen Business-Notebooks maßgeblich geprägt und vor zwei Jahren die Frage nach einem Retro-Thinkpad gestellt. Das mittlerweile angekündigte Sondermodell erscheint noch 2017.
Der weltgrößte Hersteller von PCs mit den legendären Thinkpads will sich ganz auf Supercomputer und Datencenter ausrichten. Der Unternehmensschef von Lenovo hält die radikale Transformation für notwendig.
Eine Analyse von Axel Postinett
Golem.de-Wochenrückblick Golem.de feiert den 20er mit seiner Quantenkonferenz, Uber ist seinen Gründer losgeworden und OnePlus stellt ein weiteres Mobiltelefon vor. Sieben Tage und viele Meldungen im Überblick.
Quantenkonferenz Stefan Filipp radelt mit dem E-Bike jeden Tag zu seinem Arbeitsplatz bei IBM Research in Zürich, wo er an der Quantendatenverarbeitung mit supraleitenden Schaltkreisen arbeitet. Das Schlimmste für ihn wäre, wenn sich der Quantencomputer nicht realisieren ließe.
Ein Interview von Werner Pluta
Quantenkonferenz Andere bauen Quantencomputer, er kümmert sich um die Programmierung. Will Zeng vom US-Unternehmen Rigetti hat einen Befehlssatz und ein Software-Toolkit für Quantencomputer mit entwickelt. Im Gespräch mit Golem.de erklärt er, warum es ein Erfolg sein könnte, keinen Quantencomputer bauen zu können.
Ein Interview von Werner Pluta
Nachdem die letzten Reste von IBMs x86-Sparte integriert sind, meint es Lenovo richtig ernst: Das Unternehmen will zum größten Anbieter von allen möglichen Servern und anderen professionellen PCs werden. Die Chancen stehen nicht schlecht, wie die Konferenz Transform in New York zeigt.
Von Nico Ernst
Die als Knights Mill entwickelte nächste Generation von Intels Xeon-Phi-Prozessoren soll eine weitaus höhere Rechenleistung für Deep Learning aufweisen. Dazu setzt der Hersteller auf Operationen mit einfacher und halber Genauigkeit.
Dank einer Zusammenarbeit mit Nvidia steht in Lugano der flotteste Supercomputer in Europa und einer der leistungsstärksten überhaupt. Ansonsten hat sich in den Top500 recht wenig geändert - erst ab 2018 wird es wieder spannend.
Bis 2021 will das US-Energieministerium neue Komponenten für Exascale-Supercomputer. Es zahlt daher hunderte Millionen US-Dollar an AMD, Cray, HPE, IBM, Intel und Nvidia. Mit Path Forward wollen die USA wieder an China vorbeiziehen.
Quantenkonferenz Als Kind bewunderte er Jean-Luc Picard für seine wissenschaftliche Herangehensweise an Probleme, heute arbeitet Christian Seidel selbst an Zukunftstechnologien: Er erforscht Anwendungsmöglichkeiten für Quantencomputer.
Ein Interview von Werner Pluta
Mit Supercomputing as a Service sollen Kunden Rechenleistung für wissenschaftliche Projekte oder KI-Funktionen mieten können. Dazu verbindet der Hersteller Cray seine Maschinen mit der Infrastruktur des Partners Markley. Der Vorteil für Nutzer: weniger Kosten.
Hewlett Packard Enterprises neue Version von The Machine verfügt über weitaus mehr lokalen RAM als andere Systeme. Das Forschungsprojekt ist zudem mit ARM-basierten Thunder X2 und optischen Interconnects ausgestattet.
Gedacht zur Entwicklung von künstlicher Intelligenz: Die beiden CS-Storm-Cluster von Cray basieren auf Intels aktuellen Xeons und Nvidias Tesla P100 mit Pascal-Technik. Kunden haben Zugriff auf Broadwell- oder Skylake-CPUs und auf FPGAs.
GTC 2017 Das erste Quartal 2017 lief für Nvidia hervorragend: Der Gesamtumsatz stieg um fast 50 Prozent, was neben dem Datacenter-Segment den Gaming-Grafikkarten und den Tegra-Chips in Nintendos Switch zu verdanken ist.
Für ein gemeinsames HPC-Projekt (High Performance Computing) wollen Huawei und Intel zusammenarbeiten. Unter anderem soll ein Innovation Center für Supercomputer in München entstehen. Derweil plant das Jülich Supercomputing Centre, das Jureca-System per Booster um fünf Petaflops zu verstärken.
Quantenkonferenz
Quantencomputer lösen bestimmte Probleme im Handumdrehen - doch auch sie haben technische und physikalische Grenzen.
Ein Bericht von Matthias Matting
Quantenkonferenz Quantencomputer Quantencomputer, Quantenkommunikation, Quantenkryptographie: Kaum ein Thema wird derzeit so gehypt wie die Quanten. Zum 20. Geburtstag von Golem.de erklären wir in unserer ersten eigenen Konferenz, was es damit tatsächlich auf sich hat - nur mit Fakten und ohne Bullshit. Der Ticketverkauf für die Konferenz am 23. Juni ist gestartet.
Mit virtuellen Simulationen will BASF in Zukunft noch schneller und günstiger neue Polymere entwickeln. Dafür holt sich der deutsche Konzern US-Unterstützung von HPE und dessen HPC-Erfahrung.
Cebit 2017 Zusammen mit Volkswagen will D-Wave die Rechentechnik revolutionieren und präsentiert dazu stolz eine Quanten-Rechenmaschine auf der Technikmesse in Hannover. Ob die Technik etwas taugt, muss sie aber noch unter Beweis stellen.
Ein Bericht von Frank Wunderlich-Pfeiffer
Dynamiq ist ARMs neue Plattform, um acht Kerne in einen Cluster zu packen und mehrere davon via Fabric und überarbeitetem Speichersubsystem zu verbinden. Hinzu kommen Instruktionen für Machine Learning und künstliche Intelligenz.
Die Vormachtstellung der USA ist gefährdet - das behauptet zumindest die NSA. Chinas Fortschritte bei Supercomputern sollen sogar das nukleare Abschreckungspotenzial der USA gefährden.
Golem.de-Wochenrückblick Wenig anregende Gespräche mit Alexa, dafür Spielspaß mit der Nintendo Switch, angeblich superschnelle CPUs von AMD und der ultimative Angriff auf SHA-1: Sieben Tage und viele Meldungen im Überblick.
Zehn Mal schneller als der derzeit schnellste Computer soll er werden: In Tianjin wird ein neuer Supercomputer gebaut. Tianhe-3 wird der erste Exaflops-Rechner.
Auf dem ersten europäischen AI-Day in München hat Intel Details zu Lake Crest genannt. Der Beschleuniger für künstliche Intelligenz soll bei solchen Anwendungen auch Highend-GPUs schlagen. Dafür ist viel neue Technik nötig.
Ein Bericht von Nico Ernst
Neue ARM-Server basierend auf Caviums ThunderX2: Die GW4-Allianz und das Mont-Blanc-Projekt planen HPC-Systeme. Gebaut werden sie von Bull (Atos) und Cray, eines ist ein Prototyp für Exascale-Computing. Daran arbeitet auch China.
Künstliche statt menschliche Intelligenz: Eine japanische Versicherung will Auszahlungen künftig von IBMs Watson prüfen lassen. Dafür wird ein Teil der Angestellten entlassen.
Chips von Fujitsu, IBM, Intel und Nvidia: Der Supercomputer Marenostrum 4 des Barcelona Supercomputing Center nutzt sie alle. Die kombinierten Technologien sollen das System zu einem der schnellsten der Welt machen.
HPE will den Computer neu erfinden - die ersten Schritte sind getan: The Machine existiert als funktionierender Prototyp mit 4 TByte einheitlichem Speicher und optischer Verbindung zwischen mehreren Racks. Als Nächstes steht ReRAM auf dem Plan.
Noch kommendes Jahr soll der ABCI-Supercomputer einsatzbereit sein, angesetzt sind 130 Petaflops. Die lassen sich aber nicht mit denen des derzeit schnellsten System vergleichen. Japan möchte den ABCI für Erforschung von Künstlicher Intelligenz einsetzen und könnte Tesla-Chips von Nvidia nutzen.
In Texas steht der erste Supercomputer, der tagsüber vom Parkplatz aus mit Strom versorgt wird. Über den Autos sind Panels angebracht, um Solarenergie zu erzeugen. Nachts muss HPEs Hikari allerdings an die Steckdose.
Das sogenannte Heterogeneous Memory Management (HMM) ist wichtig zum Auslagern von Programmen auf GPUs. Der Linux-Kernel unterstützt HMM noch nicht offiziell. Nvidia hilft aber dem Red-Hat-Entwickler bei der Umsetzung - wohl für die aktuellen Supercomputer mit Nvidia-Karten.
Auf der SC16-Messe haben AMD und Intel mehrere Ankündigungen für High Performance Computing gemacht: Die ROCm-Plattform (Radeon Open Compute) unterstützt nun Polaris-Grafikkarten, und Intel aktualisiert die Broadwell-EP-Chips.
Bei den schnellsten Supercomputern der Welt tut sich etwas: Gleich vier Rechner setzen auf Intels Xeon-Phi-Prozessoren mit Knights Landing und zwei mit Nvidias Tesla P100 ausgestattete Systeme weisen eine enorm hohe Leistung pro Watt auf.
Ist Moore's Law am Ende? Das Erreichen der Exaflop-Marke scheint für Hersteller von Supercomputern nicht so einfach zu sein. 2020 soll eine solche Maschine installiert sein - ein spannender Wettbewerb auf dem Weg zum Exascale-Computing ist bis dahin sicher.
Von Stefan Lankes
GTC Europe 2016 Optimiert auf Deep Learning: Nvidia hat einen neuen Tegra-Chip angekündigt, Codename Xavier. Das SoC soll ein KI-Supercomputer sein, denn Nvidias Ziel ist mit 1 TOPS pro Watt ambitioniert.
Für Datacenter bis hin zu Supercomputern: Der Corelink verbindet Dutzende ARM-Kerne oder Beschleuniger in einem Mesh, auch DDR4-Speichercontroller und Caches werden eingeklinkt.
Hot Chips 28 Speziell für High Performance Computing: Eine neue Erweiterung bildet die Grundlage für ARM-basierte Supercomputer. Die ersten CPUs damit werden von Fujitsu entwickelt und sind breit ausgelegt.
Silicon Graphics wird ein Teil des Serverherstellers Hewlett Packard Enterprise. Der Hersteller, der einst 7 Milliarden US-Dollar wert war, kostete nur noch 275 Millionen US-Dollar.
Satte 3.840 Shader-Einheiten und 24 GByte GDDR5X-Videospeicher: Die Quadro P6000 könnte die schnellste Grafikkarte überhaupt werden, noch spricht Nvidia aber nicht über Taktraten. Dafür gibt es viele Neuerungen bei der Software, etwa bei Iray.
Golem.de-Wochenrückblick China hat den schnellsten Computer der Welt, deutsche Haushalte werden auf Smart Meter umgerüstet und die EU-Kommission fürchtet sich vor verschlüsseltem Spam. Sieben Tage und viele Meldungen im Überblick.
Von Fujitsu designte ARMv8-CPUs für den japanischen Post-K-Supercomputer und ARM-Kerne für den chinesischen Tianhe-2: Teile Asiens wenden sich von US-amerikanischer Hardware ab.
Bis zu 384 GByte DDR4 und 72 Kerne plus 16 GByte On-Package-Speicher: Intels neue Xeon-Phi-Prozessoren vom Typ Knights Landing sind unter anderem für Deep Learning gedacht. Erstmals sind die Chips gesockelt und optional mit Fabric erhältlich.
Die Top-500-Liste der schnellsten Supercomputer hat einen neuen Spitzenreiter: Der Sunway Taihu Light stammt aus China und nutzt CPUs aus eigener Entwicklung statt US-amerikanische von Intel.
Ein Modell mit NV-Link für IBMs Power8+ und Power9-Chips und zwei klassische PCIe-Steckkarten: Nvidias Tesla-P100-Rechenbeschleuniger für HPC-Systeme soll im Herbst 2016 ausgeliefert werden.