Für ein gemeinsames HPC-Projekt (High Performance Computing) wollen Huawei und Intel zusammenarbeiten. Unter anderem soll ein Innovation Center für Supercomputer in München entstehen. Derweil plant das Jülich Supercomputing Centre, das Jureca-System per Booster um fünf Petaflops zu verstärken.
Quantenkonferenz
Quantencomputer lösen bestimmte Probleme im Handumdrehen - doch auch sie haben technische und physikalische Grenzen.
Ein Bericht von Matthias Matting
Quantenkonferenz Quantencomputer Quantencomputer, Quantenkommunikation, Quantenkryptographie: Kaum ein Thema wird derzeit so gehypt wie die Quanten. Zum 20. Geburtstag von Golem.de erklären wir in unserer ersten eigenen Konferenz, was es damit tatsächlich auf sich hat - nur mit Fakten und ohne Bullshit. Der Ticketverkauf für die Konferenz am 23. Juni ist gestartet.
Mit virtuellen Simulationen will BASF in Zukunft noch schneller und günstiger neue Polymere entwickeln. Dafür holt sich der deutsche Konzern US-Unterstützung von HPE und dessen HPC-Erfahrung.
Cebit 2017 Zusammen mit Volkswagen will D-Wave die Rechentechnik revolutionieren und präsentiert dazu stolz eine Quanten-Rechenmaschine auf der Technikmesse in Hannover. Ob die Technik etwas taugt, muss sie aber noch unter Beweis stellen.
Ein Bericht von Frank Wunderlich-Pfeiffer
Dynamiq ist ARMs neue Plattform, um acht Kerne in einen Cluster zu packen und mehrere davon via Fabric und überarbeitetem Speichersubsystem zu verbinden. Hinzu kommen Instruktionen für Machine Learning und künstliche Intelligenz.
Die Vormachtstellung der USA ist gefährdet - das behauptet zumindest die NSA. Chinas Fortschritte bei Supercomputern sollen sogar das nukleare Abschreckungspotenzial der USA gefährden.
Golem.de-Wochenrückblick Wenig anregende Gespräche mit Alexa, dafür Spielspaß mit der Nintendo Switch, angeblich superschnelle CPUs von AMD und der ultimative Angriff auf SHA-1: Sieben Tage und viele Meldungen im Überblick.
Zehn Mal schneller als der derzeit schnellste Computer soll er werden: In Tianjin wird ein neuer Supercomputer gebaut. Tianhe-3 wird der erste Exaflops-Rechner.
Auf dem ersten europäischen AI-Day in München hat Intel Details zu Lake Crest genannt. Der Beschleuniger für künstliche Intelligenz soll bei solchen Anwendungen auch Highend-GPUs schlagen. Dafür ist viel neue Technik nötig.
Ein Bericht von Nico Ernst
Neue ARM-Server basierend auf Caviums ThunderX2: Die GW4-Allianz und das Mont-Blanc-Projekt planen HPC-Systeme. Gebaut werden sie von Bull (Atos) und Cray, eines ist ein Prototyp für Exascale-Computing. Daran arbeitet auch China.
Künstliche statt menschliche Intelligenz: Eine japanische Versicherung will Auszahlungen künftig von IBMs Watson prüfen lassen. Dafür wird ein Teil der Angestellten entlassen.
Chips von Fujitsu, IBM, Intel und Nvidia: Der Supercomputer Marenostrum 4 des Barcelona Supercomputing Center nutzt sie alle. Die kombinierten Technologien sollen das System zu einem der schnellsten der Welt machen.
HPE will den Computer neu erfinden - die ersten Schritte sind getan: The Machine existiert als funktionierender Prototyp mit 4 TByte einheitlichem Speicher und optischer Verbindung zwischen mehreren Racks. Als Nächstes steht ReRAM auf dem Plan.
Noch kommendes Jahr soll der ABCI-Supercomputer einsatzbereit sein, angesetzt sind 130 Petaflops. Die lassen sich aber nicht mit denen des derzeit schnellsten System vergleichen. Japan möchte den ABCI für Erforschung von Künstlicher Intelligenz einsetzen und könnte Tesla-Chips von Nvidia nutzen.
In Texas steht der erste Supercomputer, der tagsüber vom Parkplatz aus mit Strom versorgt wird. Über den Autos sind Panels angebracht, um Solarenergie zu erzeugen. Nachts muss HPEs Hikari allerdings an die Steckdose.
Das sogenannte Heterogeneous Memory Management (HMM) ist wichtig zum Auslagern von Programmen auf GPUs. Der Linux-Kernel unterstützt HMM noch nicht offiziell. Nvidia hilft aber dem Red-Hat-Entwickler bei der Umsetzung - wohl für die aktuellen Supercomputer mit Nvidia-Karten.
Auf der SC16-Messe haben AMD und Intel mehrere Ankündigungen für High Performance Computing gemacht: Die ROCm-Plattform (Radeon Open Compute) unterstützt nun Polaris-Grafikkarten, und Intel aktualisiert die Broadwell-EP-Chips.
Bei den schnellsten Supercomputern der Welt tut sich etwas: Gleich vier Rechner setzen auf Intels Xeon-Phi-Prozessoren mit Knights Landing und zwei mit Nvidias Tesla P100 ausgestattete Systeme weisen eine enorm hohe Leistung pro Watt auf.
Ist Moore's Law am Ende? Das Erreichen der Exaflop-Marke scheint für Hersteller von Supercomputern nicht so einfach zu sein. 2020 soll eine solche Maschine installiert sein - ein spannender Wettbewerb auf dem Weg zum Exascale-Computing ist bis dahin sicher.
Von Stefan Lankes
GTC Europe 2016 Optimiert auf Deep Learning: Nvidia hat einen neuen Tegra-Chip angekündigt, Codename Xavier. Das SoC soll ein KI-Supercomputer sein, denn Nvidias Ziel ist mit 1 TOPS pro Watt ambitioniert.
Für Datacenter bis hin zu Supercomputern: Der Corelink verbindet Dutzende ARM-Kerne oder Beschleuniger in einem Mesh, auch DDR4-Speichercontroller und Caches werden eingeklinkt.
Hot Chips 28 Speziell für High Performance Computing: Eine neue Erweiterung bildet die Grundlage für ARM-basierte Supercomputer. Die ersten CPUs damit werden von Fujitsu entwickelt und sind breit ausgelegt.
Silicon Graphics wird ein Teil des Serverherstellers Hewlett Packard Enterprise. Der Hersteller, der einst 7 Milliarden US-Dollar wert war, kostete nur noch 275 Millionen US-Dollar.
Satte 3.840 Shader-Einheiten und 24 GByte GDDR5X-Videospeicher: Die Quadro P6000 könnte die schnellste Grafikkarte überhaupt werden, noch spricht Nvidia aber nicht über Taktraten. Dafür gibt es viele Neuerungen bei der Software, etwa bei Iray.
Golem.de-Wochenrückblick China hat den schnellsten Computer der Welt, deutsche Haushalte werden auf Smart Meter umgerüstet und die EU-Kommission fürchtet sich vor verschlüsseltem Spam. Sieben Tage und viele Meldungen im Überblick.
Von Fujitsu designte ARMv8-CPUs für den japanischen Post-K-Supercomputer und ARM-Kerne für den chinesischen Tianhe-2: Teile Asiens wenden sich von US-amerikanischer Hardware ab.
Bis zu 384 GByte DDR4 und 72 Kerne plus 16 GByte On-Package-Speicher: Intels neue Xeon-Phi-Prozessoren vom Typ Knights Landing sind unter anderem für Deep Learning gedacht. Erstmals sind die Chips gesockelt und optional mit Fabric erhältlich.
Die Top-500-Liste der schnellsten Supercomputer hat einen neuen Spitzenreiter: Der Sunway Taihu Light stammt aus China und nutzt CPUs aus eigener Entwicklung statt US-amerikanische von Intel.
Ein Modell mit NV-Link für IBMs Power8+ und Power9-Chips und zwei klassische PCIe-Steckkarten: Nvidias Tesla-P100-Rechenbeschleuniger für HPC-Systeme soll im Herbst 2016 ausgeliefert werden.
Hereinspaziert, liebe Fahrgäste, und nicht wundern: Olli hat keinen Fahrer. Der Elektrobus fährt sich selbst. Derzeit in einem Vorort von Washington, aber vielleicht auch bald in Berlin.
IBM und die US-Version der Sesamstraße machen gemeinsame Sache. Supercomputer Watson soll künftig die Vorschulbildung amerikanischer Kinder vorantreiben. Eine ungewöhnliche Markenkooperation, die Schule machen könnte.
GTC 2016 Europas schnellstes System wird noch schneller: Das Swiss National Supercomputing Centre rüstet den Piz Daint mit mehreren Tausend Beschleunigerkarten vom Typ Tesla P100 aus. Die Nvidia-Pascal-Modelle liefern zusammen 24 Petaflops bei doppelter Genauigkeit.
GTC 2016 Zwei Xeon-Prozessoren, acht Tesla-P100-Beschleuniger mit Pascal-Technik und 170 Teraflops bei halber Genauigkeit: Nvidias neuer DGX-1 ist ein Deep-Learning-Supercomputer im kompakten Rack-Format.
Offenbar sind mehr Arbeitsspeicher-Varianten für den Rowhammer-Angriff verwundbar, als bislang gedacht. Forscher haben jetzt einen Angriff auf DDR4-Speicher vorgestellt, auch professionelle Serverspeicher sollen betroffen sein.
Das Karlsruher Institut für Technologie hat den ForHLR II eingeweiht: Der neue Supercomputer mit asymmetrischem Rechenknoten-Aufbau liefert eine Spitzengeschwindigkeit von über einem Petaflops.
T-Platforms verbaut den Baikal-T1: Der russische Supercomputer-Hersteller verwendet den Prozessor in einem Thin Client inklusive Bildschirm, also einem All-in-One. Da der T1 eine CPU ist, stammt etwa die Grafikeinheit von anderen Entwicklern.
Das Internet Archive hat Tausende Shareware- und Freeware-Anwendungen für Windows 3.1 gesammelt und stellt sie jetzt zum Download bereit. Sie lassen sich im Browser testen - wir haben es ausprobiert.
Von Jörg Thoma
Offen statt proprietär: Mit einer Software-Initiative namens GPU Open möchte AMD im HPC-, Linux- und Spiele-Segment auf Open Source setzen. In Abgrenzung von Nvidia sollen so Entwickler und Nutzer gewonnen werden.
Das Europäische Zentrum für mittelfristige Wettervorhersage (ECMWF) hat begonnen, seine High Performance Computing Facility zu erweitern. Darin stecken Haswell- und Knights-Landing-Chips.
Was ein Gigant: Noch nicht einmal 100 Chips von Intels neuer Beschleunigerkarte Xeon Phi, Codename Knights Landing, passen auf einen Wafer. Jeder Chip enthält 76 angepasste x86-Kerne.
In der Top-500-Liste der leistungsstärksten Supercomputer führt weiterhin der chinesische Tianhe-2, die USA holen jedoch auf. Neu unter den besten Zehn ist der Hazel Hen aus Stuttgart.
Das Hewlett-Packard von damals gibt es nicht mehr. Das Unternehmen hat sich nun auch praktisch aufgeteilt in einen Bereich, der Geschäftsgroßkunden anspricht und einen, der Geschäftskunden und Endkunden aufteilt. Wer zuvor HP-Kunde war, muss sich auf einige Änderungen einstellen.
Warum ist jeder, der ein Bücherregal sortieren kann, schon ein Algorithmiker? Die Antwort darauf gibt der Mathematiker Sebastian Stiller in seinem Buch "Planet der Algorithmen - Versteht sie, bevor sie euch verstehen", das ab heute erhältlich ist. Ein Auszug.
Im Höchstleistungsrechenzentrum Stuttgart (HLRS) steht Hazel Hen, der flotteste Supercomputer Deutschlands, und auch im Deutschen Klimarechenzentrum (DKRZ) arbeitet ein neues System, der Mistral.
Neue Dienste für neue Anwendungen: Watson hat unter anderem neue Fähigkeiten unter anderem beim Sprachverständnis bekommen. IBM stellt auch weitere Schnittstellen zur Verfügung, damit Entwickler mit dem Supercomputer arbeiten können.
Der kognitive Supercomputer Watson lernt sehen. So beschreibt IBM den Zukauf von Merge Healthcare. Das Unternehmen stellt medizinische Bilddaten bereit, die Watson verbessern sollen.
Bessere Halbleiter für Leistungselektronik: Immer mehr Transistoren nutzen Galliumnitrid statt Silizium. Das ermöglicht kompaktere und effizientere Netzteile für Smartphones oder Elektroautos bis hin zu Supercomputern. Das kleinste Notebook-Netzteil stammt vom MIT.
Die USA möchten bei der Forschung in den Bereichen Klima, Luftfahrt und Medizin führend bleiben. Präsident Obama hat erlassen, dass innerhalb eines Jahrzehnts der erste Exascale-Supercomputer steht. Der wäre um den Faktor 20 schneller als das bisher stärkste System.
Mehr Leistung ist das Ziel: Die Darpa hilft dem Startup Rex Computing bei der Entwicklung eines Supercomputer-Chips. Der soll mindestens doppelt so effizient wie aktuelle Beschleuniger und Prozessoren sein und Basis des ersten Exascale-Supercomputers werden.