Tensorflow

Artikel
  1. Neuromorphic Computing: Intels Loihi-2-Chip nutzt eine Million Neuronen

    Neuromorphic Computing: Intels Loihi-2-Chip nutzt eine Million Neuronen

    Kleiner, effizienter, schneller: Mit dem Loihi 2 bringt Intel eine verbesserte Version seines ähnlich wie ein Gehirn arbeitenden Chips.

    01.10.20216 Kommentare
  2. Android: Googles Tensor-SoC ist eine halbe Mogelpackung

    Android: Googles Tensor-SoC ist eine halbe Mogelpackung

    Für seinen ersten eigenen Smartphone-Chip liefert Google ausschließlich Erwartbares und dämpft damit sämtliche Hoffnungen an besseren Support und gute Linux-Treiber.
    Ein IMHO von Sebastian GrĂ¼ner

    03.08.202151 Kommentare
  3. Cloud AI 100: Qualcomm will Nvidia bei Inferencing schlagen

    Cloud AI 100: Qualcomm will Nvidia bei Inferencing schlagen

    Dank der Smartphone-Expertise erreichen Qualcomms Cloud-AI-100-Karten exzellente Werte bei Performance und Leistung pro Watt.

    26.04.20210 Kommentare
  4. Cerebras WSE2: Dieser AI-Prozessor braucht über 20 Kilowatt

    Cerebras WSE2: Dieser AI-Prozessor braucht über 20 Kilowatt

    Cerebras' Wafer Scale Engine 2 (WSE-2) nutzt 850.000 Kerne und besteht aus einem gigantischen quadratischen TSMC-Chip mit Wasserkühlung.

    22.04.20218 Kommentare
  5. Snapdragon 888 im Detail: Der glückliche 5-nm-Prozessor

    Snapdragon 888 im Detail: Der glückliche 5-nm-Prozessor

    Wieder mit integriertem 5G-Modem und erstmals einem besonders schnellen CPU-Kern: Der Snapdragon 888 ist Qualcomms Aufgebot für 2021.
    Ein Bericht von Marc Sauter

    02.12.202024 Kommentare
Stellenmarkt
  1. Softwareentwickler MES (m/w/d)
    Hays AG, Dresden
  2. Clinical Trial Associate (f/m/d)
    ITM Isotope Technologies Munich SE, Garching
  3. Consultant IT-Security (m/w/d)
    operational services GmbH & Co. KG, Berlin, Hamburg, Wolfsburg
  4. Prozessmanager (m/w/d)
    Wilkening + Hahne GmbH+Co. KG, Bad Münder

Detailsuche



  1. Trainium: AWS hat Training-Chip selbst entwickelt

    Trainium: AWS hat Training-Chip selbst entwickelt

    Das Trainium-Design soll Training für maschinelles Lernen besonders preisgünstig in der eigenen AWS-Cloud ermöglichen.

    02.12.20200 Kommentare
  2. Habana Gaudi: AWS setzt auf Intel-Beschleuniger für KI-Training

    Habana Gaudi: AWS setzt auf Intel-Beschleuniger für KI-Training

    Amazons Cloud-Computing-Sparte AWS verwendet die Steckkarten der von Intel für 2 Milliarden US-Dollar zugekauften Habana Labs.

    02.12.20200 Kommentare
  3. Tensorflow, Thunderbird: Sonst noch was?

    Tensorflow, Thunderbird: Sonst noch was?

    Was am 19. November 2020 neben den großen Meldungen sonst noch passiert ist, in aller Kürze.

    19.11.20201 Kommentar
  4. Boeing 737, Angular: Sonst noch was?

    Boeing 737, Angular: Sonst noch was?

    Was am 12. November 2020 neben den großen Meldungen sonst noch passiert ist, in aller Kürze.

    12.11.20202 Kommentare
  5. Software-Entwicklung: Google veröffentlicht Android Studio 4.1

    Software-Entwicklung: Google veröffentlicht Android Studio 4.1

    Zu den praktischsten Neuerungen von Android Studio 4.1 dürften der Database Inspector und der integrierte Android-Emulator zählen.

    13.10.20200 KommentareVideo
  1. Cerebras: Wafer-großer Prozessor hat 850.000 Kerne

    Cerebras: Wafer-großer Prozessor hat 850.000 Kerne

    Hot Chips 32 Mit der Wafer Scale Engine 2 baut Cerebras erneut einen KI-Chip mit riesigen Ausmaßen.

    22.08.202026 Kommentare
  2. Jetson Nano: Der Raspberry Pi für KI-Anwendungen

    Jetson Nano: Der Raspberry Pi für KI-Anwendungen

    Der Jetson Nano ist ein Rechner für Machine Learning in der Größe eines Raspberry Pi. Wir haben einige KI-Anwendungen mit ihm ausprobiert.
    Von Dirk Koller

    04.06.202027 KommentareVideo
  3. Autonomes Fahren: Entwickler baut selbstfahrendes Auto für GTA V

    Autonomes Fahren: Entwickler baut selbstfahrendes Auto für GTA V

    Das Auto: ein Notebook mit Webcam. Die Fahrstrecke: die Autobahn von Los Santos in GTA V. Die Basis: Selbstfahrsoftware eines Honda Civic.

    13.05.202018 Kommentare
  1. Mozilla: Deep Speech unterstützt Transfer Learning

    Mozilla: Deep Speech unterstützt Transfer Learning

    Die Spracherkennung von Mozilla soll mit der aktuellen Version schneller werden und Modelle sollen sich einfacher anpassen lassen.

    27.04.20201 Kommentar
  2. Tensorflow: Google bringt Machine-Learning auf Quantenrechner

    Tensorflow: Google bringt Machine-Learning auf Quantenrechner

    Die Forschung an Machine-Learning sowie an Quantencomputern will Google mit Tensorflow Quantum zusammenbringen. Dabei hilft auch Volkswagen.

    10.03.20200 Kommentare
  3. Kubernetes: Machine-Learning-Framework Kubeflow wird stabil

    Kubernetes: Machine-Learning-Framework Kubeflow wird stabil

    Die Werkzeugsammlung Kubeflow soll es einfach ermöglichen, komplizierte Machine-Learning-Aufgaben mit Kubernetes aufzusetzen. Das Projekt erreicht nun die wichtige Version 1.0.

    03.03.20200 Kommentare
  1. LLVM: Google will mit MLIR den Compilerbau vereinfachen

    LLVM: Google will mit MLIR den Compilerbau vereinfachen

    Mehrere Google-Forscher überlegen in einer Abhandlung, wie sich der Bau von Intermediate Representations (IR) für domänenspezifische Programmiersprachen vereinfachen lässt. Das könnte große Auswirkungen auf den Compilerbau von LLVM haben.

    27.02.20200 Kommentare
  2. Open Source: Kraut- und Rüben-Software

    Open Source: Kraut- und Rüben-Software

    Open-Source-Entwickler haben auf der Fosdem die Open Food Facts vorgestellt - ein Wikipedia-artiges Projekt, das Informationen zu Lebensmitteln sammelt und bewertet. Aber auch darüber hinaus ist die Landwirtschaft ein Thema für die Entwickler.

    04.02.202010 Kommentare
  3. Chris Lattner: LLVM-Gründer wechselt zu RISC-V-Spezialist

    Chris Lattner: LLVM-Gründer wechselt zu RISC-V-Spezialist

    Der Gründer des Compiler-Projekts LLVM, Chris Lattner, ist künftig für das Platform Engineering der RISC-V-Spezialisten Sifive zuständig. Zuvor war Lattner bei Apple, Tesla und Google.

    28.01.20200 Kommentare
  1. Code-Hoster: Github will Einstieg in Open-Source-Projekt vereinfachen

    Code-Hoster: Github will Einstieg in Open-Source-Projekt vereinfachen

    Mit Hilfe von Machine Learning will Github seinen Nutzern künftig einfache erste Beitragsmöglichkeiten zu Open-Source-Projekten vorschlagen. Das ist das erste Deep-Learning-Produkt von Github.

    23.01.20201 Kommentar
  2. Snapdragon 720G/662/460: Qualcomm bringt 8-nm-Chips mit Navic und Wi-Fi 6

    Snapdragon 720G/662/460: Qualcomm bringt 8-nm-Chips mit Navic und Wi-Fi 6

    LTE bleibt trotz 5G weiter wichtig und mit Navic wird ein regionales indisches Satellitennavigationssystem unterstützt: Qualcomm hat den Snapdragon 720G mit 8-nm-Technik, den Snapdragon 662 mit HEIF-Support und den Snapdragon 460 mit Performance-Kernen vorgestellt.

    21.01.20200 Kommentare
  3. Computer Vision: Mehr Durchblick beim maschinellen Sehen

    Computer Vision: Mehr Durchblick beim maschinellen Sehen

    Mit den Services von Amazon, IBM, Microsoft und Google kann jeder recht einfach Bilder analysieren, ohne die genauen Mechanismen dahinter zu kennen. Die Anwendungen unterscheiden sich aber stark - vor allem im Funktionsumfang.
    Von Miroslav Stimac

    06.01.20207 KommentareVideo
  1. Coral Accelerator: Google bietet Mini-TPU als ASIC für eigene Boards

    Coral Accelerator: Google bietet Mini-TPU als ASIC für eigene Boards

    CES 2020 Mit seinen Coral-Produkten will Google seine KI-Beschleuniger einfacher für Entwickler zugänglich machen. Den dazugehörigen Mini-TPU-Chip gibt es jetzt als ASIC und außerdem ein neues Board.

    03.01.20203 Kommentare
  2. Deep Learning: BMW legt eigene KI-Algorithmen offen

    Deep Learning: BMW legt eigene KI-Algorithmen offen

    Auto-Hersteller BMW hat einige Maschine-Learning-Algorithmen als Open Source veröffentlicht, die das Unternehmen selbst produktiv einsetzt. Dabei handelt es sich vor allem um Bild- und Objekterkennung.

    16.12.20199 Kommentare
  3. Mozilla: Deep Speech wird klein und schnell

    Mozilla: Deep Speech wird klein und schnell

    Die freie Spracherkennung Deep Speech von Mozilla läuft in der aktuellen Version 0.6 auch auf wenig leistungsfähigen Chips in Echtzeit. Darüber hinaus hat das Team das Modell weiter deutlich verkleinert.

    06.12.201919 Kommentare
  4. Inferentia: Amazon bringt Java und Spezialhardware für Deep Learning

    Inferentia: Amazon bringt Java und Spezialhardware für Deep Learning

    Nutzern von Amazon Web Services steht künftig ein Inferencing-Chip für Deep-Learning-Aufgaben zur Verfügung. Der Machine-Learning-Dienst Sagemaker soll nun zudem vollständig automatisiert arbeiten können und das Unternehmen hat eine Java-Bibliothek für Deep Learning als Open Source bereitgestellt.

    04.12.20190 Kommentare
  5. Adobe Sensei: Hundebilder suchen per KI

    Adobe Sensei: Hundebilder suchen per KI

    Adobes künstliche Intelligenz kann Personen aus Bildern ausschneiden, Sprachaufnahmen verbessern, das Verhalten von Nutzern vorhersagen und vieles mehr. Wir haben mit einem der Entwickler über Vorhersagen von Nutzerverhalten, Datenschutz und einen Berliner Chatbot gesprochen.
    Von Martin Wolf

    21.11.20191 KommentarVideo
  6. Eoan Ermine: Ubuntu 19.10 erscheint mit ZFS und i386-Paketen

    Eoan Ermine: Ubuntu 19.10 erscheint mit ZFS und i386-Paketen

    Die aktuelle Version 19.10 von Ubuntu alias Eoan Ermine ist verfügbar. Die Version bringt experimentellen ZFS-Support für die Root-Partition, anders als zunächst geplant auch i386-Pakete sowie aktuelle Software für die Cloud und den Linux-Kernel 5.3.

    17.10.201926 Kommentare
  7. Vitis Software Platform: Xilinx' FPGAs einfacher und kostenlos programmieren

    Vitis Software Platform: Xilinx' FPGAs einfacher und kostenlos programmieren

    Entwickler müssen sich bei Xilinx' FPGAs nicht länger mit Hardware-Sprachen auseinandersetzen: Bei der Vitis Software Platform reichen C++ oder Python, um die Schaltungen zu programmieren.

    02.10.201915 Kommentare
  8. Machine Learning: Tensorflow 2.0 macht Keras-API zum zentralen Bestandteil

    Machine Learning: Tensorflow 2.0 macht Keras-API zum zentralen Bestandteil

    Mit der aktuellen Version 2.0 von Tensorflow soll das Deep-Learning-Framework deutlich einfacher und nutzerfreundlicher werden. Der dazu wohl wichtigste Punkt ist die Reduzierung des API auf Keras.

    01.10.20190 Kommentare
  9. Neural Structured Learning: Tensorflow lernt auf Graphen und strukturierten Daten

    Neural Structured Learning: Tensorflow lernt auf Graphen und strukturierten Daten

    Das Machine-Learning-Framework Tensorflow von Google ist um das sogenannte Neural Structured Learning erweitert worden. Damit können auch Graphen und anderen strukturierte Eingabesignale aus Lerngrundlage genutzt werden.

    05.09.20190 Kommentare
  10. Autonomes Fahren: Waymo gibt Sensordaten für Forscher frei

    Autonomes Fahren: Waymo gibt Sensordaten für Forscher frei

    Nur wenige Firmen haben so viele Daten für das autonome Fahren gesammelt wie Waymo. Googles Schwesterfirma gibt ein Terabyte davon frei - allerdings nicht für den Einsatz in Fahrzeugen.

    22.08.20194 Kommentare
  11. Cooper Lake: Intels Xeons mit bfloat16-Instruktion haben 56 Kerne

    Cooper Lake: Intels Xeons mit bfloat16-Instruktion haben 56 Kerne

    Die nächste Xeon-Generation, intern Cooper Lake genannt, sind CPUs mit 56 Kernen. Intel hat zudem eine Unterstützung für das bfloat16-Format für beschleunigtes maschinelles Lernen in die Chips integriert.

    06.08.201911 Kommentare
  12. Machine Learning: Google bietet vorgefertigte Umgebungen für KI-Training an

    Machine Learning: Google bietet vorgefertigte Umgebungen für KI-Training an

    Googles Deep Learning Containers sind in der Cloud gehostete Entwicklungsumgebungen, in der Nutzer ohne viel Einrichtungsaufwand ihre Machine-Learning-Software trainieren können. Die Container schöpfen Ressourcen direkt aus der Google-Cloud mit Intel-CPUs und Nvidia-GPUs. Amazon war aber zuerst da.

    27.06.20190 KommentareVideo
  13. Kohlendioxid-Ausstoß: Künstliche Intelligenz braucht viel Strom

    Kohlendioxid-Ausstoß: Künstliche Intelligenz braucht viel Strom

    Der Stromverbrauch und CO2-Ausstoß bei der Erstellung von Deep-Learning-Modellen ist erheblich, wie eine jetzt veröffentlichte Studie zeigt.

    11.06.201921 Kommentare
  14. Tinker Board Edge: Asus bringt weitere Bastelrechner mit viel RAM und KI-Chip

    Tinker Board Edge: Asus bringt weitere Bastelrechner mit viel RAM und KI-Chip

    Computex 2019 In Zukunft wird es drei Versionen der Asus-Bastelplatine geben: Das Tinker Board Edge R und CR1S-CM-A richten sich mit Google-KI-Chip an Hobbyentwickler und kleinere Industrieanwendungen. Das Tinker Board R hat mit 4 GByte RAM und 2 GByte RAM für den KI-Chip reichlich mehr Reserven.

    02.06.20196 Kommentare
  15. Spring Crest: Intels KI-Chip misst über 700 mm²

    Spring Crest: Intels KI-Chip misst über 700 mm²

    Mit dem Spring Crest genannten Design plant Intel einen eigenen Beschleuniger für künstliche Intelligenz. Der Chip ist sehr groß und für das Training neuronaler Netze mithilfe von Matrix-Multiplikationen ausgelegt, hinzu kommen 32 GByte Stapelspeicher für viel Bandbreite.

    15.04.20198 Kommentare
  16. Cloud AI 100: Qualcomm zeigt Steckkarte für künstliche Intelligenz

    Cloud AI 100: Qualcomm zeigt Steckkarte für künstliche Intelligenz

    Mit der Cloud AI 100 genannten Beschleunigerkarte für Inferencing will Qualcomm im Markt für künstliche Intelligenz ebenfalls eine Rolle spielen. Der Hersteller hebt vor allem die Effizienz des 7-nm-Chips hervor.

    09.04.20192 Kommentare
  17. KI-Ethik-Rat: Googles eigene Mitarbeiter wären eine bessere Wahl gewesen

    KI-Ethik-Rat: Googles eigene Mitarbeiter wären eine bessere Wahl gewesen

    Googles Ateac-Projekt wurde beendet. Es war von Anfang an zum Scheitern verurteilt: Warum beruft das Unternehmen offensichtlich intolerante Menschen ein? Die heftigen Proteste für Gleichberechtigung innerhalb des eigenen Teams zeigen doch, dass dort die eigentlichen Experten gefunden werden können.
    Ein IMHO von Oliver Nickel

    05.04.201912 Kommentare
  18. AWS DL Containers: AWS bietet vorgefertigte Umgebungen für KI-Entwicklung an

    AWS DL Containers: AWS bietet vorgefertigte Umgebungen für KI-Entwicklung an

    Entwickler können sich mit den AWS DL Containers die Einrichtung einer Umgebung für ihre Machine-Learning-Programme sparen. Die Docker-Container sind zu gängigen Frameworks wie Apache MXnet und Google Tensorflow kompatibel.

    28.03.20191 Kommentar
  19. Google: Tensorflow soll einsteigerfreundlicher und mobiler werden

    Google: Tensorflow soll einsteigerfreundlicher und mobiler werden

    Die Tensorflow 2.0 Alpha soll einfacher werden: Das erreicht Google, indem alle bis auf eine API gekürzt werden. Außerdem veröffentlicht das Unternehmen Tensorflow Lite, eine Variante, die KI-Software für mobile Geräte trainieren und anpassen kann.

    07.03.20198 KommentareVideo
  20. Machine Learning: Googles Mini-TPU kostet mit Board 150 US-Dollar

    Machine Learning: Googles Mini-TPU kostet mit Board 150 US-Dollar

    Um Machine-Learning-Modelle künftig noch schneller in sogenannten Edge-Geräten zu verwenden, verkauft Google nun wie angekündigt seine Edge-TPU. Diese gibt es als Entwicklerboard, als System-on-Module oder USB-Beschleuniger.

    06.03.20197 Kommentare
  21. AWS Summit Berlin: Amazon bemüht sich um besseres Open-Source-Engagement

    AWS Summit Berlin: Amazon bemüht sich um besseres Open-Source-Engagement

    Mit den Amazon Web Services bereichere sich das Unternehmen an Open-Source-Software, ohne viel zurückzugeben, sagen einige Kritiker. Das Unternehmen sieht sich selbst eher als "stillen Beitragenden" und bemüht sich um größeres Engagement.

    01.03.20195 Kommentare
  22. Machine Learning: Facebooks KI-Chef sucht neue Sprache für Deep Learning

    Machine Learning: Facebooks KI-Chef sucht neue Sprache für Deep Learning

    Der KI-Chef von Facebook möchte die aktuelle Herangehensweise an Deep-Learning-Probleme gern völlig neu denken. Dazu gehört eine Programmiersprache, die effizienter ist als Python, ebenso wie neue Hardware, die nicht nur Matrizen multipliziert.

    19.02.20196 KommentareVideo
  23. Autonome Schiffe: Und abends geht der Kapitän nach Hause

    Autonome Schiffe: Und abends geht der Kapitän nach Hause

    Weite Reisen in ferne Länder, eine Braut in jedem Hafen: Klischees über die Seefahrt täuschen darüber hinweg, dass diese ein Knochenjob ist. Doch in wenigen Jahren werden Schiffe ohne Besatzung fahren, überwacht von Steuerleuten, die nach dem Dienst zur Familie zurückkehren. Daran arbeitet etwa Rolls Royce.
    Ein Bericht von Werner Pluta

    04.12.2018113 KommentareVideoAudio
  24. AWS: Amazon bietet seine Machine-Learning-Tutorials kostenlos an

    AWS: Amazon bietet seine Machine-Learning-Tutorials kostenlos an

    Wo fangen Entwickler an, wenn es um Amazons Machine-Learning-Dienste geht? Das Unternehmen stellt unentgeltlich Onlinekurse zur Verfügung, die diese und andere Fragen beantworten sollen. Die Kurse beziehen sich auf AWS-Produkte und werden von Amazon selbst auch für interne Weiterbildungen genutzt.

    27.11.20180 Kommentare
  25. Graviton: Amazon hat Instanzen mit eigenen ARM-Prozessoren

    Graviton: Amazon hat Instanzen mit eigenen ARM-Prozessoren

    Nach jahrelanger Entwicklung bietet Amazon neue günstige Cloud-Instanzen an, die auf selbst designten ARM-64-Bit-Chips basieren. Die zu mietende Rechenleistung kostet weniger als die von Intel-Prozessoren, überdies gibt es mittlerweile Instanzen mit AMDs Epyc-CPUs.

    27.11.20186 Kommentare
  26. Plumbers Conference: Linux-Entwickler will einheitliche Cuda-Alternative schaffen

    Plumbers Conference: Linux-Entwickler will einheitliche Cuda-Alternative schaffen

    Der Betreuer des Grafik-Subsystems des Linux-Kernels, David Airlie, schlägt vor, eine einheitliche Open-Source-Alternative zu der Cuda-Bibliothek zu schaffen. Die Grundlagen dafür seien bereits vorhanden.

    19.11.20181 Kommentar
  27. Alveo-Accelerator: Xilinx hat Beschleunigerkarten für künstliche Intelligenz

    Alveo-Accelerator: Xilinx hat Beschleunigerkarten für künstliche Intelligenz

    Der FPGA-Spezialist Xilinx verkauft drei Alveo-Modelle als Beschleuniger für maschinelles Lernen, etwa Inferencing. Ein erster Partner ist Dell EMC, ein System schaffte vor einigen Wochen gar einen Weltrekord.

    15.11.20180 KommentareVideo
  28. Programmiersprachen, Pakete, IDEs: So steigen Entwickler in Machine Learning ein

    Programmiersprachen, Pakete, IDEs: So steigen Entwickler in Machine Learning ein

    Programme zum Maschinenlernen stellen andere Herausforderungen an Entwickler als die klassische Anwendungsentwicklung, denn hier lernt der Computer selbst. Wir geben eine Übersicht über die wichtigsten Entwicklerwerkzeuge - inklusive Programmierbeispielen.
    Von Miroslav Stimac

    12.11.201840 Kommentare
Folgen Sie uns
       


Haben wir etwas übersehen?

E-Mail an news@golem.de



  1. Seite: 
  2. 1
  3. 2
  4. 3
  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #