Zum Hauptinhalt Zur Navigation

Glasfaser: Das private Netzwerk auf 10 Gigabit pro Sekunde upgraden

Erst bin ich mein temporäres Ethernet-Kabel losgeworden und habe es durch eine Glasfaserverbindung ersetzt. Jetzt folgt das Upgrade.
/ Michael Stapelberg
111 Kommentare News folgen (öffnet im neuen Fenster)
Heimnetz zu langsam? Hier die Anleitung zu einem Upgrade auf 10 Gigabit. (Bild: Pixabay)
Heimnetz zu langsam? Hier die Anleitung zu einem Upgrade auf 10 Gigabit. Bild: Pixabay

Dieser Text ist eine Übersetzung. Das Original ist im Blog von Michael Stapelberg(öffnet im neuen Fenster) zu finden.

Bis vor einiger Zeit hatte ich ein Ethernet-Kabel, das meine Küche mit dem Rest meines Netzwerks verband, welches sich größtenteils im Wohnzimmer und im Büro befindet. Es war ein Experiment, um zu überprüfen, ob der Betrieb eines oder zweier Server in meiner Küche tatsächlich funktioniert (und das tut er!).

Ich mochte die Einfachheit und Einheitlichkeit dieser Vernetzung, beschloss aber doch, mindestens eine Glasfaserverbindung für mein privates Netzwerk hinzuzufügen(öffnet im neuen Fenster) . Die Glasfaserverbindung wird mit zwei Medienkonvertern vom/zum Ethernet hergestellt. Jetzt nehme ich ein Upgrade dieser Verbindung von 1 auf 10 Gigabit pro Sekunde vor.

Schematisch sieht der Anschlussplan wie folgt aus:

Alle Verbindungen nutzen 1 Gigabit pro Sekunde. So lässt sich leicht erkennen, dass beispielsweise für die Übertragungen zwischen chuchi ↔ router7 und storage2 ↔ midna nicht gleichzeitig 1 Gigabit pro Sekunde genutzt werden kann.

Das aktuelle Upgrade soll Folgendes bewirken:

1. Als Grundlage durchgängig 1 Gigabit pro Sekunde: Es soll sichergestellt werden, dass sich der Betrieb meines Server-PCs, der beispielsweise die Installationsdateien und Pakete aus meinem Distri-Linux-Projekt zur Verfügung stellt, nicht mehr auf andere Transfers in meinem Heimnetz auswirken und von diesen auch nicht beeinträchtigt werden kann; zum Beispiel, wenn die Glasfaserverbindung in meinem privaten Netzwerk durch die täglichen Backups ausgelastet wird.

2. In Spitzen 10 Gigabit pro Sekunde: Ich möchte die Möglichkeit haben, Linux-PCs auf beiden Seiten der Verbindung auf eine Spitzenbandbreite von 10 Gigabit pro Sekunde zu erweitern.

Dabei ist zu beachten, dass der Uplink ins Internet weiterhin bei 1 Gigabit pro Sekunde bleibt. Nur Übertragungen innerhalb des privaten Netzwerks können mit 10 Gigabit pro Sekunde durchgeführt werden.

Ersetzen der Medienkonverter durch Mikrotik-Switches

Zuerst ersetze ich die beiden Medienkonverter und Switches durch je einen Mikrotik CRS305-1G-4S+IN(öffnet im neuen Fenster) .

Dieses Gerät(öffnet im neuen Fenster) ist mit fünf Anschlüssen ausgestattet:

  • 1 × RJ45-Ethernet-Anschluss für die Verwaltung, kann als regulärer Anschluss mit 1 Gigabit pro Sekunde genutzt werden.
  • 4 × SFP+-Anschlüsse

Jeder SFP+-Anschluss kann entweder mit einem RJ-45-Ethernet-Anschluss oder einem Glasfaser-SFP+-Modul verwendet werden. Warnhinweis: Wie Nexus2kSwiss auf Twitter verlautbart hat(öffnet im neuen Fenster) , unterstützt dieses Mikrotik-Gerät maximal 2 RJ-45 SFPs gleichzeitig!

Upgrade der Glasfasermodule

Für die Glasfaserverbindung zwischen Küche und Wohnzimmer verwende ich SFP+-Glasfasermodule mit 10 Gigabit pro Sekunde. Alle Geräte, die eine garantierte durchgängige Verbindung mit 1 Gigabit pro Sekunde benötigen, müssen direkt an einen Mikrotik-Switch angeschlossen werden.

Nach Möglichkeit verbinde ich die PCs über Direct-Attach-Kabel (DAC). Der Vorteil von DAC-Kabeln gegenüber RJ45-SFP+-Modulen liegt in einem geringeren Stromverbrauch und weniger Hitzeentwicklung.

Daraus ergibt sich folgende Liste von SFP-Modulen, die in den beiden Mikrotik-Switches zum Einsatz kommen:

Liste von SFP-Modulen
MikroTik 1 SFP Geschwindigkeit Geschwindigkeit MikroTik 2 SFP
chuchi 10 Gigabit pro Sekunde DAC 10 Gigabit pro Sekunde DAC midna
storage2 1 Gigabit pro Sekunde RJ45 1 Gigabit pro Sekunde RJ45 router7
10 Gigabit pro Sekunde BiDi - BiDi-Glasfaserverbindung -> 10 Gigabit pro Sekunde BiDi

Beschaffung der Hardware

Die Gesamtkosten für dieses Upgrade belaufen sich auf 700 bis 900 Euro (Stand: Mitte August), wovon der größte Anteil auf die Mellanox-ConnectX-3-Netzwerkkarten und die Mikrotik-Switches entfällt.

Bestellung bei FS (Fiber Store)

FS.com(öffnet im neuen Fenster) war meine Bezugsquelle für sämtliche Hardware im Glasfaserbereich. Alle dort verfügbaren Produkte sind recht preisgünstig und die Produkte, die im deutschen Lager vorrätig sind, kamen (zumindest zum Zeitpunkt meiner Bestellung im Juni) noch in derselben Woche in der Schweiz an.

Preise und Bezeichnungen
Anzahl Preis Bezeichnung
1x rund 48 Euro (Stand: Mitte August 2022) Generisch kompatibel 10GBASE-BX BiDi SFP+ 1270nm-TX/1330nm-RX 10km DOM Transceiver Modul, FS P/N: SFP-10G-BX #74681
1x rund 48 Euro (Stand: Mitte August 2022) Generisch kompatibel 10GBASE-BX BiDi SFP+ 1330nm-TX/1270nm-RX 10km DOM Transceiver Modul, FS P/N: SFP-10G-BX #74682
2x rund 20 Euro (Stand: Mitte August 2022) Generisch kompatibles 10G SFP+ passives Twinax Kupfer Direct Attach-Kabel (DAC), 3m

Bestellung bei Digitec

Ein paar Dinge hat FS.com nicht auf Lager. Die habe ich bei Digitec(öffnet im neuen Fenster) , einem großen und beliebten Elektronikladen in der Schweiz, gekauft. Höchstwahrscheinlich sind die Produkte, die es bei Digitec gibt, auch in jedem anderen großen Elektronikfachgeschäft erhältlich.

Mikrotik-Switch bei Digitec
Anzahl Preis Bezeichnung
2x 175 CHF (rund 180 Euro; Stand Mitte August 2022/in anderen Shops mitunter auch schon ab 150 Euro) MikroTik CRS305-1G-4S+IN-Switch

Weitere Bestellungen

Die Mellanox-Karten sind nicht so leicht zu bekommen, wie ich es mir eigentlich wünsche. Ich warte gerade noch auf eine Karte von FS.com, die vielleicht die bessere Wahl ist.

Mellanox-Karten
Anzahl Preis Bezeichnung
2x zwischen 150 und 200 Euro (Stand: Mitte August 2022) Mellanox ConnectX-3 MCX311A-XCAT

Setup der Mikrotik-Switches

Ich möchte meine Switches als reine Switches nutzen, ohne jegliches Routing oder andere Layer-3-Funktionen, welche eventuell die Bandbreite reduzieren könnten. Deshalb führe ich als erstes ein Reboot des Mikrotik CRS305-1G-4S+(öffnet im neuen Fenster) auf SwOS durch:

1. Im Menü der Weboberfläche navigiere ich zu System → Routerboard → Settings, öffne das Dropdown-Menü Boot OS und wähle die Option SwOS aus.

2. Dann navigiere ich im Menü der Weboberfläche zu System → Reboot.

3. Nach dem Reboot des Gerätes ändere ich den Hostnamen, der auf Mikrotik zurückgesetzt wurde.

Anschließend führe ich ein Upgrade der Firmware auf 2.12 durch, um ein merkwürdiges Problem mit bestimmten Kombinationen aus SFP-Modulen zu beheben (SFP-10G-BX in SFP1, SFP-10G-T in SFP2): Auf der Weboberfläche von SwOS wähle ich die Registerkarte Upgrade aus und klicke auf Download & Upgrade.

Setup der Netzwerkkarte (Linux)

Nach dem Booten mit der Mellanox ConnectX-3 in einem PCIe-Slot sollte die Karte unter dmesg(8)(öffnet im neuen Fenster) angezeigt werden:

    

mlx4_core: Mellanox ConnectX core driver v4.0-0
mlx4_core: Initializing 0000:03:00.0
mlx4_core 0000:03:00.0: DMFS high rate steer mode is: disabled performance optimized steering
mlx4_core 0000:03:00.0: 31.504 Gb/s available PCIe bandwidth (8.0 GT/s PCIe x4 link)
mlx4_en: Mellanox ConnectX HCA Ethernet driver v4.0-0
mlx4_en 0000:03:00.0: Activating port:1
mlx4_en: 0000:03:00.0: Port 1: Using 16 TX rings
mlx4_en: 0000:03:00.0: Port 1: Using 16 RX rings
mlx4_en: 0000:03:00.0: Port 1: Initializing port
mlx4_en 0000:03:00.0: registered PHC clock
mlx4_core 0000:03:00.0 enp3s0: renamed from eth0
ᐸmlx4_ibᐳ mlx4_ib_add: mlx4_ib: Mellanox ConnectX InfiniBand driver v4.0-0
ᐸmlx4_ibᐳ mlx4_ib_add: counter index 1 for port 1 allocated 1
mlx4_en: enp3s0: Steering Mode 1
mlx4_en: enp3s0: Link Up

Es gibt noch eine andere Möglichkeit, um auf dem PCIe-Bus des Computers zu überprüfen, ob das Gerät mit Höchstgeschwindigkeit läuft: Man stellt sicher, dass LnkSta mit LnkCap in der Ausgabe lspci(8)(öffnet im neuen Fenster) übereinstimmt:

    

% sudo lspci -vv
03:00.0 Ethernet controller: Mellanox Technologies MT27500 Family [ConnectX-3]
        Subsystem: Mellanox Technologies Device 0055

[...]
	Capabilities: [60] Express (v2) Endpoint, MSI 00
[...]
		LnkCap:	Port #8, Speed 8GT/s, Width x4, ASPM L0s, Exit Latency L0s unlimited
			ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+
		LnkCtl:	ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
			ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
		LnkSta:	Speed 8GT/s (ok), Width x4 (ok)
			TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
[...]

Alternativ kann mit ethtool(8)(öffnet im neuen Fenster) überprüft werden, ob die Netzwerkverbindung mit 10 Gigabit pro Sekunde ausgeführt wird:

    

% sudo ethtool enp3s0
Settings for enp3s0:
	Supported ports: [ FIBRE ]
	Supported link modes:   1000baseKX/Full
	                        10000baseKR/Full
	Supported pause frame use: Symmetric Receive-only
	Supports auto-negotiation: No
	Supported FEC modes: Not reported
	Advertised link modes:  1000baseKX/Full
	                        10000baseKR/Full
	Advertised pause frame use: Symmetric
	Advertised auto-negotiation: No
	Advertised FEC modes: Not reported
	Speed: 10000Mb/s
	Duplex: Full
	Auto-negotiation: off
	Port: Direct Attach Copper
	PHYAD: 0
	Transceiver: internal
	Supports Wake-on: d
	Wake-on: d
        Current message level: 0x00000014 (20)
                               link ifdown
	Link detected: yes

Benchmarks für Batch-Übertragungen

Wie bereits in der Einführung erwähnt, wird das Routing mit 10 Gigabit pro Sekunde (also viele kleine Pakete statt weniger großer Pakete) in diesem Artikel nicht behandelt. Interessante Informationen zur Routing-Leistung sind in Andree Toonks Post(öffnet im neuen Fenster) zu finden, in dem bestätigt wird, dass unter Linux ein Routing mit 10 Gigabit pro Sekunde möglich ist.

In den folgenden Abschnitten werden einzelne Batch-Übertragungen großer Dateien, nicht viele kleine Übertragungen behandelt.

Geschwindigkeitstest für iperf3

Standardmäßig sind die Geschwindigkeiten, die mit iperf3(1)(öffnet im neuen Fenster) gemessen werden, ganz ordentlich:

    

chuchi % iperf3 --version
iperf 3.6 (cJSON 1.5.2)
Linux chuchi 4.19.0-16-amd64 #1 SMP Debian 4.19.181-1 (2021-03-19) x86_64
Optional features available: CPU affinity setting, IPv6 flow label, SCTP, TCP congestion algorithm setting, sendfile / zerocopy, socket pacing, authentication

chuchi % iperf3 --server
[...]

midna % iperf3 --version          
iperf 3.9 (cJSON 1.7.13)
Linux midna 5.12.1-arch1-1 #1 SMP PREEMPT Sun, 02 May 2021 12:43:58 +0000 x86_64
Optional features available: CPU affinity setting, IPv6 flow label, TCP congestion algorithm setting, sendfile / zerocopy, socket pacing, authentication

midna % iperf3 --client chuchi.lan
Connecting to host 10.0.0.173, port 5201
[  5] local 10.0.0.76 port 43168 connected to 10.0.0.173 port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec  1.10 GBytes  9.42 Gbits/sec    0   1.62 MBytes       
[  5]   1.00-2.00   sec  1.09 GBytes  9.41 Gbits/sec    0   1.70 MBytes       
[  5]   2.00-3.00   sec  1.10 GBytes  9.41 Gbits/sec    0   1.70 MBytes       
[  5]   3.00-4.00   sec  1.09 GBytes  9.41 Gbits/sec    0   1.78 MBytes       
[  5]   4.00-5.00   sec  1.09 GBytes  9.41 Gbits/sec    0   1.87 MBytes       
[  5]   5.00-6.00   sec  1.10 GBytes  9.42 Gbits/sec    0   1.87 MBytes       
[  5]   6.00-7.00   sec  1.10 GBytes  9.42 Gbits/sec    0   1.87 MBytes       
[  5]   7.00-8.00   sec  1.10 GBytes  9.41 Gbits/sec    0   1.87 MBytes       
[  5]   8.00-9.00   sec  1.09 GBytes  9.41 Gbits/sec    0   1.96 MBytes       
[  5]   9.00-10.00  sec  1.09 GBytes  9.38 Gbits/sec  402   1.52 MBytes       
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec  11.0 GBytes  9.41 Gbits/sec  402             sender
[  5]   0.00-10.00  sec  11.0 GBytes  9.40 Gbits/sec                  receiver

iperf Done.

HTTP-Geschwindigkeitstest

Der Download einer Datei von einem nginx(1)(öffnet im neuen Fenster) -Webserver über curl(1)(öffnet im neuen Fenster) ist ebenfalls schnell:

    

% curl -o /dev/null http://chuchi.lan/distri/supersilverhaze/img/distri-disk.img.zst
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                            Dload  Upload   Total   Spent    Left  Speed
100  934M  100  934M  0  0  1118M     0 --:--:-- --:--:-- --:--:-- 1117M

Hierbei ist zu beachten, dass dieser Download aus dem RAM (Linux-Dateicache) erfolgt. Das nächste Upgrade, das ich für diesen Computer vornehmen muss, ist der Austausch der SATA SSD mit einer NVMe SSD, da die Festplatte jetzt den Engpass bildet.

Fazit

Dieses Upgrade war erfreulich einfach: ein bisschen neue Hardware anschließen und schon werden Batch-Übertragungen schneller. Der Mikrotik-Switch hat ein hervorragendes Preis-Leistungs-Verhältnis und die Mellanox-ConnectX-3-Karten funktionieren gut, vorausgesetzt, sie sind zu bekommen.

Anhang A: Umstieg von RJ45-SFP+-Modulen auf Direct-Attach-Kabel

Ursprünglich hatte ich alle PCs aus den folgenden Gründen über RJ45 SFP+-Module an die Mikrotik-Switches angeschlossen:

1. Meine erste Wahl waren Intel-X550-T2-PCIe-Netzwerkkarten (öffnet im neuen Fenster) mit 10 Gigabit pro Sekunde für RJ45.

2. Die SFP+-Module sind abwärtskompatibel und können auch mit RJ45-Geräten mit 1 Gigabit pro Sekunde genutzt werden. So ist ein bequemes schrittweises Upgrade möglich.

Später habe ich festgestellt, dass die RJ45-SFP+-Module deutlich mehr Strom verbrauchen und auch deutlich wärmer werden als Direct-Attach-Kabel (DAC). Ich habe sogar nachgemessen: Jedes RJ45-SFP+-Modul sorgte dafür, dass mein BiDi-SFP+-Modul 5° C wärmer wurde!

Ich habe ein RJ45-SFP+-Modul durch ein Direct-Attach-Kabel ersetzt. Kurze Zeit später ersetzte ich dann auch das andere RJ45-SFP+-Modul durch ein Direct-Attach-Kabel. Hier wird deutlich sichtbar, dass die Temperatur des BiDi-SFP+-Moduls um 10° C gefallen ist.

Der Mikrotik-Switch ist immer noch ziemlich heiß, was die Arbeit bei eingeschaltetem Switch schwierig macht.

Anhang B: Setup der Netzwerkkarte (Linux) mit Intel X550-T2

Zu Referenzzwecken findet sich hier das Setup für die Netzwerkkarte (Linux) mit der zuvor verwendeten Intel X550-T2. Nach dem Booten mit der Intel X550-T2 in einem PCIe-Slot sollte die Karte unter dmesg(8)(öffnet im neuen Fenster) angezeigt werden:

    

ixgbe: Intel(R) 10 Gigabit PCI Express Network Driver
ixgbe 0000:03:00.0: Multiqueue Enabled: Rx Queue count = 16, Tx Queue count = 16 XDP Queue count = 0
ixgbe 0000:03:00.0: 31.504 Gb/s available PCIe bandwidth (8.0 GT/s PCIe x4 link)
ixgbe 0000:03:00.0: MAC: 4, PHY: 0, PBA No: H86377-006
ixgbe 0000:03:00.0: Intel(R) 10 Gigabit Network Connection
libphy: ixgbe-mdio: probed
ixgbe 0000:03:00.1: Multiqueue Enabled: Rx Queue count = 16, Tx Queue count = 16 XDP Queue count = 0
ixgbe 0000:03:00.1: 31.504 Gb/s available PCIe bandwidth (8.0 GT/s PCIe x4 link)
ixgbe 0000:03:00.1: MAC: 4, PHY: 0, PBA No: H86377-006
tun: Universal TUN/TAP device driver, 1.6
ixgbe 0000:03:00.1: Intel(R) 10 Gigabit Network Connection
libphy: ixgbe-mdio: probed
ixgbe 0000:03:00.0 enp3s0f0: renamed from eth0
ixgbe 0000:03:00.1 enp3s0f1: renamed from eth1
pps pps0: new PPS source ptp1
ixgbe 0000:03:00.0: registered PHC device on enp3s0f0
pps pps1: new PPS source ptp2
ixgbe 0000:03:00.1: registered PHC device on enp3s0f1

Wenn nur einer der beiden Netzwerkanschlüsse der Karte genutzt wird, tritt wahrscheinlich selbst dann kein Engpass auf, wenn die Karte nur mit doppelter PCIe-3.0-Verbindungsgeschwindigkeit(öffnet im neuen Fenster) ausgeführt wird. Das habe ich allerdings nicht überprüft.

Eine andere Möglichkeit, um auf dem PCIe-Bus des Computers zu überprüfen, ob das Gerät mit Höchstgeschwindigkeit läuft, besteht darin, sicherzustellen, dass LnkSta mit LnkCap in der Ausgabe lspci(8)(öffnet im neuen Fenster) übereinstimmt:

    

% sudo lspci -vv
[...]
03:00.0 Ethernet controller: Intel Corporation Ethernet Controller 10G X550T (rev 01)
        Subsystem: Intel Corporation Ethernet Converged Network Adapter X550-T2
[...]
        Capabilities: [a0] Express (v2) Endpoint, MSI 00
[...]
                LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s ᐸ2us, L1 ᐸ16us
                        ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 8GT/s (ok), Width x4 (ok)
                        TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
[...]

Alternativ kann mit ethtool(8)(öffnet im neuen Fenster) überprüft werden, ob die Netzwerkverbindung mit 10 Gigabit pro Sekunde ausgeführt wird:

    

% sudo ethtool enp3s0f1
Settings for enp3s0f1:
	Supported ports: [ TP ]
	Supported link modes:   100baseT/Full
	                        1000baseT/Full
	                        10000baseT/Full
	                        2500baseT/Full
	                        5000baseT/Full
	Supported pause frame use: Symmetric
	Supports auto-negotiation: Yes
	Supported FEC modes: Not reported
	Advertised link modes:  100baseT/Full
	                        1000baseT/Full
	                        10000baseT/Full
	Advertised pause frame use: Symmetric
	Advertised auto-negotiation: Yes
	Advertised FEC modes: Not reported
	Speed: 10000Mb/s
	Duplex: Full
	Auto-negotiation: on
	Port: Twisted Pair
	PHYAD: 0
	Transceiver: internal
	MDI-X: Unknown
	Supports Wake-on: d
	Wake-on: d
        Current message level: 0x00000007 (7)
                               drv probe link
	Link detected: yes

Anhang C: BIOS-Update für Mellanox ConnectX-3

Auf meinem Mainboard Supermicro X11SSZ-QF konnte die Mellanox ConnectX-3 keine Verbindung herstellen. Der Treiber für den Linux-Kernel der Mellanox hat mehrere Fehler verzeichnet:

    

kernel: mlx4_en: enp1s0: CQE error - cqn 0x8e, ci 0x0, vendor syndrome: 0x57 syndrome: 0x4
kernel: mlx4_en: enp1s0: Related WQE - qpn 0x20d, wqe index 0x0, wqe size 0x40
kernel: mlx4_en: enp1s0: Scheduling port restart
kernel: mlx4_core 0000:01:00.0: Internal error detected:
kernel: mlx4_core 0000:01:00.0: device is going to be reset
kernel: mlx4_core 0000:01:00.0: crdump: devlink snapshot disabled, skipping
kernel: mlx4_core 0000:01:00.0: device was reset successfully
kernel: mlx4_en 0000:01:00.0: Internal error detected, restarting device
kernel: ᐸmlx4_ibᐳ mlx4_ib_handle_catas_error: mlx4_ib_handle_catas_error was started
kernel: ᐸmlx4_ibᐳ mlx4_ib_handle_catas_error: mlx4_ib_handle_catas_error ended
kernel: mlx4_core 0000:01:00.0: command 0x21 failed: fw status = 0x1
kernel: pcieport 0000:00:1c.0: AER: Uncorrected (Fatal) error received: 0000:00:1c.0
kernel: pcieport 0000:00:1c.0: PCIe Bus Error: severity=Uncorrected (Fatal), type=Transaction Layer, (Receiver ID)
kernel: mlx4_core 0000:01:00.0: command 0x43 failed: fw status = 0x1
kernel: infiniband mlx4_0: ib_query_port failed (-5)
kernel: pcieport 0000:00:1c.0:   device [8086:a110] error status/mask=00040000/00010000
kernel: pcieport 0000:00:1c.0:    [18] MalfTLP                (First)
kernel: pcieport 0000:00:1c.0: AER:   TLP Header: 4a000001 01000004 00000000 00000000
kernel: mlx4_core 0000:01:00.0: mlx4_pci_err_detected was called
kernel: mlx4_core 0000:01:00.0: Fail to set mac in port 1 during unregister
systemd-networkd[313]: enp1s0: Link DOWN
kernel: mlx4_en: enp1s0: Failed activating Rx CQ
kernel: mlx4_en: enp1s0: Failed restarting port 1
kernel: mlx4_en: enp1s0: Link Down
kernel: mlx4_en: enp1s0: Close port called
systemd-networkd[313]: enp1s0: Lost carrier
kernel: mlx4_en 0000:01:00.0: removed PHC
kernel: mlx4_core 0000:01:00.0: mlx4_restart_one_up: ERROR: mlx4_load_one failed, pci_name=0000:01:00.0, err=-5
kernel: mlx4_core 0000:01:00.0: mlx4_restart_one was ended, ret=-5
systemd-networkd[313]: enp1s0: DHCPv6 lease lost
kernel: pcieport 0000:00:1c.0: AER: Root Port link has been reset
kernel: mlx4_core 0000:01:00.0: mlx4_pci_resume was called
kernel: mlx4_core 0000:01:00.0: Multiple PFs not yet supported - Skipping PF
kernel: mlx4_core 0000:01:00.0: mlx4_pci_resume: mlx4_load_one failed, err=-22
kernel: pcieport 0000:00:1c.0: AER: device recovery successful

Geholfen hat die Aktualisierung des X11SSZ-QF BIOS auf die neueste Version.


Relevante Themen