Einbinden einer neuen Festplatte bei Linux zur Laufzeit

In Zeiten zunehmender Virtualisierung (mit VMware vSphere, KVM, Citrix usw.) wird es immer häufiger notwendig Festplatten im laufenden Betrieb einzubinden, da diese ohne Neustart einfach zu einer virtuellen Maschine hinzufügen wurden. Bei Linux tauchen diese Platten ohne Neustart des Gastes aber nicht so einfach auf. Damit man diese auch im laufenden Betrieb zu Gesicht bekommt, muss der Kernel die Festplattenkonfiguration neu einlesen. Wie dies ohne Neustart geht, möchte ich in diesem Artikel dokumentieren.

Welche Speicher-Adapter kennt das System?

In dem Verzeichnis /sys/class/scsi_host befindensich die dem Kernel bekannten Speicher-Adapter des Systems. Der folgende Befehl zweigt die Adapter an.

ls /sys/class/scsi_host

Wie bringe ich die Speicher-Adapter dazu neue Festplatten zu erkennen?

Mit der folgenden Schleife, bringt man alle Speicher-Adapter des Systems dazu im laufenden Betrieb nach neuen Festplatten zu suchen.

for f in /sys/class/scsi_host/host*; do echo '- - -' > $f/scan; done

Wie bringe ich die Speicher-Adapter dazu Größenänderung bei Festplatten zu erkennen?

Wenn es sich nicht um eine neue neue Festplatte sondern nur um eine geänderte handelt, wird es noch etwas komplizierter. Dank ein bisschen Zauberei mit awk, kann man auch eine Schleife bauen, die bei allen Blockdevices nach Änderungen suchen lässt. Diese sieht dann so aus.

for d in $(lsblk -Sln | awk '{if ( $3 == "disk" ) print $1}'); do echo 1 > /sys/class/block/$d/device/rescan; done

Achtung: Fehlfunktion durch ablaufende Sicherheitszertifikate bei den Dell OS10 Switches

Dell hat gerade seine Kunden gerade per E-Mail angeschrieben und vor einem besonders heimtückischen Problem bei den OS10 Switches gewarnt. Bestimmte Versionen von OS10 (beginnend mit 10.4.1.4 bis 10.5.0.7 P3) enthalten ein Standardzertifikat, das für VLT Peer Establishment und die SFS-Cluster-Bildung verwendet wird. Und genau dieses Standardzertifikat läuft am 27. Juli 2021 ab. Dell beschreibt im Knowledge Artikel 000184027, wie man das Ablaufen des Zertifikates verhindern kann. In den meisten Konstellationen wird ein Update des OS10 auf eine aktuelle Version empfohlen. Ein Update von OS10 verursacht einen Netzwerkausfall. Deshalb sollten betroffenen diesen Artikel unbedingt zu Ende lesen.

Wenn das Zertifikat abläuft kann es zu massiven Fehlfunktionen bei betroffenen Switches kommen, sofern auf diesen VLT Peer Establishment und die SFS-Cluster-Bildung verwendet wird. Es könnte z.B. zu einem nachfolgenden Switch-Neustart, einer Link-Flap-Lösung, einer Operator-ausgelösten Konfigurationsänderung, VMotion und anderen Netzwerkereignissen kommen.

Aktualisierung von OS10 löst das Problem

Auf den von mir betreuten Switchen war die OS10 Version 10.5.0.1P1 installiert. Somit waren diese betroffen. Um das Problem zu lösen, empfiehlt Dell ein Update auf die aktuelle OS10 Version. Deshalb habe ich die Switche auf die OS10 Version 10.5.2.3 aktualisiert. Wie das im einzelnen geht, habe ich bereits in dem Blogartikel Dell OpenNetwork Switches mit OS10 beschrieben. Wer in der gleichen Situation wie ich ist, kann dort eine Anleitung für das Update der Switche finden.

Netzwerkausfall bei der Aktualisierung der Switche

Da Ich VLT Peer Establishment über jeweils zwei Switche verwende, wähnte ich mich vor einem Netzwerkausfall in Sicherheit. Genau dazu ist die VLT Technik ja schließlich gedacht. Wenn ein Switch ausfällt sollte der andere ohne Ausfall übernehmen. Dies war aber leider ein Trugschluss. Obwohl der Versionssprung von 10.5.0.1P1 auf 10.5.2.3 keine großen Änderungen suggeriert, wurde die Version des VLT Protokolls von Version 2.3 auf die Version 3.1 angehoben. Diese Versionen scheinen nicht kompatibel zu sein und es kommt nach dem Update des ersten Switches zu einer Netzwerkstörung, bis der zweite aktualisiert wurde.

Was sagt der Dell Support dazu?

Ich habe nach auftreten der Störung sofort den Support von Dell angerufen. Da kein Support-Mitarbeiter in deutscher Sprache verfügbar war, wurde zwar sofort aber auf englisch sehr freundlich beraten. Leider erhielt ich aber nur die Aussage, dass die Versionen der VLT Protokolle eben nicht kompatibel sind und man mit diesem Netzwerkausfall während dem Update eben leben müsse. Der Support versprach aber auch, dass sich nochmal ein Spezialist melden würde, der uns zu dem Update berät. Deshalb haben ich die Updates zunächst unterbrochen und werde noch mal ein paar Tage abwarten, ob sich jemand meldet. Vielleicht gibt es ja doch noch eine Lösung ohne Netzwerkausfall. Sofern dies der Fall sein sollte, werde ich den Blogeintrag hier entsprechend ergänzen.

Update: Peter gab mir in den Kommentaren den Tipp, das man den Upgradepfad beachten muss. Wenn man zwischenzeitlich auf die Version 10.5.0.6 und erst danach auf die Version 10.5.2.3 aktualisiert, soll es keinen Ausfall geben.

Persönliches Fazit

Wir hatten uns für die hochpreisigen Switche von Dell entschieden, um mit VLT genau solche Ausfälle zu vermeiden. Deshalb bin ich aktuell etwas enttäuscht. Nach gerade mal zwei Jahren, kommt es durch ein kurzfristig notwendiges Update zu genau einem solchen Ausfall. Ansonsten haben uns die Switche bis jetzt aber noch nicht im Stich gelassen und wir sind sehr zufrieden mit ihnen. Insofern hoffe ich, dass dies ein unglücklicher Einzelfall war, der sich so schnell nicht wiederholen wird.

UniFi Access Point U6 Lite mit Wi-Fi 6

In den aktuellen Zeiten wird immer mehr an die Haustür geliefert. Auch heute klingelte ein Paketbote und lieferte wie fast jeden Tag ein Paket ab. Diesmal war allerdings etwas besonderes und langerwartetes in dem Paket. Der UniFi Access Point U6 Lite mit Wi-Fi 6 von Ubiquiti. Endlich! Diese hatte ich schon vor Monaten bestellt.

Wie viele Hersteller hat auch Ubiquiti seit langem Wi-Fi 6 Produkte angekündigt. Diese waren aber ewig nicht lieferbar. Die Chipindustrie hat aktuell enorme Probleme mit der Produktion nachzukommen. Und insbesondere WLAN-Chips scheinen aktuell knapp zu sein. Dies führt dazu, dass angekündigte Produkte oft erst Monate später lieferbar sind. Aus diesem Grund musste ich mehrer Monate auf die bestellten Wi-Fi 6 Access Points von Ubiquiti warten, bevor diese endlich an meiner Haustür ankamen.

Was ist Wi-Fi 6?

Für diejenigen die es noch nicht wissen: Wi-Fi 6 ist der neue WLAN-Standard von der Wi-Fi Alliance mit der Bezeichnung IEEE 802.11ax. Der Nachfolger von Wi-Fi 5 mit der Bezeichnung  IEEE 802.11ac. Da die Bezeichnungen dieser Standards sehr kryptisch sind und dem normalen Benutzer nicht erkennen lassen, welcher Standard der neuere ist, hat sich die Wi-Fi Alliance im Jahr 2018 für die Vermarktung den einfacheren Namen Wi-Fi mit fortlaufender Nummer ausgedacht. Die Verwendung der neuen Namen wurde anschließend per Pressemitteilung angekündigt. Inzwischen sind deshalb die meisten WLAN-Produkte nur noch mit den neu ausgedachten Namen gekennzeichnet.

Warum Wi-Fi 6?

Die vorherigen WLAN-Standards legten den Fokus auf schnellere Datenübertragungen und größere Reichweite. Man konnte dadurch Daten schneller und weiter übertragen. Bei Wi-Fi 6 ist das anders. Hier verbessern sich vor allem die Geschwindigkeiten, wenn viele Geräte gleichzeitig das WLAN nutzen. So richtig bemerken wird man Wi-Fi 6 also erst, wenn man viele Teilnehmer in einem WLAN hat, die Wi-Fi 6 unterstützen und viele Daten senden. Wenn man nur wenige Gärten oder noch viele Wi-Fi 5 Geräte hat, wird man den Unterschied kaum wahrnehmen.

Um bei vielen Geräten in einem WLAN die Geschwindigkeit zu verbessern, befinden sich die wesentlichen Änderungen von Wi-Fi 6 in der Multi-User-MIMO-Antennentechnik. Bei dieser wird die bisherige Technik namens Orthogonal Frequency Division Multiple Access (OFDMA) zur Multi User Orthogonal Frequency Division Multiple Access (MU-OFDMA) erweitert. Dadurch ist es zukünftig möglich, dass mehrere Teilnehmer in einem WLAN gleichzeitig Daten übertragen.

Bis Wi-Fi 5 konnte konnte immer nur ein Teilnehmer zur Zeit Daten übertragen. Dies führte dazu, dass bei vielen Teilnehmern nicht genügend Zeit vorhanden war, damit alle Daten übertragen werden konnten. Da weit entfernte Teilnehmer die Daten nur langsam Übertagen konnten, verbrauchten diese zu viel Sendezeit. Dies hatte die Folge, dass für Teilnehmer in der unmittelbaren Nähe nicht genügend Zeit verblieb. Durch diesen Mangel an Sendezeit reduzierte sich die Geschwindigkeit bei den Datenübertragungen stark und diese WLAN Netzwerke blieben weit hinter den theoretischen Übertragungsraten zurück.

Bei Wi-Fi 6 können jetzt mehrere Teilnehmer gleichzeitig senden. Dadurch steht für die Teilnehmer eines WLAN erheblich mehr Sendezeit zur verfügung. Es kommt bei vielen Teilnehmern also nicht mehr so schnell zu einem Mangel an Sendezeit.

Erste Erfahrungen mit dem UniFi Access Point U6 Lite

Ich habe den neuen Access Point in meinem Setup gleich mal mit einem seiner Vorgänger dem UniFi Access Point nanoHD mit Wi-Fi 5 verglichen. In meinem Setup sind die folgenden Parameter für das WLAN eingestellt:

  • 5 GHz Band
  • Channel width HE40
  • Security Protokoll WPA-3

Ein nicht ganz fairer Vergleich, da der nanoHD mehr Antennen als der U6 Lite hat und doppelt so teuer ist. Der von der Antennen Anzahl und Preis vergleichbarer UniFi Access Point U6 LR ist aber noch nicht geliefert. Sobald dieser da ist, werde ich auch mit dem Vergleichen.

Um die Access Points zu vergleichen, habe ich diese in meinen UniFi Controller eingebunden, was mit einem klick erledigt war. Einzige Voraussetzung ist, dass der UniFi Controller mindestens die Version 5.14.3 hat und bei mir läuft sogar schon die Version 6.1.71. (Wie man einen UniFi Controller auf einem Ubuntu aktualisiert, erkläre ich im Blogbeitrag Ubiquiti Unifi: Releaseupgrade eines Ubuntu 16.04 auf 18.04 mit einer Mongodb)

Danach habe ich mit Hilfe des Programms NetIO von Kai Uwe Rommel die Netzwerkperformance zwischen zwei MacBook Pro gemessen, die im selben Raum etwa 3 Meter von dem AccessPoint entfernt waren.

Wie man sieht, sind die Wi-Fi 5 Access Points sogar 10% schneller als die neuen Wi-Fi 6. Eventuell liegt das an der größeren Anzahl von Antennen.

kristian@Kristians-MacBook-Pro mac-osx-10.5 % ./osx-10.5-x86_64 -t 192.168.38.64

NETIO - Network Throughput Benchmark, Version 1.31
(C) 1997-2010 Kai Uwe Rommel

TCP connection established.
Packet size  1k bytes:  10.30 MByte/s Tx,  10.63 MByte/s Rx.
Packet size  2k bytes:  10.30 MByte/s Tx,  10.72 MByte/s Rx.
Packet size  4k bytes:  10.69 MByte/s Tx,  10.78 MByte/s Rx.
Packet size  8k bytes:  10.68 MByte/s Tx,  10.76 MByte/s Rx.
Packet size 16k bytes:  10.65 MByte/s Tx,  10.72 MByte/s Rx.
Packet size 32k bytes:  10.81 MByte/s Tx,  10.93 MByte/s Rx.
Done.
kristian@Kristians-MacBook-Pro mac-osx-10.5 % ./osx-10.5-x86_64 -t 192.168.38.64

NETIO - Network Throughput Benchmark, Version 1.31
(C) 1997-2010 Kai Uwe Rommel

TCP connection established.
Packet size  1k bytes:  11.70 MByte/s Tx,  12.51 MByte/s Rx.
Packet size  2k bytes:  11.36 MByte/s Tx,  12.55 MByte/s Rx.
Packet size  4k bytes:  12.14 MByte/s Tx,  13.19 MByte/s Rx.
Packet size  8k bytes:  12.22 MByte/s Tx,  13.12 MByte/s Rx.
Packet size 16k bytes:  12.11 MByte/s Tx,  13.29 MByte/s Rx.
Packet size 32k bytes:  11.85 MByte/s Tx,  13.25 MByte/s Rx.
Done.

Nach dem ersten Test, habe habe ich die Access Points 6 Meter entfernt in den Nebenraum gestellt, 20 WLAN Clients verbunden und erneut getestet. Diesmal war die Geschwindigkeit vergleichbar.

kristian@Kristians-MacBook-Pro mac-osx-10.5 % ./osx-10.5-x86_64 -t 192.168.38.64
 NETIO - Network Throughput Benchmark, Version 1.31
 (C) 1997-2010 Kai Uwe Rommel
 TCP connection established.
 Packet size  1k bytes:  9876.59 KByte/s Tx,  9935.61 KByte/s Rx.
 Packet size  2k bytes:  9846.24 KByte/s Tx,  10.11 MByte/s Rx.
 Packet size  4k bytes:  10.01 MByte/s Tx,  10.11 MByte/s Rx.
 Packet size  8k bytes:  10.18 MByte/s Tx,  10.17 MByte/s Rx.
 Packet size 16k bytes:  10.33 MByte/s Tx,  10.15 MByte/s Rx.
 Packet size 32k bytes:  10.27 MByte/s Tx,  10.12 MByte/s Rx.
 Done.
kristian@Kristians-MacBook-Pro mac-osx-10.5 % ./osx-10.5-x86_64 -t 192.168.38.64

NETIO - Network Throughput Benchmark, Version 1.31
(C) 1997-2010 Kai Uwe Rommel

TCP connection established.
Packet size  1k bytes:  10002.87 KByte/s Tx,  10.17 MByte/s Rx.
Packet size  2k bytes:  10207.72 KByte/s Tx,  9672.17 KByte/s Rx.
Packet size  4k bytes:  10.43 MByte/s Tx,  10.21 MByte/s Rx.
Packet size  8k bytes:  10.49 MByte/s Tx,  9814.45 KByte/s Rx.
Packet size 16k bytes:  10072.42 KByte/s Tx,  9679.28 KByte/s Rx.
Packet size 32k bytes:  10.42 MByte/s Tx,  10.07 MByte/s Rx.
Done.

Fazit

Die Wi-Fi 6 Access Points von Ubiquiti sind bei meinem Setup im ersten Vergleich mit den vorherigen HD Access Points mit Wi-Fi 5 sogar etwas langsamer. Nur bei sehr vielen Geräten können sie ihren Vorteile im Multi-User-MIMO ausspielen. Der Geschwindigkeitsunterschied dürfte auch an der geringeren Antennenanzahl gegenüber den HD Access Points liegen und sollte in der Praxis kaum zu bemerken sein.

Der UniFi Access Point U6 Lite mit Wi-Fi 6 scheint ein ausgereiftes Produkt zu einem fairen Preis zu sein. Er kostet nicht mehr als die Vorgängermodelle. Er dürfte in den meisten Setups aber auch keinen großen Vorteil bringen.

Wenn man bereits gute Wi-Fi 5 Access Points hat, gibt es aktuell kaum Gründe auf Wi-Fi 6 umzusteigen. Sofern man jetzt aber neue Access Points benötigt, würde ich die Modelle mit Wi-Fi 6 kaufen, um zukunftssicherer zu sein und besser mit vielen WLAN Geräten agieren zu können.

Ubiquiti Unifi Controller auf einer OPNsense

Wenn man sein Netz mit einer OPNsense Firewall absichert und Unifi Accesspoints von Ubiquiti betreibt, möchte man den Unifi Controller eventuelle gerne auf der selben Hardware betreiben. Deshalb möchte man den Ubiquiti Unifi Controller auf einer OPNsense installieren. Dies spart Strom und verringert die Komplexität. Theoretisch ist dies auch kein Problem, da der Controller in Java programmiert wurden und somit natürlich auch auf einem FreeBSD läuft. Und die Basis von OPNsense ist schließlich ein FreeBSD.

In der Praxis gibt es für die Installation aber einige Hürden zu überwinden und die Installation der Software ist gar nicht so einfach. Zum Glück hat sich John Burwell aus Houston/Texas die Mühe gemacht ein Installationsskript dafür zu Programmmieren. Dieses hat er im Projekt unifi-pfsense auf GitHub veröffentlicht und man muss es nur ausführen, um den Unifi Controller von Ubiquiti zu installieren. Die kann man mit folgenden Befehl auf der Kommandozeile erreichen:

fetch -o - https://git.io/j7Jy | sh -s

Roadwarrior bei OpenVPN anlegen

Das anlegen eines Roadwarrior bei OpenVPN kann auf der Kommandozeile mit wenigen Befehlen erfolgen. Man gibt dazu einfach die folgenden Befehle ein.

cd /etc/openvpn/easy-rsa/
./easyrsa gen-req MaxMustermann
cp pki/private/MaxMustermann.key /etc/openvpn/client-configs/keys/
./easyrsa sign-req client MaxMustermann
cp pki/issued/MaxMustermann.crt /etc/openvpn/client-configs/keys/
cd /etc/openvpn/client-configs/
./make-config.sh MaxMustermann

Danach befindet sich in dem Ordner /etc/openvpn/client-configs/files/ eine Datei mit dem Namen MaxMustermann.ovpn, welche das Zertifikat und und die Konfiguration für den Roadwarrior enthält.

Erstellung eines USB-Sticks für eine Windows 10 Installation unter MacOS 11

Um ein Windows 10 zu installieren benötigt man ein brootfähiges Installationsmedium. Üblicher Weise ist dies heute USB-Stick. Kürzlich stand ich für der Frage: Wie kann ich einen solchen bootfähigen USB-Stick mit dem von der Webseite von Microsoft runter geladenen ISO-Image erstellen, wenn ich nur einen MacBook mit MacOS 11 zu Hand habe?

Man vermutet, dass die Erstellung dieses USB-Sticks nicht weiter schwer ist und man alles notwendige dafür bei Microsoft runterladen kann. So einfach ist die Erstellung des USB-Sticks unter diesen Bedingungen aber leider nicht. Microsoft hat in dem ISO-Image von Windows 10 eine Datei, die größer als 4 GB ist. Das üblicher Weise auf USB-Sticks zum Einsatz kommende Dateisystem FAT32, kann jedoch nur mir Dateien bis maximal 4 GB umgehen. Somit können die Daten des ISO-Images nicht einfach auf einen bootfähigen USB-Stick kopiert werden. Bei Verwendung des Tool zum Erstellen des Windows 10 USB-Sticks von Microsoft, wird der USB-Stick automatisch mit dem moderneren NTFS Dateisystem formatiert. Dieses Tool läuft aber nur unter Windows und nicht unter MacOS. Zudem kann MacOS nicht mit NTFS umgehen.

Lösung:

Nach einigen Versuchen und nicht funktionierenden Ansätzen habe ich die folgende Lösung gefunden.

  • Installation einer virtuellen Windows 10 Installation auf dem Mac aus dem ISO-Image
  • Starten des virtuellen Windows 10
  • Einbinden des USB-Stick in das virtuelle Windows
  • Erstellung des USB-Stickt mit dem Tool zum eines Windows 10 USB-Sticks von Microsoft innerhalb der virtuellen Maschine

Für die virtuelle Windows 10 Maschine habe ich die Software VirtualBox verwendet. Damit man den USB-Stick in die Maschine einbinden kann, wird zusätzlich das Extensionpack von Virtualbox benötigt. Sofern man Homebrew installiert hat, kann man diese Software ganz einfach mit den folgenden Befehlen auf der Kommandozeile installieren.

brew install virtualbox
brew install virtualbox-extension-pack

Wer mag kann aber natürlich auch eine andere Software für die virtuelle Maschine verwenden. Mit Parallels oder VMware geht das ganze genau so gut.

Bau eines Gaming PC

Da meine PC’s alle eher für die Büroarbeit ausgelegt sind und einige Spiele wie Minecraft besser auf einem PC als auf einer Spielekonsole zu spielen sind, wünschte Simon sich schon länger einen Gaming PC. Ein Wunsch, mit dem er bei mir natürlich offene Türen einrannte. Ich kann mich schließlich noch gut an meine Jugend erinnern, in welcher ich selber PC’s für Spiele zusammengebaut habe. Vieles meines Wissens über Computer kommt noch aus dieser Zeit.

Wie bekommt Simon seinen Gaming PC?

Nach einiger Überlegung entstand der folgende Plan. Ich helfe Simon die richtigen Teile rauszusuchen und er baut diesen PC selber zusammen, um etwas über Computer zu lernen.

Es gibt im Internet diverse Anleitungen für den Bau von Gaming PC und auch diverse Videos darüber sind zu finden. Somit ist es für einen ITler wie mich nicht sonderlich schwierig, die richtigen Teile zusammen zu suchen und zu bestellen. Bei der Auswahl der Teile waren mir folgenden Punkte wichtig:

  • Möglichst günstige Anschaffungskosten
  • Geringe Lautstärke
  • Aktuelle Spiele sollen in bei einer FullHD Auflösung mit allen Details laufen
  • Geringer Stromverbrauch für die Leistung
  • USB-C Anschluss, damit er für die zukünftigen Endgeräte gerüstet eist.

Welche Bauteile?

Meine Wahl viel auf ein Mainboard mit AMD Ryzen CPU und B550 Chipsatz. Mainboards mit diesen neuen Mittelklasse Chipsatz sind wesentlich günstiger, als die Highend Mainboards mit dem X570 Chipsatz. Im Gegensatz zu den älteren Chipsätzen B450 und X470, beherrscht der B550 Chipsatz PCIe 4.0 Lanes. Diese ermöglicht den besonders schnellen Betrieb von M2 SSDs und USB 3.2 Gen2 Ports. Als Grafikkarte habe ich mich für eine Sapphire Pulse Radeon RX 5500XT 8GB GDDR6 entschieden. Der neue bereits in 7-nm-Fertigung hergestellt Chip dieser Grafikkarte ermöglicht die Darstellung aller Details bei FullHD in aktuellen Spielen und verbraucht vergleichsweise wenig Strom.

Liste der Bauteile

ArtModellbezeichnung und Amazon-LinkPreis im November 2020
MainboardGigabyte B550M AORUS PRO-P 110,59- €
GrafikkarteSapphire Pulse Radeon RX 5500XT 8GB GDDR6205,40- €
CPUAMD Ryzen 3 3100, 4x 3.60GHz, boxed 102,99- €
CPU KühlerAlpenföhn Ben Nevis Advanced 25,99- €
GehäuseAerocool AEROONEMINI, Micro ATX PC-Gehäuse48,57- €
HauptspeicherCrucial Ballistix DDR4-3200 16GB K2 RT 69,11- €
SSDKingston A2000 M.2 2280 1TB104,90- €
Netzteilbe quiet! System Power 9 400W ATX 2.4 39,90- €
Summe:707,45- €

Der Gaming PC wird zusammengebaut

Nachdem die Teile geliefert wurden, haben Simon und ich uns ein Wochenende Zeit genommen, um den PC zusammenzubauen. Wie dies funktioniert hat, habe ich in dem folgenden Video festgehalten.

Fazit

Es war ein spannendes Vater-Sohn-Projekt, bei welchem ich mich wieder in meine Kindheit zurückversetzt fühlte. Wir hatten einen riesigen Spaß. Zudem war es interessant zu sehen, was diese günstigen Gaming PC’s in der heutigen Zeit alles leisten können. Da hat sich in letzter Zeit sehr viel getan.

Was bedeutet die Kennzeichnung A1 und A2 auf SD-Karten?

Beim tausch von microSD Karten habe ich entdeckt, dass die neueren Karten anstelle der Kannzeichnung A1 jetzt die Kennzeichnung A2 tragen, obwohl die UHS-Klasse U3 und somit die selbe ist. Die UHS Klasse U3 steht für mindestens 30 MB pro Sekunde und war mir bekannt, aber für was steht A1 und A2?

Eine Recherche im Internet zeigte mir, dass A1 und A2 ein Kennzeichen für die App Performance Klasse ist. Diese kennzeichnet die IOPS, die eine SD Karte schafft. IOPS steht für Input/Output operations Per Second und meint somit die zufälligen Lese- bzw. Schreiboperationen pro Sekunde, welche die SD Karte durchführen kann. Konkret müssen die Katen für A1 und A2 die folgenden IOPS können:

App Performance ClassMinimum bei zufälligem LesenMinimum bei zufälligem Schreiben
A11500 IOPS500 IOPS
A24000 IOPS2000 IOPS

Eine SD-Karte mit der App Performance Klasse A2 schafft somit im Minimum mehr als doppelt so viele Lese- und vier mal so viele Schreiboperationen bei einer durchschnittlichen Nutzung. Dies ist für Anwendungen die viel auf der Karte lesen und schreiben natürlich ein deutlicher Vorteil. Zudem kosten SD-Karten der App Performance Klasse A2 inzwischen kaum mehr. Ich werde zukünftig also immer darauf achten und möglichst welche mit A2 nehmen. Der Klassiker einer Micro SD-Karte mit A2 für 4k Videoaufnahmen mit Aktioncams, Drohnen usw. ist hier natürlich die SanDisk Extreme microSDXC UHS-I Speicherkarte. Den Amazon-Link mit den aktuellen Preisen von dieser und ihren kleinen Bruder der SanDisk Ultra mit A1 verlinke ich im folgenden mal. Aktuell ist der Preisunterschied gerade mal ein Euro, aber das kann sich ja immer schnell ändern.

Tausch einer defekten Festplatte in einer Synology NAS

Wie so häufig in letzter Zeit, saß ich diese Woche im Homeoffice und arbeitete vor mich hin. Plötzlich ertönte ein lauter Signalton. Ich war zunächst erschrocken und stellte dann fest, das dieser von meinem NAS (Network Attached Storage) kam. Mein NAS ist eine Disk Station DS416play von der Firma Synology, die ich vor drei Jahren gekauft habe. Dies ist ein NAS mit 4 Festplatten, dass genug Performance für das Abspielen eines 4k Videos bietet. Es gibt von Synology aber auch noch diverse andere Disk Stations, die sich alle ähnlich bedienen lassen. Hier mal ein Link zu einigen Modellen bei Amazon.

Ein Blick auf den DSM (DiskStation Manager) meiner Disk Station zeigte mir, dass eine der vier Festplatten des Gerätes ausgefallen ist.

Zum Glück habe ich auf der Disk Station ein SHR eingerichtet. SHR ist die Abkürzung für „Synology Hybrid RAID“ und ist ein spezielles, von der Firma Synology entwickeltes RAID (redundant array of independent disks). SHR speichert die Daten redundant. Bei dem Ausfall einer Platte kann diese somit ohne Datenverlust ersetzt werden. Zudem bietet SHR im Gegensatz zu herkömmlichen RAID-Systemen die Möglichkeit Platten mit unterschiedlicher Größe zu verbauen.

Da meine Disk Station schon recht voll ist, habe ich mir nicht nur eine neue, sondern auch gleich eine größere Festplatte gekauft. Diese habe ich dann während dem laufenden Betrieb einfach in die Disk Station eingebaut und hinterher im Speicher-Manager des DSM hinzugefügt. Da es bereits die zweite größere Platte in dem NAS war, wurde hinterher der verfügbare Speicher größer. Einer der Vorteile von SHR ist, dass man durch den nachträglichen Einbau von mindestens zwei größeren Platten automatisch den Speicherplatz erhöht (Da die Daten redundant gespeichert werden, müssen mindesten zwei Platten größer sein). Das ganze hat problemlos funktioniert und ich habe jetzt eine instand gesetzte und größere NAS. Mein Fazit: SHR von Synology funktioniert und ist eine super Sache!

Die einzelnen Schritte für die Einbindung der Platte habe ich auch ein einem YouTube Video festgehalten, welches ich hier auch mal verlinke.

Meinen Testbericht zu der DS416play findet ihr in diesem Blog-Artikel: Test einer Synology DS416play mit DSM 6.1

Installation einer neueren PHP-Version auf einem älteren Ubuntu

Es kommt gerade bei den LTS-Versionen von Ubuntu immer häufiger vor, dass eine Software zwingend eine neuere PHP-Version voraussetzt, als auf einem Server mit einem Ubuntu Betriebssystem gerade installiert ist. Wie kann ein solche Herausforderung lösen?

Eine Möglichkeit diese Anforderung zu erfüllen ist ein Upgrade des Ubuntu auf ein neues Release. Oft möchte man dies aber nicht, da es andere Abhängigkeiten gibt, oder weil man nicht jeden Releasewechsel mitmachen möchte. Auch kann es vorkommen, dass selbst das neuste LTS Release ein zu alte Version von PHP beinhaltet. Somit stellt sich die Frage, nach einer Alternative zu einem Releasewechsel.

Dank dem offiziellen Repository für PHP von Ondřej Surý auf Launchpad gibt es eine weitere Lösung. Wenn man dieses Repository einbindet, wird es auch auf eine älteren Release von Ubuntu möglich neuere PHP Versionen zu installieren. Man kann z.B. auch auf einem Ubuntu 16.04 oder 18.04 problemlos ein ganz aktuelles PHP 7.4 installieren.

Um das Repository für PHP von Ondřej Surý bei einem Ubuntu 16.04 einzubinden, gibt man den folgenden Befehl in der Kommandozeile ein.

sudo add-apt-repository ppa:ondrej/php

Danach kann man ein PHP 7.4 mit den folgenden Zeilen installieren.

sudo apt-get update
sudo apt-get install php7.4

Im Anschluss sollte man noch einige Komponenten von PHP 7.4 installieren, welche meistens benötigt werden.

sudo apt-get install php7.4-common php7.4-mysql php7.4-xml php7.4-xmlrpc php7.4-curl php7.4-gd php7.4-imagick php7.4-cli php7.4-dev php7.4-imap php7.4-mbstring php7.4-opcache

Sobald das durch ist, kann man die Standard PHP-Version innerhalb des Betriebssystem mit den folgende Befehlen festlegen.

sudo update-alternatives --config php
sudo update-alternatives --config php-cgi

Und schon kann man auch Software installieren, die das aktuelle PHP 7.4 voraussetzt …