Nach der Grundinstallation von Linux Mint 20.10 habe ich mir noch eine Lösung zur Fernsteuerung installiert. Dafür gibt es einen weiteren Beitrag: RDP mit Linux. Ab diesem Zeitpunkt benötige ich dann weder Monitor noch Tastatur oder Maus, der Linux-Server ist damit bereits voll funktionsfähig und kann irgendwo in der Ecke stehen. Nur Netzwerk und Strom werden benötigt.
Nächster Schritt: Installation einer Virtualisierungslösung, damit ich viele andere Betriebssysteme unter Linux laufen lassen kann. Beispielsweise ein weiteres Linux für meine Webseite, ein Windows für meine Drucker, ein Windows für die Wetterstation, und ein paar virtuelle Maschinen zum Experimentieren. Dazu installiere ich mir Virtualbox.
Wie bereits an anderer Stelle geschrieben, nutze ich hauptsächlich Linux. Aber man muss auch zugeben, dass es unter Windows Dinge gibt, die einfach komfortabel sind und die man nicht missen möchte.
So ist beispielsweise die Fernsteuerung mittels Remotedesktop (RDP) einfach eleganter als VNC, X11-Forwarding oder ähnliche Linux-Lösungen. Natürlich kann man auch proprietäre Lösungen nehmen, wie z.B. Teamviewer. Aber das ist mir zu unsicher und die Lizenzpolitik gefällt mir nicht.
Wer ein Netzwerk hat, der braucht früher oder später auch einen Server.
In meinen bald 40 IT-Jahren habe ich schon viele Serversysteme gesehen, installiert und damit gearbeitet. Welches das erste System war, weiß ich nicht mehr. Novell-Server? Danach kamen Windows Server, von NT-Server über 2000 bis zu den aktuellsten Windows Server-Versionen. Natürlich auch Unix-Systeme. Auch Homeserver oder NAS gingen schon viele durch meine Hände. Aktuell verwende ich für unser Haus-Netz eine Synology Diskstation.
Als Backupserver verwende ich neben einer weiteren Diskstation seit einiger Zeit Open Media Vault. Das ist eine freie Software, mit der man in Null-Komma-Nix und zu Null-Komma-Nix Kosten einen Server installieren kann (die Kosten für Hardware kommen natürlich dazu, aber die Software ist extrem genügsam).
Für die meisten kleineren Netze kann man OMV bedenkenlos als zentralen Fileserver einsetzen. Basierend auf der Linux-Distribution DEBIAN ist das System extrem stabil. Ich hab das Backup-System wohl vor 106 Tagen installiert. Jedenfalls läuft es laut Screenshot seit 106 Tagen ohne irgendwelche Probleme (wenn Du das hier liest, sind es wohl noch ein paar Tage mehr). Probier das mal mit Windows!
Server-Hardware
Als Server-Hardware verwende ich einen Raspberry Pi 4 mit 4GB RAM
Für OpenMediaVault würden auch die älteren Modelle vollkommen ausreichen, allerdings hat erst das neueste Modell einen anständigen LAN-Anschluss und USB 3.0, vorher wurden LAN und USB über einen gemeinsamen Anschluss verwirklicht, was den Durchsatz gebremst hat.
Theoretisch könnte man auch ein kleines Board mit Intel- oder AMD-Prozessor verwenden, anstatt dem Raspberry Pi. Das wäre dann zwar deutlich weniger kompakt, aber man könnte dann ein kleines Gehäuse mit internen Festplatten verwenden und bei Bedarf auch eine 10GbE-Netzwerkkarte einbauen. Für meinen Backup-Server reicht der Raspberry Pi 4 aber vollkommen. Backup-Jobs werden mit bis zu 100MB/s übertragen, der Raspberry 4 reicht also, um 1GbE auszulasten, das 3er-Modell hatte hier deutlich weniger Durchsatz erreicht.
Für die Daten verwende ich externe 2,5″ USB 3.0-Festplatten, die hatte ich sowieso noch herumliegen und immer zur manuellen Sicherung eingesetzt.
Für Raspberry gibt es fertige Images, die man nur herunterladen und auf eine SD-Karte kopieren muss, so ein System ist in kürzester Zeit eingerichtet. Nicht mal einen Monitor benötigt man dafür – nur etwas Geduld, es dauert ein Weilchen, bis der Raspberry nach dem ersten Start im Netzwerk auftaucht. Karte in den Raspberry Pi, Stromversorgung und Netzwerk einstecken, warten. irgendwann kann man dann in der Netzwerkumgebung (z.B. im Router) ein neues Gerät erkennen und direkt mit dem Web-Browser darauf zugreifen und die Einrichtung starten. Mit vielen Anleitungen im Internet ist das ein Kinderspiel. Das erste Mal dauert vielleicht 30 Minuten, der 2. Server benötigt dann sicher keine 10 Minuten mehr.
Stromversorgung
Der Raspberry Pi ist recht anspruchsvoll in Sachen USB-Netzteil. Ausserdem müssen die USB-Festplatten noch mit versorgt werden. Für mehr als eine Platte sollte man auf jeden Fall einen USB-Hub mit aktiver Stromversorgung einsetzen, um den Raspberry nicht zu überlasten.
Das brachte mich eine einfache aber funktionale Lösung:
Für die Stromversorgung meines Servers verwende ich einen aktiven USB-Hub mit 7x USB3.0 (blau) und 4x USB für die Stromversorgung(rot), sowie einem 60W-Netzteil.
Der Raspberry Pi 4 ist einfach an einem der rot leuchtenden Anschlüsse angesteckt, diese dienen rein der Stromversorgung und haben keine Verbindung zum eigentlichen USB-HUB. Den USB-Hub habe ich dann an einen der USB-Anschlüsse des Raspberry angeschlossen und -tada- es stehen 7 USB3.0 mit ausreichend Stromversorgung für externe Geräte zur Verfügung. Eine einfache und elegante Lösung. Das funktioniert hervorragend. Diese USB-Hubs bekommt man im Internet in allen möglichen Ausprägungen, da sollte für jeden etwas dabei sein.
Netzwerk-Freigaben
Im OpenMediaVault habe ich einen Backup-Benutzer eingerichtet, den es sonst im Netzwerk nicht gibt. Das ist wichtig, damit bei einem Befall mit einem Verschlüsselungstrojaner nicht auch die Backups verschlüsselt werden. Wären die Freigaben für jeden Benutzer im Netz zugänglich, dann hätte ein Trojaner natürlich auch Zugriff darauf.
Wie man die Festplatten aufteilt und einrichtet, muss natürlich jeder für sich selbst entscheiden. Bei mir sieht das beispielsweise so aus:
1. Platte – Rsync Backup meiner Synology Diskstation mit der integrierten Backupfunktion auf die OMV-Backupkiste.
2. Platte – IMAGES meine virtuellen Maschinen werden in regelmäßigen Abständen auf diese Platte kopiert
3. Platte – Veeam Veeam ist eine Sicherungssoftware, die ich für Windows einsetze (geht auch für Linux), damit werden die Windows-Maschinen nochmal extra täglich gesichert)
4. Platte – Archiv Altes Zeug, das ich nicht mehr benötige, wird hier zwischengelagert und dann irgendwann gelöscht.
Das ist natürlich nur ein Teil meines Sicherungskonzepts. Die Diskstation wird auf eine andere Diskstation synchronisiert und es existieren noch weitere Sicherungen. Zusätzlich werden natürlich noch Offline-Sicherungen erstellt, die nicht mit einem Rechner verbunden sind. Vielleicht ist das auch schon Paranoia, aber meine privaten Daten reichen – bisher ohne Datenverlust! – bis 1995 zurück. Festplatten sind so billig, daran sollte man nicht sparen. Eine 5TB 2,5″-Festplatte bekommt man schon für 100,- Euro. Wenn einem das seine Daten nicht wert sind, dann haben die Daten keinen Wert.
Fazit
OpenMediaVault kann ich jedem nur ans Herz legen, der für zuhause einen kleinen Server einrichten will. Ob zentralen Fileserver oder Backupserver, OMV ist dafür bestens geeignet. Es ist kostenlos, sehr genügsam in Sachen Hardware und die Einrichtung geht problemlos auch für Laien. Kleiner Tipp: Wenn man den OMV als zentralen Fileserver einsetzt, dann benötigt man natürlich auch eine Backup-Lösung. Dafür gibt es direkt im System viele verschiedene Möglichkeiten, oder man installiert einfach noch so ein System für das Backup. Es gibt viele Möglichkeiten. Je nach Wichtigkeit der eigenen Daten sollte man diese nutzen. Besser mehrere, aber zumindest eine. RAID kann OpenMediaVault natürlich auch, aber RAID ist zwar was Feines, aber kein Backup.
Update
Mittlerweile läuft das System schon über 1 Jahr und ist immer noch auffällig unauffällig. Die Uptime, also die Zeit seit dem letzten Neustart, beträgt aktuell 306 Tage. Installiert ist die Version 5.6 Der Raspberry Pi läuft einfach. Ab und an spiele ich Updates von Open Media Vault auf und prüfe, ob es irgendwelche Meldungen gibt (Fehler oder ähnliches, aber bisher war nichts), ansonsten muss man nichts tun.
Hätte ich nicht meine Synology Diskstation DS 1819+ (mit 10GBit Netzwerkkarte), ich könnte mir gut vorstellen, einen zentralen Server mit OpenMediaVault zu nutzen. Mit einem kleinen, stromsparenden Prozessor, z.B. Intel Core i3 oder besser AMD Ryzen, kleines Servergehäuse und ein paar Platten, kann man mit OMV sehr stabile und effiziente Fileserver zusammenstellen. Zugegeben, die Benutzerverwaltung ist natürlich deutlich einfacher, als bei Microsoft Active Directory, aber bei 90% der Kleinfirmen mit 3-10 Arbeitsplätzen könnte man die verbreiteten Microsoft Windows Server problemlos durch OMV ersetzen. Die meisten Firmen verwenden ihre Server sowieso nur als Datenablage. Damit würde man einige Kosten sparen. Open Media Vault begnügt sich mit sehr einfacher Hardware, ist robust und einfach zu administrieren. Wenn ich da an diverse Update-Orgien unter Windows-Server zurückdenke, dann ist OMV für mich das eindeutig bessere System für kleine Dateiserver. Allerdings läuft natürlich keine Windows-Software auf dem System. Wer also beispielsweise einen SQL-Server oder ähnliches benötigt, muss wieder auf Windows Server zurückgreifen.
Für kleine Betriebe, die nur Buchhaltung machen, Rechnungen schreiben, oder ein paar Dokumente verwalten, könnte man mit OMV sogar ein kleines NAS (Network-Attached Storage) ersetzen. Da kommt es dann drauf an, was man persönlich bevorzugt. Ein fertiges NAS von Synology oder QNAP sind noch einfacher und werden – abgesehen von den Festplatten – fertig geliefert, bei OMV muss man sich erst etwas zusammenbasteln. Dafür ist man aber flexibler, kann die Hardware frei wählen und ist nicht an einen Hardwarehersteller gebunden.
Für ein Familien-NAS kann ich OMV auf Raspi-Basis empfehlen. Als Alternative zu USB-Festplatte am Router ist so ein Teil deutlich besser, vor allem schneller.
Für mich ist Open Media Vault auf einem Raspberry Pi das optimale Backup-System. Als Haupt-NAS setze ich seit Jahren Synology-Kisten ein. Für das Backup sind mir die Geräte aber zu teuer, da ist OMV besser. Vor allem kann ich das in 10 Minuten auf beliebiger Hardware selbst aufsetzen. Mal eben zum Test ein System auf einem alten PC oder einem Raspberry installiert, ist eine feine Sache.
Ich würde jedem, der Interesse an einem Netzwerkspeicher hat, einen Blick auf Open Media Vault empfehlen. Es kostet ja nichts, daher kann man außer der investierten Zeit nicht viel verlieren.
Natürlich gibt es zig andere ähnliche Systeme, wie z.B. FreeNAS oder die erwähnten NAS-Systeme von Synology, QNAP, Zyxel, Netgear und viele anderen. OpenMediaVault gefällt mir vor allem wegen der Schlichtheit, des geringen Ressourcenbedarfs und der Stabilität. Das Ding ist noch nicht ein einziges Mal abgestürzt.
Für ein Backup-System gefällt mir auch die Installation mit externen 2,5″-USB-Festplatten über einen USB-Hub. Die Geschwindigkeit muss hier nicht so hoch sein, wie bei einem Dateiserver, mit USB-Festplatten ist man aber deutlich flexibler. Ausserdem lagen die sowieso herum.
Für Backup-Zwecke habe ich einen Sicherungs-Benutzer eingerichtet, den es sonst im Netzwerk nicht gibt. Das kann Verschlüsselungstrojaner am Zugriff hindern, die unter Windows mit vollen Rechten auf alles zugreifen, was der befallene Windows-PC in Reichweite hat – auch ein NAS, falls der Benutzer darauf Zugriffsrechte besitzt.
Für jede Sicherung und jede Netzwerkfreigabe gibt es daher einen extra Backup-Benutzer, sonst hat niemand auf die Dateien Zugriff. Wenn also der fiktive User Hans sich einen Trojaner einfängt, der alles, inklusive des Netzwerkspeichers, verschlüsselt, dann ist auf dem OMV immer noch eine Kopie, auf die er keinen Zugriff hat. Natürlich muss man dann auch mehrere Versionen gespeichert haben, nicht dass man zufällig die letzte Sicherung mit der aktuellen, verschlüsselten Version, überschreibt. Und zusätzlich empfiehlt sich noch eine externe Sicherung, die nicht am PC oder Netzwerk angeschlossen ist. Beispielsweise mit einer USB-Festplatte, die nur zur Sicherung angeklemmt und nach der Sicherung sofort wieder entfernt wird – auch hier sollte man mindestens 2 Platten verwenden.
OMV kann man auch prima als kleinen FTP-Server einsetzen, oder als externes Backup-Gerät, das irgendwo anders steht. Damit kann man sich gegen Brand, Diebstahl und ähnliche Ereignisse schützen, bei denen nicht nur der eigene Server, sondern gleich auch das Backup im Haus verloren geht.
Runterladen kann man sich das System auf openmediavault.org.
OpenMediaVault basiert übigens auf Debian Linux, einem Linux-System, das auf höchste Stabilität ausgerichtet ist. Ideal ist das System für kleine Firmen, Familien-NAS oder als Backup-System. An die Hardware werden keine großen Ansprüche gestellt. Schon ein alter, ausgedienter PC reicht problemlos als Fileserver. Allerdings sollte man darauf achten, dass der Rechner nicht zu stromhungrig ist, denn als NAS läuft das Teil, abgesehen von möglichen Stromspareinstellungen, dauerhaft durch.
Stand 3.2021 Aktuell ist die Version 6, ich werde wohl ein Update riskieren und mir die neueste Version installieren. Aber vorher wird natürlich ein Backup erstellt 🙂
Im Februar 2020 habe ich fleissig meine Rechner durchgetauscht und aufgerüstet. Eine spannende Arbeit. Ein kleiner Bericht.
AMD Ryzen 9 3900x
Eigentlich sollte der Server im Keller ausgewechselt werden. Ein alter HP-Rechner mit Intel i7-Prozessor, 4 Kerne/ 8 Threads und 32GB RAM unter Ubuntu Linux. Das System war leider etwas zu schwach. Die Rechenleistung des i7 würde zwar reichen, aber für die vielen virtuellen Maschinen wären mehr Kerne von Vorteil. Die nötige Speicheraufrüstung wäre aber nur durch einen Austausch aller Module möglich. Daher entschied ich mich dafür, den Server-PC als Ganzes auszumustern, alternative Einsatzzwecke dafür habe ich genug. Neuer Server wird mein bisheriger Büro-PC mit AMD Ryzen 5 2600 und 64GB RAM. Der Prozessor ist zwar Tests aus dem Internet nach nur ca. 20% schneller als der i7, dafür hat er 6 Kerne / 12 Threads, also 50% mehr. Das wiegt bei virtuellen Maschinen schwer. Ausserdem sind bereits 64GB RAM verbaut.
Büro-PC
Den Büro-PC habe ich komplett neu zusammengebaut. AMD Ryzen 9 3900x mit 12 Kernen / 24 Threads, eine heftige Power-Maschine. Das ganze aufgebaut auf einem MS X570-A4 Pro Board und dazu 64GB RAM. Für die Daten habe ich eine Samsung 970EVO Plus M.2-SSD spendiert, als Grafikkarte habe ich eine alte Geforce 1070TI recycled. Da ich nur Büroarbeit erledige und nicht spiele, reicht die noch vollkommen. Zuerst hatte ich versehentlich die langsamere Geforce 1060 eingebaut, die man auf dem Foto sieht. Bei 2 herumliegenden Karten besteht leider die 50% Wahrscheinlichkeit, dass man die falsche einbaut. Das war aber schnell behoben. Der Zusammenbau ging flott von der Hand und Linux Ubuntu 19.3 war von USB-Stick bereits 5 Minuten nach dem ersten Booten komplett installiert. Das sollte man mal mit Windows 10 ausprobieren.
Die Kiste geht ab wie Schmidts Katze. Eine Hammer-Maschine, in der Systemüberwachung ist bald kein Platz mehr für die Prozessorkerne.
Thunderbird, Virtualbox und die übrigen Linux-Programme waren in kürzester Zeit installiert. Meine virtuelle Windows10-Maschine habe ich einfach vom alten Rechner auf den neuen kopiert. Wider Erwarten wollte Windows KEINE Neuregistrierung, sondern lief sofort in Virtualbox an, als hätte sich nichts geändert – nur war eben alles schneller, als auf dem Ryzen 5.
Für die Installation des Büro-PCs habe ich inklusive Zusammenbau und Einspielung aller Programme nur knapp eine Stunde benötigt. Da zahlt es sich aus, dass die Daten auf dem Server und nicht auf dem PC liegen und Windows in einer virtuellen Maschine liegt, die man einfach kopieren kann.
VM-Server
Weiter ging es mit dem VM-Server. (Server für die Virtuellen Maschinen (VM)) Auch hier ging die Installation recht flott. 2 neue M.2 SSD-Laufwerke Samsung SSD 970EVO+ mit je 1 TB habe ich eingebaut, das reicht aktuell für 6 virtuelle Maschinen.
Nachdem das Grundsystem lief, habe ich die virtuellen Maschinen auf dem alten PC nacheinander abgeschalten und auf den neuen Server überspielt. Zuerst die 2 virtuellen Windows 10 – Maschinen für meine Drucksysteme. Virtuelle Systeme sind einfach was Feines. Einfach auf einen anderen PC kopieren und neu starten. Fertig. Trotz Wechsel von i7 auf AMD Ryzen 5 gab es keine Probleme.
Nach den Windows-Maschinen wollte ich die Linux-VM für meine Webseite (www.bastel-bastel.de) auf den neuen PC kopieren und kam auf die dumme Idee, das Ding im laufenden Betrieb zu kopieren. Eigentlich sollte ich es besser wissen, offene Datenbanken kann und darf man nicht einfach kopieren, das macht Probleme. Manchmal denkt man aber nicht richtig nach. Die Virtuelle Maschine (VM) war schnell kopiert und ich konnte ohne Unterbrechung die Webseite auf dem neuen PC weiterbetreiben. Na ja, kurz darauf stürzte die Webseite ab. In den nächsten 2 Stunden gab es 4 Abstürze, irgendwann war dann keine Verbindung zwischen WordPress (der Webseiten-Software) und der Datenbank mehr möglich. Und da ist mir wieder eingefallen, was ich eigentlich vorher schon hätte wissen müssen: Kopiere keine geöffneten Datenbanken, das führt zu Inkonsistenzen. Nachdem ich meine eigene Dummheit erkannt und die geschlossene VM nochmal kopiert hatte, lief dann auch die Webseite wieder stabil. Seither gab es auch keine weiteren Probleme.
Damit liefen auf dem neuen Server 4 virtuelle Maschinen: 2x Windows 10 für meine Drucksysteme, 1x Windows 7 für diverse Zwecke und 1x Linux Ubuntu für meine Webseite. Alles war deutlich schneller, als auf meinem alten Server. Ich war zufrieden.
Kleinzeug
2 Dinge liefen aber noch nicht, der Radioaktivitätssensor und meine Solaranlage. Für beide war die zugehörige Software in der virtuellen Windows 7-Maschine installiert. Die Sensoren waren via USB angeschlossen und wurden von Linux an Windows durchgereicht, allerdings im Keller. Ich kam aber auf die Idee, das Netzwerk auf 10GBit hochzurüsten und daher sollte der Server zukünftig im Büro stehen. Sonst hätte ich 3 Switches austauschen müssen, so reichte einer. Die Lösung war ein Silex DS-510 USB-Device-Server. Das Teil hat 2 USB-Ports und einen LAN-Anschluss. Mit den passenden Treibern kann man die an USB angeschlossenen Geräte im Netzwerk verteilen. Kurz bestellt und eingebaut und alles lief auf Anhieb. Dabei liegen da durchaus Fallstricke, die Verbindungsstrecke ist nicht trivial: Radioaktivitätssensor bzw. SMA 5000TL Wechselrichter mit uralter Seriell-Schnittstelle (RS-232!), eingesteckt an einen Seriell-USB-Adapter. Die beiden USB-Adapter in den Silex DS-5100 USB-Device-Server und ab ins LAN. Auf dem Linux-Server in der virtuellen Maschine ein Windows 7 mit Treibern für den USB-Server, dort werden mit der Software für den USB-Seriell-Adapter 2 virtuelle serielle Schnittstellen zur Verfügung gestellt und darauf greifen 2 uralte Programme zu. Aber alles läuft soweit problemlos.
10GbE – 10GBit LAN – Netzwerk in einer neuen Dimension!
100MBit gibt es schon seit Jahrzehnten, 1GBit gefühlt auch schon ewig. Seit mindestens 15 Jahren setze ich hier schon 1GBit-Netzwerk ein. Seither haben sich die Computer rapide weiterentwickelt. Nur das Netzwerk ist bei 1GBit stehengeblieben. Damit sind im Idealfall um die 120 MByte pro Sekunde übertragbar, in der Regel liegen die Übertragungswerte bei 100MByte bis hinab zu 30MByte pro Sekunde, je nachdem was sonst noch im Netzwerk läuft. Zum Vergleich: Das Umkopieren der virtuellen Maschinen von M.2-SSD auf M.2-SSD lief mit 1.600MByte/s. Einzelne Festplatten bringen zwar kaum mehr, als ein 1-Gigabit-LAN verarbeiten kann, aber schon ein kleines RAID im Server oder gar SSD werden durch 1GBit/s-LAN ausgebremst. Neue WLAN-Standards liegen in der Theorie auch schon über 1GBit/s. Es wird also Zeit für 10GBit-LAN. Leidersind die benötigten Komponenten noch sauteuer und nicht besonders weit verbreitet. Zudem sind die benötigten Switches auf den gewerblichen Einsatz in Serverschränken ausgerichet und erzeugen eine heftige Geräuschkulisse.
Netgear MS510TX 10-Port Multi-Gigabit/10G Switch
Nach langer Suche und viel Überlegung, habe ich mich für den Netgear MS510TX entschieden. Der hat zwar auch einen Lüfter, der ist aber in meinem Büro kaum zu hören. Der Switch hat 2x 10G-Anschluss, davon 1x direkt für Kupferkabel und einmal für SFP+. Dazu noch 2x Ports mit 1G/2,5G/5G und 2 Ports 1G/2,5G, also Zwischenstufen zu 10G. Der Switch soll erst mal Erfahrungswerte erzeugen. Es muss ja nicht alles mit 10GBit angeschlossen werden,
SFP+ ist ein Steckplatz, an dem man Adapter anschliesst. Da gibt es Glasfaser oder Kupfer-Adapter.
Ich habe mich direkt für ein passendes 3m-Kabel 10Gtek SFP+ mit festen Adaptern auf beiden Seiten entschieden, da der VM-Server direkt neben dem Switch steht, passt das.
Der Switch arbeitet unauffällig und recht leise. Für den Anfang sollte der reichen. Der Rest des Netzwerks läuft weiterhin mit 1G.
Netzwerk-Karten-Spiel
Die verfügbaren bezahlbaren Netzwerkkarten kann man an 3 Fingern abzählen. Ich habe 3 Stück Asus XG-C100 mit Aquantia AQtion AQC107-Chipsatz (noch nie gehört) bestellt, 2x mit Kupfer für die normalen, „alten“ Anschlüsse und einmal mit SFP+ für dieses spezielle Kabel. Da kamen natürlich zuerst mal 3 Stück mit RJ45-Anschluss, das hat die Sache um 2 Tage verzögert, die Ersatzlieferung hat dann aber gepasst. Die Karten wurden eingebaut und auch direkt von Linux erkannt. Alles lief schön, bis ich die virtuellen Windows-Maschinen getestet habe. Die sind laufend abgestürzt und haben teilweise den Netzwerkanschluss der Linux-Maschine so weit gestört, dass ich neu Booten musste. Das war ziemlich frustig. Wenn es mal lief, dann lag die Übertragung bei lächerlichen 20-300Kilobyte/s.
Darauf habe ich mir die 10Gtek 10GBe-Karte mit Intel Chipsatz bestellt. Der Chipsatz ist schon etwas älter, aber leider wird er von Linux nicht direkt unterstützt. Der Treiber musste erst kompiliert werden, das hat leider nicht funktioniert. Laut Datenblatt werden Linux Kernel 2 und 3 unterstützt, das ist uraltes Zeug. Im Web habe ich einige Beiträge gefunden, die dieselben Probleme hatten, nur gab es keine Lösungen. Anscheinend benötigt man einen speziellen Kernel, der stand bei meinem Linux Mint 19.3 aber nicht zur Verfügung. Ausserdem wollte ich nicht das ganze System nur wegen der Netzwerkkarte verbieten. Also weg mit der Karte. Unter Windows wäre es vielleicht einfacher gewesen. Aber wer will das schon.
Zurück zu den Asus-Karten. Virtualbox hat leider nur wenig virtuelle Netzwerkkarten zur Auswahl und nur die Intel-Karte funktioniert überhaupt. Also habe ich alle Einstellungen Stück für Stück durchprobiert. Trial and Error. Tatsächlich – nachdem ich die Verbindungsgeschwindigkeit fix auf 1000MBit Duplex gestellt und die Puffer für Senden und Empfangen auf 512 verdoppelt hatte, liefen die virtuellen Maschinen absturzfrei. Die angezeigte 1000Mbit sind dabei egal, es ist ja nur eine virtuelle Schnittstelle.
Seither läuft alles mit vollen 10GBit, das macht richtig Spass!
Naja, alles ist übertrieben – der Büro-PC und der Server für die virtuellen Maschinen. Immerhin ist das Netzwerk hier spürbar schneller.
Als Datenserver verwende ich eine Synology DS918+, die kann leider nur 1GbE, da warte ich dringend auf ein Nachfolgegerät. Alternativen wie Eigenbau oder andere Anbieter wären mit sehr viel Arbeit verbunden, das will ich mir nicht antun. Größere Synology-Geräte sind zu groß und zu teuer. Bis dahin sind die Arbeitsdateien auf den VM-Server ausgelagert. Umständlich aber schnell. Als Zwischenlösung OK. Das Überwiegende Netz läuft natürlich noch auf 1GbE, das ist für die meisten Anwendungen schnell genug, es soll ja auch nur zur Übung sein. Nach und Nach kommen dann weitere schnelle Geräte dazu.
Noch mehr Virtualisierung
Der neue VM-Server stand also im Büro und daneben mein (uralter) Wetter-PC mit AMD E-350. Das Ding läuft seit Jahren problemlos für meine Wetterstation. Sollte man an einem funktionierenden System etwas ändern? Eigentlich nicht. Andererseits: 35W im Dauerbetrieb läppern sich. Also auf zur Virtualisierung: Veeam-Backup angeworfen, Sicherung auf meine Raspberry-Backupkiste mit Open-Media-Vault, dann eine virtuelle Maschine erzeugt und das Backup zurückgespielt – naja, versucht. Für das Restore wird ein rudimentäres Windows gestartet und damit haben wir das Treiberproblem mit den zu kleinen Puffern. Das lässt sich hier aber nicht ändern. Abhilfe: Bastel-PC mit 1GbE, Virtualbox gestartet, Virtuelle Maschine erzeugt und dann diese Maschine auf den VM-Server kopiert. Umständlich über 3 Ecken, aber es ging. Maschine gestartet und „Windows ist nicht aktiviert, vielleicht sind Sie einer Softwarefälschung zum Opfer gefallen…“ – Hilfe, ich bin ein Opfer! Naja, nur ein Opfer von Microsoft. Den Wechsel vom PC in die virtuelle Maschine mag Windows einfach nicht. Einfach neu aktivieren? Geht nicht, anscheinend sind die Aktivierungsserver abgeschalten, Win7 wird ja nicht mehr unterstützt. Also die Aktivierungshotline angerufen und den gefühlt Tausendstelligen Code eingetippt. Schlappe 10 Minuten dauert sowas, der Telefoncomputer spricht gefühlt deutlich langsamer als früher. Bin ich froh, dass Windows hier nur noch für Nischenanwendungen läuft.
Die Aktivierung lief problemlos, dann die Wetterstation an USB angesteckt und zum Einstellungsmenü zur Portweitergabe an das virtuelle Windows, wie ich es früher schon gemacht hatte: Kein Gerät gefunden – Ooops?!
Nach kurzem Pulsrasen und etwas längerer Prüfung hat sich dann die Lösung gefunden. Linux hat für den USB-Adapter bereits einen Treiber im Lieferumfang. Es handelt sich auch hier eigentlich um einen Seriell-Anschluss mit Seriell-USB-Adapter. Statt USB steht hier also eine Serielle Schnittstelle zur Verfügung. Das ist natürlich fein, spart es doch einen Windows-Treiber. Also Seriell der Wetterstation durch USB-Seriell-Adapter an den USB-Port des PC, von Linux wieder von USB auf Seriell umgewandelt ergibt einen Port auf /tty/USB0 Den kann man dann an das virtuelle Windows weiterleiten und dort wurde es als COM4 wie gewohnt von meiner Wetter-Software erkannt. Perfekt. Seither läuft die Wetterstation für www.ingersheimwetter.de in einer virtuellen Maschine und spart die 35W, die bisher für den extra PC benötigt wurden.
Damit laufen auf dem VM-Server jetzt 5 virtuelle Maschinen. Die erste Woche ohne Absturz ist vorbei, ich hoffe, das bleibt so.
So etwas, wie die perfekte Tastatur gibt es natürlich nicht, denn jeder hat andere Vorstellungen und Ansprüche. Daher muss ich den Titel vielleicht erweitern auf „die für mich perfekte Tastatur“.
Es gibt viele verschiedene Tastatur-Arten. Insbesondere kann man unterscheiden zwischen Membrantastaturen und Mechanischen Tastaturen, sogenannten „Mechas“. Membrantastaturen sind die billigste Ausführung und am weitesten verbreitet. Leider haben solche Tastaturen kaum einen fühlbaren Druckpunkt und die Haltbarkeit liegt in der Regel auch deutlich unter der von mechanischen Tastaturen.
Hier im Foto sieht man 3 unterschiedliche Tastaturen: Oben eine mechanische Tastatur mit Cherry-Schaltern, den bekanntesten Schaltern für mechanische Tastaturen. In der Mitte eine einfache Membrantastatur (Rubberdome) und unten die beste je hergestellte Tastatur: IBM Model M mit Knickfeder-Schaltern (Buckling-Spring). Leider wird diese Tastatur nicht mehr produziert. Unicomp produziert zwar noch Buckling-Spring-Tastaturen und verwendet angeblich die Original-Maschinen von IBM, aber die Qualität der neuen Tastaturen liegt Welten von den Original IBM-Modellen entfernt. Die Tastenkappen sind viel billiger produziert, das Gehäuse ist nur noch aus Kunststoff, der Gesamteindruck überzeugt leider nicht.
Warum mechanische Tastaturen ?
In diesem Beitrag geht es hauptsächlich um mechanische Tastaturen Marktführer bei den Schaltern für „Mechas“ ist die deutsche Firma Cherry. Daneben gibt es aber auch noch andere Anbieter wie z.B. Kailh (Kaihua Elekctronics) oder Alps.
Natürlich kann man auch auf einer Tastatur mit Knackfrosch-Haptik (Membrantastatur) ganze Bücher schreiben. Aber man täglich 10 Stunden oder mehr an der Tastatur sitzt, dann lernt man schnell das bessere Tippgefühl der mechanischen Tastaturen zu schätzen.
Außerdem sind mechanische Tastaturen in der Regel deutlich haltbarer und besser verarbeitet. Ob man so etwas benötigt, ist Geschmackssache. Man kann mit Bleistift oder Kuli genauso schreiben, wie mit einem Füller. Das Schreibgefühl ist aber bei einem Füller einfach anders. Genauso verhält es sich mit Tastaturen. Mechanische Keyboards haben einfach eine höhere Wertigkeit. Membrantastaturen wurden entwickelt, um die Eingabegeräte billiger produzieren zu können, das merkt man auch deutlich. Spätestens nach ein paar Monaten lässt die Qualität deutlich nach.
Suche nach der besten Mecha…
Meine IBM Model M ist leider defekt, manche Tasten funktionieren nicht mehr, bzw. erst, nachdem man einige Male darauf gedrückt hat. Ich vermute einen Haarriss in der Platine oder alterungsbedinge Elektronikprobleme. Das Teil wird natürlich einem Reparaturversuch unterzogen, aber bis dahin brauche ich etwas anderes.
Es gibt mittlerweile sehr viele Hersteller und ich hatte auch schon hunderte Tastaturen in der Hand. Nur leider hatte ich bisher nie einen Test durchgeführt oder Fotos gemacht. Ich hatte einfach nur geschrieben. Von einem alten CPM-Rechner mit integrierter Tastatur über die Folientastatur des Spectrum ZX-81, C64, Amiga, Atari, alle möglichen Cherry-Tastaturen, Olivetti, IBM und NoName-Keyboards sowie Marken, die mir gerade nicht mehr einfallen. Da war schon alles dabei. Auf dieser Seite werde ich daher einfach zukünftig alle Tastaturen aufführen, die mir in die Finger kommen, egal ob Mecha oder Knackfrosch.
Schnelltipper
Als Schüler und auch noch als Student durfte ich nebenher Umfragen eintippen. Damals gab es noch keine Tablets oder automatische Erfassung, da wurde alles noch von Hand in Fragebogen eingetragen und später durfte das jemand abtippen. In diesem Fall war ich das. In einem Jahr standen in den Sommerferien 10 laufende Meter Aktenordner neben meinem Schreibtisch, die mussten alle abgetippt werden. Da hatte ich dann nachts sogar vom Tippen geträumt. Bis zum i386 sind mir regelmäßig die Tastaturpuffer übergelaufen, weil der PC die Eingabe nicht schnell genug verarbeiten konnte. Erst ab i486 war der PC schnell genug für meine Tipperei. In der Zeit hatte ich einige Tastaturen „verheizt“.
Schalterdingens
Insgesamt unterscheiden sich die Tastaturen hauptsächlich im Design und in der Verwendung der Materialien. Dabei bevorzuge ich Metallgehäuse gegenüber Kunststoff. Schwere Metallkonstruktionen sind natürlich gleich deutlich teurer. Eine satt aufliegende Tastatur vermittelt in der Regel aber ein besseres Schreibgefühl und Metall sieht auch einfach besser aus.
Die Schalter kommen meistens von Cherry oder Kailh und lassen sich durch die Farbe unterscheiden. Dabei handelt es sich nicht um eine sichtbare Farbe, denn die Schalter sind unter den Tastenkappen verbaut. Vielmehr geht es um die Codierung der Schaltereigenschaften. MX-Blue sind meine Lieblingsschalter, leichtgängig und präzise, taktil mit hörbarem Klick. Allerdings ist dieses Klickgeräusch nicht unbedingt ideal, wenn man in einem Büro noch Kollegen hat. Diese könnten durch das Klappern genervt sein. Die wohl am weitesten Verbreiteten Schalter sind die Cherry MX Red, Leichtgängig und schnell, aber ohne hörbaren Klick. Daneben gibt es noch MX Black, MX Brown, MX Silent Red, MX Silent Black, MX Speed Silver, MX Green, MX Grey, MX Clear und MX Low Profile.
Mit Cherry-Tastaturen arbeite ich seit mittlerweile bald 40 Jahren, die Schalter gefallen mir immer noch am besten. Alle anderen „kompatiblen“ Schalter sind einfach nur Nachbau. Wobei manche kompatible Schalter mittlerweile durchaus vergleichbar sind.
Corsair K70 Lux
Meine alte Corsair K70 Lux wurde wieder zur Haupttastatur, nachdem sie zuvor an einem Zweitgerät im Einsatz war.
Wenn man die IBM Model M aussen vor lässt, dann ist die Corsair K70 Lux eigentlich die perfekte Tastatur. Tolles Tippgefühl, ein optischer Hingucker mit einer gebürsteten schwarz eloxierten Alu-Platte. Von 2016 bis 2020 war die Tastatur oft im Einsatz und wird es am Zweitrechner auch weiter sein. Vom Hauptrechner wird die Tastatur aber verbannt. Das hat folgenden Grund: Die Tastenkappen sind aus ABS-Kunststoff. Der hat die Eigenschaft, dass er sich mit der Zeit abnutzt.
Die Tastatur sieht dann irgendwann speckig aus. Da man die verschiedenen Tasten unterschiedlich oft drückt, geschieht das unterschiedlich schnell, die Tastatur sieht dann irgendwann aus, als hätte man gerade darauf gefrühstückt. Außerdem habe ich wohl ein besonderes 10-Finger-Schreibsystem, bei mir bekommen die Leertasten mit der Zeit immer auf der rechten Seite eine Kerbe (durch den Fingernagel des Daumens?) Die Tastatur auf dem Bild oben ist frisch gereinigt, aber den speckigen Glanz bekommt man nicht mehr weg, obendrauf sind die Tasten glänzend, am Rand noch matt wie am Anfang. (die Fussel sieht man nur in der Makro-Aufnahme, live sieht die Tastatur sauber aus. Aber speckig). Funktional stört das nicht, optisch aber schon. Das wäre eigentlich kein Problem, denn die Tastaturlayouts sollten genormt sein. Die Tastenkappen sind bei allen Tastaturen mit Cherry MX-Schaltern nur aufgesteckt und können theoretisch problemlos gewechselt werden. Leider weicht die K70 aber vom Standard ab, die Leertaste ist breiter, daher passt kein Ersatz-Tastenkappen-Set und vom Hersteller selbst gibt es keinen Ersatz. Damit ist die Tastatur optisch leider nicht mehr für meinen Schreibtisch geeignet. Die Tastatur hat mechanisch eine sehr lange Haltbarkeit. Aber wenn man die abgenutzten Tastenkappen nicht auswechseln kann, dann bringt das leider nichts. Schade.
HyperX HX-KB2BL2-DE Alloy Elite RGB
Das ist mal ein komplizierter Name für eine Tastatur. Aber immerhin ist der kryptische Name der einzige Kritikpunkt, der mir zu dieser Tastatur einfällt. Nach langer Suche habe ich mich für diese Tastatur entschieden. Optisch Top, Metallgehäuse, Cherry MX-Blue Schalter und ein angenehmes Standard-Tastaturlayout mit großer Enter-Taste.
Das Schreibgefühl entspricht der Corsair K70 Lux und gefällt mir ausgesprochen gut. Das Layout entspricht aber dem Standard, somit sollten sich alternative Tastenkappen aufstecken lassen. Das werde ich noch überprüfen und das Ergebnis nachreichen. Hier sollten sich dann auch PBT-Tastenkappen verwenden lassen.
Das Gehäuse ist aus Kunststoff, die obere Platte besteht aber aus massivem, lackiertem Metall. Damit bringt die Tastatur fast 1,4kg auf die Waage und fühlt sich recht massiv an. Die Tasten klackern wie bei Cherry-MX-Blue üblich, das Schreibgefühl ist sehr präzise. Da wackelt nichts. Massive Wertarbeit. Sehr schön.
Für die Tastatur gibt es eine Software, um die RGB-Beleuchtung einzurichten. Da ich mit Linux arbeite, läuft diese Software bei mir natürlich nicht. Aber über die Sondertasten oben links an der Tastatur kann man die Farbe und Helligkeit der Tastatur auch ohne Software einstellen. Blaues Licht und niedrigste Stufe, das passt. Leider leuchten die WASD-Tasten dann allerdings weiß. Das ist aber kein Systemfehler, sondern vermutlich Absicht. Spieler benötigen diese 4 Tasten besonders häufig und die Tastatur wird als Gaming-Keyboard verkauft. Dafür braucht man dann wohl doch die Software. Stört aber nicht weiter. Die Handgelenkauflage ist aus Kunststoff und abnehmbar. Fühlt sich recht angenehm an, aber hier muss die Zeit zeigen, wie schnell sich das Material abnutzt.
Wenn ich mich zwischen der HyperX und der K70 entscheiden müsste:
Von den technischen Daten, dem haptischen Eindruck und dem Schreibgefühl her, sind die Tastaturen gleichwertig. Welches Design besser gefällt, ist Ansichtssache, für mein Empfinden sind die Tastaturen gleich „schön“. Allerdings ist die fehlende Verfügbarkeit von Ersatz-Tastenkappen bei der K70 ein dickes Minus. Daher ist die HyperX derzeit mein klarer Favorit.
Microsoft Wired Keyboard 400
Eine etwas ältere Tastatur (laut Aufdruck aus 2012) und nicht mehr im Verkauf. Die Tastatur ist ein typischer Vertreter der Membrantastaturen. Einfaches, funktionales Gehäuse, nicht entgratete Kanten(!), flache Tasten und in der Art in vielen Büros zu finden. Wer sich nicht damit auskennt, der kann mit dieser Tastatur problemlos arbeiten und zufrieden sein. Die Tastatur erfüllt ihren Zweck vollkommen und vor allem ist sie sehr billig. Der Preis für diese Tastatur lag damals zwischen 10,- und 15,- Euro. Aktuelle Modelle liegen in vergleichbarem Preisrahmen. Solche Tastaturen sind auch gerne als Beigabe bei Komplettrechnern dabei. Zum Vergleich: Gute mechanische Keyboards fangen bei 120-150,- Euro an und können auch schon mal über 200,- Euro kosten (Sonderaktionen ausgenommen). Wie gesagt – die Tastatur erfüllt ihren Zweck. Man kann damit schreiben. Menschen, die einfach nur ins Büro gehen und dort eine Tastatur vorgesetzt bekommen, können damit zufrieden sein, wenn sie nichts anderes kennen. Aber wehe, man stellt eine mechanische Tastatur daneben und vergleicht direkt. Die Tasten haben keinerlei Druckpunkt. Mit geschlossenen Augen kann man nicht unterscheiden, ob man auf eine Taste drückt oder auf einen Kaugummi. Der Tastenhub ist minimal, das Tippen fühlt sich seltsam an, als würde man ein totes Tier antippen. Außer für einen Server, oder eine Anwendung, bei der ich weniger als eine halbe Stunde pro Monat an die Tastatur müsste, würde ich mich weigern, so eine Tastatur zu verwenden.
Microsoft Wireless Entertainment Keyboard 7000
Wie bereits geschrieben, möchte ich hier zukünftig alle Tastaturen aufführen, die ich in die Finger bekomme. Ein weiteres Exemplar der Knackfrosch-Tastaturen (Membrantastatur) aus meiner Sammlung ist das Wireless Entertainment Keyboard 7000. Das Teil hat natürlich nichts mit der Suche nach der perfekten Tastatur zu tun, ist aber für Spezialanwendungen ganz nützlich. Es ist eine Bluetooth-Funktastatur mit eingebauter Mausfunktion, ideal für ein Mediacenter und von mir lange am Heimkino-PC verwendet. Die Tasten sind vergleichbar mit obiger Microsoft Wired 4000 Tastatur, allerdings ist die Anordnung gebogen. Dadurch kann man das Keyboard näher an den Körper ziehen und z.B. auf dem Sofa auf dem Schoß verwenden. Für die Mediensteuerung ist das Gerät perfekt, für die tägliche Arbeit ist es eher nicht zu empfehlen.
Titanwolf Invader
Ein martialischer Name: Eindringling, Angreifer, Invasor. Vermutlich soll der Invader die etablierten Hersteller mechanischer Tastaturen „angreifen“. Die Tastatur ist für eine Mecha recht günstig zu haben. Es ist auf der Verpackung auch kein Hersteller aufgeführt, sondern eine Importfirma. Schlappe 60,- Euro muss man dafür auf den Tisch legen. Das ist gerade mal die Hälfte der K70 oder HyperX. Dafür bekommt man eine Tastatur mit durchaus ansprechendem Design, solange man von vorne oder oben draufschaut. Die Tasten sind von Kailh, einem großen Konkurrenten von Cherry. Die Ausführung ist „blue“, dabei wurden die mechanischen Eigenschaften der MX-Blue kopiert. Die Tasten klicken auch angenehm und ich würde vermutlich auf identischen Tastaturen den Unterschied zwischen Cherry MX-Blue und Kailh-Blue nicht erkennen. Die hier aufgeführten Tastaturen sind aber bei Weitem nicht identisch und das macht den Unterschied. Während die K70 und die Hyper X sehr schwer sind und dadurch auch ein sattes Tippgefühl erzeugen, fühlt sich die Titanwolf Invader direkt klapprig an. Unter dem Aludeckel ist ein einfaches Kunststoffgehäuse, dadurch wirkt alles etwas klapprig. Der Tastendruck ist vergleichbar mit den obigen Mechas, aber der Nachhall beim Drücken der Taste erzeugt einen hohlen, schepprigen Klang. Aus meiner früheren Zeit, in der ich mich viel mit Sound beschäftigte, ist mir ein guter Klang sehr wichtig. Sattes Klackern einer mechanischen Tastatur zähle ich zum guten Sound. Hohles Plastik-Geklapper gehört eher nicht dazu. Das Design, na ja. Eine Alu-Deckelplatte mit vielen Biegungen. Wenn es gefällt. Mein Ding ist es nicht. Für den aufgerufenen Preis ist diese Tastatur aber durchaus eine Überlegung wert. Wenn man eine Membrantastatur durch eine mechanische Tastatur ersetzen und dabei nicht viel Geld ausgeben will, dann kann ich die Titanwolf Invader empfehlen. Allerdings sollte man auch einen Blick auf die Sharkoon Skiller SGK3 werfen, die ungefähr dasselbe kostet. Das Bessere ist bekanntlich des Guten Feind!
Leider hat mein Exemplar der Titanwolf Invader einen schweren Mangel. Die Tastatur hat von Anfang an geprellt. Und das geht leider gar nicht, weder bei einer Mecha, noch bei einer Membrantastatur. Natürlich ist das nur ein bedauerlicher Einzelfall. Normalerweise sollte die Tastatur sicher problemlos funktionieren. Wenn ich eine Taste drücke, dann will ich ein Zeichen und nicht mehrere. Immerhin wurde der Kaufpreis der Tastatur problemlos erstattet. Ich musste das Teil nicht einmal zurücksenden, damit habe ich einen gratis Satz Tastenkappen und Kailh-Blue-Schalter, mit denen ich experimentieren kann. Die im Internet zu findenden Bewertungen zu dieser Tastatur sind sehr gut. Für Einsteiger in das Thema „mechanische Tastatur“ kann ich die Titanwolf Invader daher guten Gewissens empfehlen. Das ist anständige, wertige Mittelklasse.
Sharkoon Skiller SGK3
Da liegt die Stahlplatte auf meinem Tisch. Satte 1300g, fast so schwer wie die HyperX, aber zum halben Preis (um die 65,- Euro). Die Schalter sind nicht von Cherry, sondern Kailh Blue (auch hier bevorzuge ich wieder das Klackern, Blau = hörbarer Klick). Es scheint Stahl anstatt Alu verbaut zu sein. Das Eingabegerät hinterlässt einem mächtig massiven Eindruck. Die leicht strukturierte Oberfläche erinnert aber an Lackierungen, wie sie vor 40 Jahren üblich war. Die Struktur ähnelt alten IBM-Gehäusen aus PC-XT-Zeiten, nur waren die damals Beige und nicht Schwarz. Altbacken aber durchaus hochwertig. Falls man am Schreibtisch überfallen wird, mit diesem Teil hat man eine gute Verteidigungswaffe. Das USB-Kabel ist allerdings fest angeschlossen und könnte beim Kampfeinsatz stören. Die Tasten stehen offen über der Tastatur, damit kann man alles gut reinigen. Die Bodenplatte der Tastatur ist auch hier aus Kunststoff, durch die massive und schwere obere Platte fällt einem das aber nicht besonders auf. Die haptische Wertigkeit der Sharkoon Skiller SGK3 ist deutlich höher als bei der Titanwolf Invader. Die verbauten Kailh-Blue-Schalter sind allerdings identisch. Beim Tippen ist er dann aber wieder da, dieser unangenehme Nachklang nach dünnem Plastik. Während das Drücken bis zum „Klick“ fast identisch ist zu den Tastaturen mit Cherry-MX-Blue, ist danach auch hier ein unangenehmer Ton zu hören. Die HyperX und K70 erzeugen ein KLACK-KLACK, die Skiller SGK3 und die Titanwolf Invader eher ein KLAPPER-KLAPPER. Ob das an den Tastaturgehäusen, den verbauten Platinen oder an den Schaltern liegt, kann ich derzeit nicht sagen. Ob einen das überhaupt stört, muss jeder für sich selbst ausprobieren. Manche mögen die Tastengeräusche insgesamt nicht und wählen lieber leisere Tastenschalter, wie die Red, Brown, usw.
Insgesamt ist die SGK3 eine sehr gute Tastatur. Für den fast identischen Preis würde ich sie der Titanwolf auf jeden Fall vorziehen. Der Tippeindruck und die Haptik sind sehr hochwertig. Das Design ist ein bisschen langweilig aber massiv. Ich werde diese Tastatur meinen Eltern an ihrem neuen PC installieren. Beide sind als Beamter, bzw. Sekretärin lange Jahre mit Schreibmaschinen unterwegs gewesen, da muss es mechanisch sein. Aber eine Gaming-Tastatur wie die Hyper-X wäre hier übertrieben. Die SGK3 passt perfekt.
Tastatur-Fazit
Abgesehen vom IBM Model-M, das außer Konkurrenz läuft, ist mein derzeitiger Tastatur-Sieger die Hyper-X HX-KB2BL2-DE Alloy Elite RGB (wer denkt sich solche Namen aus?) Die Corsair K70 wäre gleichwertig, fällt aber durch die fehlenden Ersatz-Tastenkappen vom Podest.
Preis-Leistungs-Sieger für die Mittelklasse ist die Sharkoon Skiller SGK3
Gerne bin ich für Hinweise zu anderen Tastaturen dankbar. Es gibt zu viele, um die alle zu kaufen und zu testen (geschenkte nehme ich aber gerne in den Test auf)
Tastenkappen
Mechanische Tastaturen werden oft für Anwendungen angeschafft, bei denen sie hoch beansprucht werden. Da ist die Verfügbarkeit von Ersatz-Tastenkappen ein Muss. Die Tastaturen haben zwar unterschiedliche Zusatztasten, das eigentliche Tastenfeld ist aber genormt. Damit lassen sich die Tastenkappen zwischen allen Tastaturen (mit Ausnahme der K70) problemlos austauschen. Die Kappen sind nur gesteckt und können auch zwischen Cherry und Kaihl getauscht werden. Die meisten Tastenkappen sind aus ABS, das wird leider bei längerem Gebrauch speckig und sieht dann nicht mehr besonders schön aus. Besser sind PBT Tastenkappen. Die sind aber extrem schwer zu bekommen. Die wenigen Anbieter haben in der Regel nur PBT-Tastenkappen im US-Layout im Angebot, der Markt für Deutsche Tastaturkappen in PBT ist vermutlich einfach zu klein. Der einzige Anbieter, von dem auch was lieferbar ist, ist die Firma Ducky. Dort gibt es mechanische Tastaturen direkt mit PBT-Tastenkappen, aber auch PBT-Tastenkappen zum Nachrüsten für kompatible Tastaturen. Das werde ich noch ausprobieren. Aber das ist eine andere Geschichte. 🙂
Update: Tastenkappen
Mittlerweile ist einige Zeit vergangen. Die IBM Model M ist nach wie vor meine Lieblingstastatur, aber ich bin da irgendwie ein bisschen gestört. Bei Füllern muss ich auch ab und zu mal wechseln. Genauso ist es mit der Tastatur.
Wenn man 10 Stunden oder mehr täglich am PC zu tun hat, dann braucht man Abwechslung. Deswegen liegt die IBM Model M angeschlossen (!) hinter dem Monitor im Regal und auf dem Schreibtisch steht eine Mecha mit Cherry MX-Blue – bis mich mal wieder der Wunsch zum Tausch befällt, was gefühlt so alle 2-3 Wochen der Fall ist.
Die Corsair K70 gefällt mir von den Tastaturen mit Cherry-Tasten immer noch am besten. Die gebürstete, schwarz eloxierte Alu-Oberfläche ist einfach edel. Die Schalter sind ja bei allen Tastaturen identisch. Mittlerweile gibt es von Corsair ein Modding-Kit mit PBT-Tasten für unter 30,- Euro. Das wäre ja ganz in Ordnung, aber leider hat die K70 eine breitere Leertaste und entspricht somit nicht dem Standard. Dafür gibt es ein Kit für über 40,- Euro, aber nur in Englisch. Deutschland ist einfach zu klein, das interessiert die Firmen nicht. Dabei wäre es ja so einfach, die abweichende untere Tastenreihe einzeln zu verkaufen. Schade. Alternativ könnte man eine K70 RGB Pro nehmen, bei der bereits PBT-Tastenkappen verbaut sind. Nimmt man die beiden Modding-Kits (das englische wegen der Leertaste und das deutsche für den Rest), dann ist man 70,- Euro los, für die neue Tastatur gut 200,- Euro. Ich habe mich nach langer Überlegung für die Modding-Kits entschieden. Die Tastenkappen sind nur gesteckt und lassen sich mit einem mitgelieferten Werkzeug problemlos austauschen. Einerseits ist es ärgerlich, dass die K70 sich nicht an den Standard hält, die Leertaste ist minimal breiter. Andererseits gefällt mir eine breite Leertaste viel besser. „Die Windows-Tasten hat der Teufel erfunden!“ Naja, nur so ein Satz – ich mag diese blöden Windows-Tasten nicht und komme auch nach Jahrzehnten seit deren Einführung nicht damit zurecht. Leider gibt es mittlerweile kaum noch Keyboards ohne diese Teile.
PBT-Tasten sind den Aufpreis wirklich wert! Die sind matt und sehen edler aus, allerdings fällt das nur bei direktem Vergleich auf. Angeblich halten sie viel länger – man wird sehen. Das Tastgefühl ist aber um Welten besser! ABS-Tastenkappen sind leicht rutschig, PBT hat dagegen eine rauhe Oberfläche. Man rutscht nicht mit den Fingern auf den Tasten umher. Der Unterschied ist sehr gering. Normaltipper werden das vermutlich nicht einmal bemerken. PBT-Tasten sind auf jeden Fall immer zu bevorzugen, wenn man eine edle Tastatur möchte. Das Update ist es wert. Bei einem Neukauf sollte man aber einfach gleich eine fertig bestückte Tastatur nehmen.
Nach dem Umbau sieht die Tastatur viel sauberer aus! Natürlich wird meine Tastatur regelmäßig gereinigt, aber ABS wird mit der Zeit einfach glänzend und speckig. Das sieht immer schmuddelig aus, egal wie sauber die Tastatur ist! Mit den matten PBT-Tastenkappen sieht das Keyboard aus, wie neu. Unten gebürstetes schwarzes Alu, oben matte Tasten. Die rote Beleuchtung könnte man durch weiß ersetzen, oder blau? Ob ich mir doch eine neue K70 RGB holen soll? Ich weiss, ich spinne ein bisschen 🙂
Mecha mit Cherry MX, Anschlagdynamik nach eigenem Belieben (die Farbcodes geben das unterschiedliche Tippgefühl an). Hersteller nach Belieben, da gibt es einige gute – Ducky, Corsair, HyperX, Cherry selbst. Viel falsch machen kann man da nicht. Besser als jede Membrantastatur!
Diese Website verwendet Cookies, damit wir dir die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in deinem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn du auf unsere Website zurückkehrst, und hilft unserem Team zu verstehen, welche Abschnitte der Website für dich am interessantesten und nützlichsten sind.
Unbedingt notwendige Cookies
Unbedingt notwendige Cookies sollten jederzeit aktiviert sein, damit wir deine Einstellungen für die Cookie-Einstellungen speichern können.
Wenn du diesen Cookie deaktivierst, können wir die Einstellungen nicht speichern. Dies bedeutet, dass du jedes Mal, wenn du diese Website besuchst, die Cookies erneut aktivieren oder deaktivieren musst.