Es gibt sie noch – die beste Tastatur überhaupt: Model M!
Wie ich bereits in anderen Beiträgen geschrieben habe, ist die IBM Model M meiner Meinung nach die beste Tastatur überhaupt. Das Model F wird von einigen als noch besser bezeichnet, da sagt mir aber das Tastaturlayout nicht zu. Die Tastatur gibt es bei Unicomp übrigens nach wie vor neu zu kaufen! Näheres erzähle ich weiter unten.
Durch Zufall bin ich jetzt zu 3 Model-M-Tastaturen gekommen. Eine Original, eine nachgebaute und eine, die zwar eine IBM Model-M ist, aber mit Gummitasten!
2020 aus dem alten Blogsystem übertragen. Die Blog-Beiträge auf dieser Seite sind zeitlich von unten nach oben sortiert, also beim Lesen einfach hinten anfangen 🙂
42er-Box Ludwigsburg
Die jüngeren werden es wohl nicht mehr wissen, aber es gab tatsächlich eine Zeit ohne Internet. Und das, was heute allgemein als Internet betrachtet wird – das www – ist auch nur ein kleiner Teil vom ganzen und gerade mal ca. ein paar Jahre alt – es wurde 1993 am Kernforschungszentrum CERN entwickelt.
Davor gab es Mailboxen. Mailboxen waren Computersysteme, betrieben von Nerds und Freaks, die Datenaustausch ermöglichten.
Man konnte darüber Mails verschicken, Files herunterladen und bei Mailboxen mit mehreren Leitungen auch chatten. In der 42er-Box gab es das selbst programmierte Sabberchat, programmiert an einem 1. Januar, mit brummendem Schädel, nach durchgefeiertem Jahreswechsel. Dazu eine Version von Pong, das 2 Benutzer online gegeneinander spielen konnten und Global War, einem Online-Nachbau von Risiko. Das war damals ziemlich cool.
Die Mailboxen waren in verschiedenen Netzen verteilt, Mausnet, Fidonet, etc. Unsere 42er-Box war im Fido-Netz und hatte die Adresse 2:246/1500
Das Sterben der Mailboxen begann mit dem Aufkommen des WWW und Internetzugang für jedermann sowie einer „Preissenkung der Telekom“, die lange Gespräche teilweise auf über das 10fache verteuerte. Zwar wurde der Preis je Takteinheit etwas gesenkt, die Dauer eines Gebührentaktes aber dafür erheblich verkürzt. Für Mailbox-Nutzer und Dauer-Chatter bedeutete das eine erhebliche Preiserhöhung.
Beim Aufräumen habe ich alte Bilder und Dokumente zur 42er-Box gefunden.
Diese Mailbox habe ich zusammen mit Freunden in Ludwigsburg betrieben.
Und wer glaubt Computerfreaks waren kontaktarm, der irrt – mehrere Treffs im Monat waren die Regel…
Vielleicht verirrt sich ja mal jemand aus der guten alten Zeit hier her. Ehemalige User dürfen gerne einfach einen Kommentar hinterlassen.
42er-Box – Chronik
42er BOX -= HUB LUDWIGSBURG =-
Chronik der 42er-Box Ludwigsburg
Stand SEPTEMBER 1995
NEU : jetzt in umgekehrter Reihenfolge sortiert : das Neueste steht am Anfang !
Warum diese Chronik ?
Ganz einfach : Damit man in der Zukunft weiss, welche Ereignisse der Vergangenheit zum Stand der Gegenwart geführt haben.
JANUAR 1996
nächster Usertreff ist am 26.1.1996 im Krauthof in Ludwigsburg.
Leider führt die zum 1. Januar eingeführte „Kostensenkung“ der Telekom zu erheblichen Verteuerungen für unsere Benutzer, so dass die Auslastung etwas nachgelassen hat (kennt jemand Konkurrenzunternehmen ?).
——————————————————————————-
DEZEMBER 1995
Während die Umgebungstemperatur im Keller, in dem die Box steht auf fröstelnde 2-4 Grad Celsius absinkt, laufen die Leitungen heiß, die Auslastung ist sehr gut, anscheinend ziehen viele Leute es vor, in der Box rumzustöbern statt Weihnachten zu feiern. Am 31.12.1995 wird noch eine neue Festplatte eingebaut (Connec 4GByte), so daß für die nächsten paar Tage wieder genügend Platz zur Verfügung stehen dürfte.
NOVEMBER 1995
Die Uptime unseres Server beträgt nun bereits über 2 Monate ohne Unterbrechungen ! Während die Auslastung stetig zunimmt, beträgt die Verfügbarkeit jetzt >95% und braucht sich somit selbst vor kommerziellen Anbietern nicht zu verstecken.
OKTOBER 1995
Die 42er-Box läuft und läuft, von einigen kleineren Problemen abgesehen, wie dem Absturz einzelner Lines gibt es diesen Monat keine größeren Besonderheiten. Zum Basteln an der Box ist es auch einfach zu kalt, steht das Ding doch im Gewölbekeller, in dem derzeit unter 10 Grad Celsius herrschen.
SEPTEMBER 1995
Die Box läuft einwandfrei, von kleineren Wartungsarbeiten abgesehen muss nicht viel gebastelt werden. Der nationale ISDN-Anschluss wird abgemeldet, die Lines 22255x stehen somit nicht mehr zur Verfügung. Dafür wird auf die Leitung 234980 ein ZYXEL-ISDN angeklemmt, so daß jetzt neben dem bereits vorhandenen ELINK ein weiterer ISDN-Online-Zugang vorhanden ist. Nach aktuellem Zählerstand verbraucht die Box pro Monat ca. 200kWh Telefonkosten : 245,01 DM (Restguthaben aus ISDN-Anschluss bei der Telekom : 298,25 DM) Usertreff war am 22.9.1995 im Krauthof Ludwigsburg, bei dem ca. 30 Leute anwesend waren.
AUGUST 1995
diesen Monat gab es zwei Abstürze des Servers, das erste Mal lief eine Platte über und beim zweiten Mal war anscheinend kurz der Strom weg. Proboard 2.10 wurde installiert, statt der Creatix-Karte hängt nun ein Elink310 für die ISDN-User am System, damit ist dann auch wieder ISDN-Online-Zugang möglich. Am Sonntag, 13.8.95 gab es 120 Online-Anrufe und damit eine Auslastung fast wie vor dem Umzug im April, damit kann man wohl ausgehen, daß es im Herbst wieder zu erheblichen Auslastungen kommt. Einziges Problem diesen Monat bereitet der Filelistgenerator, der nur bis 4GByte funktioniert, zwischenzeitlich liegen wir aber bei 4700MByte Filebase ! Änderungen wird es bei den Leitungen geben, da eine ISDN-Leitung abgemeldet wird und die restlichen endlich voll bestückt werden. Damit wird dann 1 ISDN-Zugang und 7 Analog-Zugänge zur Verfügung stehen. Telefonkosten : 258,98 DM (derzeit so niedrig wegen Guthaben aus ISDN-Anschluss) Zum Usertreff am 25.8.95 kamen diesmal wieder 30 Leute, die sich in Stefanos Taverne in LB-Ossweil trafen.
JULI 1995
Nachdem die Box im Juli immer noch stabil läuft, kann man sich nun eine kleine Schaffenspause gönnen, bis auf ein paar Kleinigkeiten läuft das System praktisch den ganzen Monat ohne Probleme. Usertreff gibt es im Juli keinen, da die meisten User sowieso im Urlaub sind. Telefonkosten : 1308,78 DM (incl. 5×130,- DM Anschlussgebühren)
JUNI 1995
Die Box läuft nun wieder recht stabil, bis auf kleine Hänger der einzelnen Leitungen gibt es keine größeren Probleme mehr, der Server läuft nun seit fast 8 Wochen ohne Absturz, das Routing funktioniert wieder, die neue Software ist anscheinend ziemlich zuverlässig und dürfte bis auf Weiteres vollkommen ausreichen. Zum Usertreff am 23.6.95 kamen ca. 40 Leute, der Treff wurde zusammen mit der Steppin’Out! (Sysop Metin Savignano, Amiga-System) durchgeführt. Telefonkosten : 496,07 DM
MAI 1995
Zu unserem Grillfest am 5. Mai kamen ca. 20 Leutchen, die sich bei diesmal herrlichem Wetter bis spät in die Nacht ganz gut unterhielten. Seit Anfang Mai scheint auch das Problem mit den Telefonleitungen behoben zu sein, insgesamt kann man wohl sagen, dass es mit der Box nach 3 Wochen harter Umbauarbeit langsam wieder aufwärts geht. Zum Usertreff am 12.5.1995 kamen dieses Mal ca. 25 Leute. Telefonkosten 235,60 DM
APRIL 1995
am 7.4. 1995 war wieder einmal ein Usertreff im Krauthof Ludwigsburg, diesmal waren ca. 30 Leute anwesend, etwas wenig, aber verständlich, wenn man bedenkt, daß am selben Tag die Box umgezogen ist und schon vorher etwas Verwirrung geherrscht hat. Leider haben wir von der Telekom auch eine tote ISDN-Leitung bekommen, die bis Ende April noch nicht repariert worden ist 8-( Der Umzug dauerte auch etwas länger als erwartet, am 26.4.95 ging nach tagelanger Arbeit endlich Binkley in Betrieb, womit Frontdoor und FMail als Performancebremse und Line-Killer endlich ausgedient haben. Somit dauert das Hochfahren der Lines nach einem User nun statt 4-5 Minuten nur noch 2-3 Sekunden ! Das Einsortieren der Mails läuft nun dank Squish fast unbemerkt im Hintergrund ab, während bisher das gesamte System fast stehenblieb, ausserdem stehen ab sofort ca. 200-300 MB an Mails zur Verfügung, was den meisten Bedürfnissen gerecht werden dürfte Telefonkosten : 374,64 DM Das neue Sysopteam besteht nun aus folgenden Personen : Thorsten Diercks, Jochen Drexel, Gabor Ivanyi, Rainer Schmied
Am 30.4.1995 wollten wir wieder einmal 42er-Grillfest veranstalten, aus Anlass des 2jährigen Box-Bestehens. Leider fiel dieses jedoch aufgrund schlechten Wetters aus, wurde aber am 5. Mai nachgeholt.
MÄRZ 1995
am 3.3. war wieder mal Stammtischzeit, auch diesmal im Krauthof in Ludwigsburg, mit fast 70 Leuten der bisher größte Andrang, wenn es so weitergeht, müssen wir wohl bald eine Halle mieten. Als schlechte Nachricht des Monats müssen wir hier Holgis Ankündigung eintragen, Mitte April aus dem Sysopteam auszuscheiden. Damit wird sich einiges ändern, die Box bleibt jedoch bestehen. Telefonkosten : 385,91 DM
FEBRUAR 1995
im Februar hat sich nicht viel erreignet, die Box lief etwas langsamer als bisher, da 2 Rechner für 8 Leitungen wohl doch etwas schwach sind, wenn man DOS-Software führt. Ansonsten lief alles seine geregelten Bahnen. Telefonkosten : ISDN DM 207,86, analog DM 150,45
JANUAR 1995
am ersten Januarwochenende, vom 7.1. bis 9.1. war die 42er-Box wegen Umbauarbeiten offline, wir haben auf den IBM-Lanserver 4.0 umgerüstet. Damit brauchen wir nur noch 2 anstatt 9 Rechner, was uns einiges an Stromkosten einsparen wird. Durch die Umstellung wird es wohl im Januar noch einige kleinere Probleme geben, insgesamt sind wir aber mit dem neuen System zufrieden. Durch neue Tosser-Software sind wir in der Lage, wieder neue Points aufzunehmen. Telefonkosten : ISDN 186,01 DM, analog 142,40 DM Beim Usertreff am 20.1.1995 im Krauthof Ludwigsburg gab es kleinere Probleme. Da der letzte Treff wohl zu spät angekündig wurde, kamen nur 32 Leute, deswegen bekamen wir diesesmal bei wiederum 25-30 angemeldeten Personen einen Raum mit 25 Plätzen. Leider war dieser Usertreff rechtzeitig angekündigt, so daß diesesmal 54 (!) Leute kamen, was etwas eng wurde, trotzdem war es auch diesesmal ganz lustig.
————————————————————————–
DEZEMBER 1994
Anfang Dezember ist die Stromrechnung fällig : Zählerstand 46115kWh, d.h. ca. 3700kWh hat unsere Box dieses Jahr aus den Leitungen gelutscht oder in Worten : 1023,- DM für Strom. Alternativen zu unseren 9 Rechnern werden ins Auge gefasst, der Probebetrieb mit OS/2 Warp 3 und Lanserver 4.0 von IBM verläuft zufriedenstellend. Für Anfang Januar 1995 ist daher die Umstellung vorgesehen. An Stromkosten fallen für ISDN 271,34 DM und für analog 137,11 DM an.
NOVEMBER 1994
am 25.11.1994 findet wieder ein Usertreff statt, diesmal im Krauthof in Ludwigsburg/Hoheneck. Trotz allgemeinem Bedenkens, da gleichzeitig in Stuttgart die Hobbyelektronik stattfindet und die Wirtschaft nicht so gut mit öffentlichen Verkehrsmitteln erreichbar ist, treffen sich immerhin 32 Leute. Die Bedienung ist gut, mit einem Nebenzimmer ist auch dafür gesorgt, dass wir niemanden stören und genug Platz haben, alles in allem sind die meisten begeistert, so dass der nächste Usertreff wohl wieder dort stattfinden wird. Seit Ende des Monats sind wir auch HUB im Radionetz (Netz des SDR/SWF) Telefonkosten ISDN : 241,67 DM, analog : 113,42 DM Was unsere Ausbaustufe angeht, sind wir seit November 1994 der größte HUB-Bereich im 246er-Netz. Und nach Ausfallzeit eine der stabilsten FIDO-Boxen 😉
OKTOBER 1994
Telefonkosten ISDN : 251,33 DM , analog : 123,08 DM alles in allen ein ruhiger Monat, das Boxleben dümpelt vor sich hin, der Usertreff 15.10.1994 zeigt allerdings, daß das Steakhaus Mignon in Ludwigsburg einfach zu klein ist, ausserdem ist die Atmosphäre dort nicht mehr so gut, wie am Anfang, was wohl vor allem an der ausgewechselten Bedienung liegt. Also muss ein neuer Platz her…
SEPTEMBER 1994 Was niemand mehr erwartet hat, wird wahr :
endlich gibt es ein neues exclusives Kleidungsstück : das 42er-T-Shirt in einer limitierten Auflage von nur 50 Stück. 10. September : heute schlägt das letzte Stündchen für RA, die Mailboxsoftware wird durch Proboard ersetzt. Das gibt zwar einige Probleme, aber letztendlich ueberwiegen die Vorteile doch deutlich. Immerhin hat es über einen Monat gedauert, bis die Software installiert war (wenn auch nur deswegen,weil sich niemand dazu aufraffen konnte). Mitte des Monats gibt es neue Modem:
ELSA Microlink mit 28.0kbps, für die ganz schnellen Analog-User. Und um weitere Anschaffungen zu würdigen, dürfen wir gleich darauf hinweisen, daß unser aller Horscht sich einen Manta zugelegt hat (Fuchsschwänze bitte per Sysopmail an Thorsten Diercks 😉 Mit 4 CD-Roms gibt es jetzt knapp 5GByte Files, hoffentlich reicht das bis Weihnachten. Am 27. September trifft sich der harte Kern auf dem Cannstatter Wasen Telefonkosten ISDN : 235,92, Analog 193,84
AUGUST 1994
geprägt von den Sommerferien ist im August nicht all zuviel los, allerdings treffen sich einige User in diesem Monat recht häufig in diversen Biergärten um über den Sinn des Daseins zu philosophieren 😉 Ende August geht uns die Kohle aus und nur durch aufmunternde Mails unserer User werden wir vom Abschalten der Box abgehalten Der Usertreff im August war zwar mit ca. 30 Leuten nicht schlecht besucht, allerdings hätte das ganze ein Grillfest werden sollen, das wegen Dauerregens leider kurzfristig ins Steakhaus nach Ludwigsburg verlegt werden musste. Für die Statistik sei noch anzumerken, dass diesen Monat die 6GByte-Download-Grenze bei den Online-Usern überschritten wurde. Nimmt man alle Anrufer zusammen, so dürfte sich eine durchschnittliche CPS-Rate von 1000bps ergeben, was dazu führt, daß diese 6GByte unsere Leitungen für ca. 1700 Stunden nur mit Online-Saugern belegt waren ! (das sind immerhin 70 Tage auf einer Leitung !) Dabei sind die Filerequests und Polls noch nicht eingeschlossen, die mindestens nochmal die gleiche Menge ausmachen. Telefonkosten ISDN : 221,20, Analog : 118,41
JULI 1994
am 2. Juli ist eine kleine Grillfete, die diesmal bei einem User (Alexander Strauß) stattfindet, bei bestem Wetter treffen sich dort ca. 30 Leute. Telefonkosten Juli : 325 DM. Bei Wolfie (Wolfgang Kocmich, Dope-Box) findet eine Grill-Fete statt, bei der mehr 42er-Leute da sind, als sonstige Personen. Diesen Monat wird eine neue Mailboxsoftware angeschafft (Proboard), die hoffentlich im AUGUST fertig installiert ist, Vorteile : – alle > 500 Nachrichtenbretter können online angeboten werden – beliebige Größe der MSG-Base, d.h. auch etwas ältere Mails sind noch verfügbar. – Unterstützung von Offline-Readern – bessere Sortierung von Mail- und Fileareas nach Themengebieten – Markieren von Dateien zum Download – und vieles mehr.
JUNI 1994
diesen Monat gibt es eine neue Analog- und eine neue ISDN-Leitung, so dass die 42er-Box ab sofort auf 8 Leitungen erreichbar ist. Bei den Points wird die Zahl von 60 erreicht. Telefonkosten im Juni : 362 DM. Diesen Monat ist die Betabox Wahlheim auf ISDN nicht erreichbar, dafür gibts am Monatsende satte 200MB an Files, die sich im Juni angesammelt haben.
MAI 1994
hineinzieht. Alle sind der Auffassung, dass man so etwas in nächster Zeit noch einmal machen sollte. Die Nachwirkungen dauern auch am 1. Mai noch an, den ganzen Tag sitzen ein paar besonders Kaputte im Badgarten in Ludwigsburg oder auf der Terasse und eliminieren die vom Fest übriggebliebenen Reste. Die Telefonkosten belaufen sich wieder auf knapp 400 Mark. Am Sonntag den 8. Mai gehts zur Nasenbärenjagd in die Wilhelma nach Stuttgart. Hierbei wird wieder mal deutlich, wie genau manche Leute Mails lesen, denn trotz genauer Beschreibung des Treffpunktes fehlen wieder ein paar Leute. Stammtisch ist am 27.Mai im Steakhaus Ludwigsburg, bei wiederum sehr guter Beteiligung wird hier bis spät in die Nacht gefachsimpelt.
APRIL 1994
Das Usertreff am 8.4 findet wieder mal im Steakhaus in Ludwigsburg statt, auch diesmal ist die Gaststätte reichlich- bis übervoll. Vielleicht sollten wir uns mal eine Halle mieten. Die Telekom bittet mit 400 Mark zur Kasse. Unsere Box wird in der Zeitschrift TeleComm auf der ersten Seite aufgeführt. Ein Dummuser sorgt für mächtig Wirbel, weil er mit geklauten Passwörtern diverse Flames verbreitet. Daraufhin muss der Zugang für Neuuser leider erheblich eingeschränkt werden. Am 30.4 organisieren wir ein Grillfest, anläßlich des 1jährigen Bestehens unserer Mailbox, mit 40 Leuten, die sich bei strahlendem Wetter am DRK-Heim in Klein-Ingersheim einfinden, wird es eine richtig gemütliche Party, die sich mit Grillen, Trinken, Babbeln und Pizzawerfen (H.S.) bis um 3 Uhr in den
MÄRZ 1994
Diesen Monat will die Telekom 500 Märker von uns. Wir haben 40 Points, für jede Leitung steht jetzt ein 386DX-33 zur Verfügung, desweiteren haben wir auf BOOT-ROMS umgestellt und eine Auto-BOOT-Software installiert, wollen wir hoffen, daß die Box in Zukunft stabil läuft 😉 Mit > 800 Fileechos und > 500 Nachrichtenechos sowie täglich ca. 20MB allen möglichen Kruschtes platzt die Box aus allen Nähten (komischerweise steigt die Auslastung schneller, als der technische Ausbau), derzeit wird diskutiert, wie es weitergehen soll, die eingesetzte Software mit 200 Echos für Files und Nachrichten ist hoffnungslos überlastet. Die Statistiken lesen sich inzwischen auch ganz nett : über 700 User haben wir jetzt, die online mehr als 3GByte gesaugt haben ! 17000 Online-Anrufe seit 1.Mai 1993. Seit März sind wir auch im Geldnetz vertreten, mal sehen, was da alles rüberkommt. Leider scheint in der Netzwerkverkabelung etwas nicht ganz in Ordnung zu sein, dauernde Kollisionen verlangsamen das Gesamtsystem erheblich, die Fehlersuche dauert an.
FEBRUAR 1994
wieder ist ein Monat vergangen, inzwischen haben wir fast 500 User, die Telefonkosten liegen bei knapp 400,-. Wir haben umgestellt auf Fido-light und sind ab sofort HUB Ludwigsburg mit der Nummer 2:246/1500. Mails gibt es jetzt von der CCWN. Die Pointzahl ist auf 35 angestiegen. Mit der neuen Anruferfolgeschaltung braucht man nur noch eine Nummer für die ersten 4 Leitungen. Thorsten Diercks hat es ermöglicht, dass wir die offizielle Distributionsbox für Terminate in Süddeutschland sind. Um die hohen Stromkosten zu senken und etwas Platz zu schaffen, wurden die 7 Herkules-Monitore und dazugehörige Tastaturen durch 2 Monitore, 2 Tastaturen und 2 Umschalter ersetzt, sieht gleich viel besser aus und braucht sogar weniger Strom 😉
JANUAR 1994
Neue Userlevel müssen eingeführt werden. Ab sofort gibt es neben den Standard-Usern noch fördernde User, die helfen sollen, die immensen Unkosten zu decken. Dass dies ein notwendiger Schritt war, zeigt die Telefonrechnung für Dezember, die fast 500,- beträgt. Dafür sind wir ab Januar Server im FileNet-BBR. Mitte Januar wird eine neue Leihgabe in Betrieb genommen, somit stehen ab sofort 5 analoge und 1 ISDN-Leitung zur Verfügung, um unsere User zu erfreuen. Dass dies notwendig ist, zeigt schon die Userzahl, die inzwischen auf 370 angestiegen ist.
—————————————————————————–
DEZEMBER 1993
Diesen Monat kann die ISDN-Line eingeweiht werden. Ende Dezember haben wir nun 2,2GByte Plattenkapazität, 4 Analogleitungen, 1 ISDN-Leitung, 200 User, 29 Points, sind HUB mit 8 Downlinks und sind somit weit über das selbstgesteckte Ziel hinausgeschossen. Am 10. Dezember ist wieder einmal Usertreff mit reger Beteiligung. Langsam steigen die Kosten für die Box in eine Höhe, so dass eine neue Finanzquelle aufgetan werden muss, da das Team 42 langsam überfordert wird.
NOVEMBER 1993
Nachdem die erträumten Ziele für Ende 1993 schon im Oktober 1993 erreicht sind, wird natürlich weitergeträumt, wie es weitergehen soll. Nachdem ich versuche, meine Träume durchzusetzen und damit von allen Schlaege bekomme, bekommt die Box im November eine zweite Gigabyteplatte als Leihgabe. Dass wir ISDN brauchen, um die Telefonkosten für die Beschaffung der Mails zu senken, wird immer deutlicher.
OKTOBER 1993
Die Telefonrechnung hat sich wieder beruhigt, waren anscheinend doch nur die Anschlusskosten, mit ca. 150,- kann man gut leben. Nachdem unser Uplink wie schon des Öfteren down war, diesmal für über eine Woche, entschliesst man sich, selber einen Hubbereich einzurichten, seither funktioniert alles einwandfrei. Der Stammtisch am 30. Oktober ist mit ca. 30 Leuten diesmal nicht so gut besucht, evtl. liegt es daran, dass wir diesmal eine Wirtschaft gewählt haben,die Verkehrstechnisch ungünstig liegt. Oder vielleicht, weil es ein Samstag war ? Na ja, man wird sehen.
SEPTEMBER 1993
Ein Monat, der viele Veränderungen brachte, die Ferien waren vorbei und die Auslastung der Box stieg immer weiter, die Filebase platzte aus allen Nähten, so daß man sich Mitte des Monats eine neue Festplatte für den Server zulegte, welche die traumhafte Kapazität von 1,2GByte hatte. Daß die zwei vorhandenen Leitungen überlastet sind, lässt das Team 42 nicht mehr ruhig schlafen, also einigt man sich, daß noch zwei weitere Leitungen vonnöten sind, welche die Telefonrechnung für September auf fast 350,- ansteigen lassen. Natürlich muss man jetzt auch mal einen Usertreff abhalten, wie es sich für eine gute Mailbox gehört. Leider zeigte sich, dass unsere Planung für 20 Personen etwas falsch war, mit über 50 Personen platzt das Steakhouse Mignon in Ludwigsburg am 9.9.93 aus allen Nähten.
AUGUST 1993
Als aussergewöhnliches Ereignis im August sollte die kirchliche Hochzeit von Katja und Holger Ankenbauer am 27. August 1993 angemerkt werden, von welcher sich das Sysopteam natürlich nicht fernhalten liess. Die rasanteFahrweise unseres Fahrers führte sogar trotz Stau dazu, daß wir gerade noch rechtzeitig in die Kirche fanden, allerdings führte diese Fahrweise auchzu seiner Absetzung als Fahrer für die Rückfahrt 😉 Bemerkenswert auch unser Anschluss an das EASYNET.
JULI 1993
Die Telefonkosten liegen noch unter 100,- sodass das Sysopteam noch ruhig schlafen kann. Trotz der Sommerferien wird die Auslastung immer größer, wieder vergehen viele schlaflose Nächte, in denen an der Box gefeilt wird. Ausserdem einigt man sich darauf, bei dem verwendeten Mailboxprogramm nicht unbedingt die neueste Version einsetzen zu müssen, nachdem Holgi die neueste Beta installiert hat und feststellen musste, dass selbige sehr auf Einsparung von Plattenplatz bedacht ist und dabei gleich die Userbase etwas komprimiert hat.
JUNI 1993
So steigt also am Samstag, dem 26. Juni die erste Grillfete der 42er-Box und trotz der bis dato geringen Userzahl von deutlich unter 100 sowie meiner genialen Wegbeschreibung, die dazu führte, daß aus dem Grillfest fast eine Schnitzeljagd geworden w„re, fanden sich über 30 Leute ein, um gemeinsam eine kleine Feier abzuhalten, die sich bis weit in den nächsten Tag hineinzog (anzumerken sei die grosse Operation Grillanzünden, morgens um 3, für ein gemeinsames Frühstück). Insgesamt steht fest: Sowas machen wir öfters 😉 Die Userzahl steigt immer schneller, auch Points gibts schon über 10, und der Anschluss an das Gamesnet und SF-NET führen im Ganzen zu einer Positive Entwicklung. Eine üble Sache gibt es im Fido : Nachdem einige Leute dort meinten, mit einem Putsch das ganze Netz umkrempeln zu müssen, spaltet sich das Netz wobei wir im Fido Classic bleiben, dem Teil des Fido, das auf demokratische Grundzüge beharrt.
MAI 1993
eine weitere Box im Raum Ludwigsburg. Daß die Box zu diesem Termin schon einwandfrei läuft, ist allerdings ein kleiner Traum, aber immerhin stabil genug, dass sie sich schnell herumspricht. Auch die Namensgebung hat lange gedauert, aber schließlich hat man sich auf -=42’er Box=- geeignet. (Für unwissende : im Kultroman Hitchhikers Guide to the galaxy ist 42 die Antwort auf die Frage des Universums, die 42er-Box soll die Antwort auf alle Boxen sein, ob sie es ist oder wird, muss die Zukunft entscheiden.) In unserem Fall ist 42 einfach die Antwort auf die Frage : Wie soll unsere Box heißen ? 😉
Die ersten Ausstattungen können sich durchaus sehen lassen :
Ein Server mit 2x 250MB Festplatte und zwei Arbeitsstationen, die die zwei Leitungen betreuen, mit denen die Box gestartet ist. Inzwischen träumt das Team 42 natürlich davon, daß aus der 42er-Box einmal eine richtig große Box wird. Für Ende 93 denkt man an 3 Leitungen, Anfang 94 vielleicht mal ISDN und eine Gigabyte-Platte wäre auch was nettes)
Die Resonanz auf die 42er-Box ist für den Anfang gar nicht übel, die User werden immer mehr, ein neuer Stern am Mailboxhimmel geht auf (hoffen wir, dass es keine Sternschnuppe wird). Natürlich will man die User auch kennenlernen, also braucht man ein Usertreff oder etwas Ähnliches…
APRIL 1993
vier Leute sich zusammenfinden, um eine eigene Box zu gründen, diese 4 sind (in alphabetischer Reihenfolge) :
von denen wir im folgenden nurmehr als Sysops bzw. TEAM 42 sprechen wollen. Zuerst muss natürlich ein Standort gefunden werden. Als solcher bietet sich das Arbeitszimmer von Holgi an, da dies zum einen der einzige Platz ist, der überhaupt zur Verfügung steht und zum anderen Ludwigsburg von den Telefonverbindungen am besten geeignet ist (Nahzone nach Stuttgart, etc.)
Testweise geht also im April 1993 eine Box ans Telefonnetz, die so vieles anders machen will, als andere Boxen. Der größte Unterschied zu bestehenden Boxen ist wohl, daß diese Box die einzige uns bekannte Box ist, die nicht einen Sysop hat, sondern deren gleich vier. So wird hier auch die Teamarbeit großgeschrieben, denn, daß so ein System von einem einzigen nicht verwaltet werden kann, ist von Anfang an klar.
Als weitere Team-Mitglieder gesellen sich unsere beiden Cosysops
Matthias Mertzky Joachim Woerner
hinzu, wobei wir in J.W. einen kompetenten Ansprechpartner in Sachen Bier und Kult gewonnen haben 😉
Nach vielen mühevollen Arbeitsstunden wird dann der Stichtag für den offiziellen Start auf den 1.Mai 1993 gesetzt, damit gibt es also ab
MÄRZ 1993
Einige aufrührerische User bereits vorhandener Boxen sind mit den bestehenden Verhältnissen unzufrieden und wollen wieder einmal alles ändern. Als Erstes versuchen sie, die Verhältnisse bei den von ihnen genutzten Boxen zu ändern, so sollen z.B. Fragen der User schneller bzw. überhaupt beantwortet, die Filebase besser gewartet werden und außerdem wäre es nicht schlecht, wenn IHRE Box nicht nur eine Box unter vielen wäre, sondern eine, von der man spricht.
Erste Bemühungen und Gespräche mit den betroffenen Systembetreibern verlaufen ganz zufriedenstellend, jedoch merken die Betroffenen bald, dass unüberbrückbare Gegensätze eine zukunftsträchtige Zusammenarbeit nicht zulassen und somit andere Überlegungen angestrengt werden müssen. Dies führt dazu, dass im (weiter im April)
(c) 1993,1994,1995 by Team 42
Anregungen und Verbesserungsvorschläge bitte an Jochen Drexel [Team 42]
Beim Umzug meiner Blog-Seiten von Typo3 auf WordPress habe ich einige Hundert Seiten gelöscht, teilweise veraltet, teilweise wegen DSGVO (Fotos mit Menschen) und teilweise, weil der Übertragunsaufwand einfach zu hoch war. Meine Homeserver-Sammlung im Lauf der Jahre war beachtlich, daher habe ich die Blog-Beiträge seit 2009 hier auf einer Seite zusammengefasst.
2009.5: Scaleo 2205
Homeserver mit 2GB RAM und 2TB Festplatten, aufgerüstet auf 12TB Betriebsystem: Microsoft Homeserver (basierend auf Windows Server 2003), 1GBit Netzwerk Das Teil war sehr gut. Microsoft Homeserver war so beliebt, dass Microsoft das System irgendwann eingestellt hat – kann ja nicht sein, dass man sowas auch in kleinen Firmen installiert und nicht die dicken Server kauft.
2009.10: SBS2003 Server
Als Microsoft-Partner gab es damals günstige Softwarepakete, daher lief im Keller ein Microsoft Small Business Server 2003 mit Exchange.
Dazu 3 DVB-S-Karten für den Sat-Empfang mit DVB-Viewer für TV-Aufnahmen im Netzwerk, Fritz!-Fax für Faxe und auch meine Wetterstation mit WS-Win lief darauf.
Damals schon lief meine Webseite www.bastel-bastel.de mit Virtualbox und Ubuntu 9.04 im Keller.
Einen Serverschrank gab es noch nicht, die Rechner standein einfach auf dem Boden.
Beide Kisten zusammen abgesichert mit einer Online-USV
2010: Eigenbau-Homeserver mit 17TB
Ersatzgerät für den Scaleo 2205: ein Eigenbau mit Intel Core2Duo E7500, 4x WD 1TB, 4x Samsung 1TB, 6x Samsung 1,5TB, Microsoft Homeserver im 19″ Servergehäuse.
11 Festplatten im Server, das war damals fast ein bisschen Overkill. 17TB war in 2010 schon eine ordentliche Menge Speicher. Damals habe ich aber auch viel für Kunden Super8 und VHS-Videos überspielt und konvertiert.
2010: SBS-Server 2008
Irgendwie war ich dauernd am Basteln, die Wetterseite hatte damals 30-40 Zugriffe pro Tag.
Im Herbst hatte ich einen neuen Server – mit Microsoft Small Business Server 2008. Intel Quadcore 9050, 12GB RAM, 8x1TB Festplatte am PCIe Raidcontroller und noch 4x 1,5TB, gesamt 15TB.
Das Netzwerk im Haus war schon durchgängig auf 1GBit ausgelegt
Daneben noch ein Homeserver zur Sicherung des SBS-Servers mit 8 TB auf 8 Festplatten, heute passt das locker auf eine Festplatte. Da bin ich oft im Keller gesessen und habe gebastelt.
Die Internetanbindung war 2010 in Ingersheim noch auf 3. Welt-Niveau. Da habe ich einige böse Leserbriefe in die Zeitung gesetzt und auch einen offenen Brief an den damaligen Ministerpräsidenten Öttinger geschrieben, nachdem die in allen Zeitungen ganzseitige Eigenlob-Anzeigen veröffentlicht hatten, was für ein tolles Hightech-Land Baden-Württemberg doch ist. Beantwortet wurde das leider nie.
Die Speed war bei 768kBit Downstream und 200kBit Upstream – Kilobit! Fernwartung bei Kunden war da nur eingeschränkt möglich, die Telefonkabel waren noch von 1964 – mit Papierummantelung!
Die Webseite lief weiter unter Virtualbox, allerdings bereits auf Version 9.10. Dazu ein virtuelles Windows XP für WS-Win (die Wetterstation für www.ingersheimwetter.de), dazu Heizungsüberwachung, Fax, Anrufbeantwortert und weitere Aufgaben. Die Wetterstation wurde auf eine WS550 von ELV aufgerüstet. Das gab bessere Wetterdaten.
Ende 2010 gab es ein Update für Hyper-V in Windows Server, damit lief dann auch Ubuntu stabil auf dem SBS-Server und ich konnte alles vom Homeserver auf den SBS-Server 2008 umziehen – eine Serverkiste weniger. Die Platten wurden aus Energiespargründen in USB-Kästen ausgelagert und nur bei Bedarf angeschlossen. So ganz stabil war das dann aber doch alles nicht, daher gab es schnell wieder etwas Neues…
2011.1 HP Microserver
Das war eine feine Kiste. Nur 300,- Euro, 4 Festplatteneinschübe und schön kompakt. Von Hyper-V bin ich wieder auf Virtualbox umgestiegen (Version 3.12), das lief recht gut und absturzfrei. Als Basis damals noch Windows, es gab schon Überlegungen, das Basissystem unter Linux laufen zu lassen. Ich habe es dann aber doch auf Server 2008R2 installiert. Heute läuft hier alles unter Linux. Mit 8GB RAM konnten leider nur maximal 3 virtuelle Maschinen sinnvoll laufen. Von diesen Kisten habe ich damals einige bei Kunden installiert.
2011.2 Fujitsu Microserver Primergy MX130Si
Irgendwie war das die Zeit der schnellen Serverwechsel. Windows Server 2008R2 als Basis, SBS2008 mit Exchange für Mails und 2 weitere virtuelle Maschinen. Ständig habe ich irgendetwas optimiert, verändert, verbesser, umgestellt. So richtig zufrieden war ich aber nie.
2011.11 Highspeed-Internet
Endlich gibt es in Ingersheim anständiges Internet. Allerdings nicht von der Telekom. Kabel-BW hat die Straße an die Zukunft angeschlossen. Ab sofort standen 50MBit down und 4MBit up zur Verfügung, 50x schneller als zuvor bei der Telekom. Da machte auch mein Webserver endlich Spass – mit www.ingersheimwetter.de und www.bastel-bastel.de
2012.1 – Raid5
Wieder etwas neues:
Ein HP ML330 als Schnäppchen gekauft und mächtig aufgerüstet: 72GByte RAM, Xeon E5645, Raid 5. Darauf liefen mehrere virtuelle Maschinen unter Windows Server 2008R2 mit Hyper-V: Windows SBS2011 mit Exchange, Win7 für meine Druckmaschine Roland VS-420, WinXp für die Wetterstation und Linux für die Webseite. Dazu DVBViewer als Videorecorder und der Server für die Logitech Squeeze-Box.
Dazu gab es einen feinen 19″-Rack und für die Datensicherung lief der Homeserver v1 auf dem HP Microserver N40L
2013 – Synology Diskstation
2013 fing so langsam der Abschied von Windows an. Eine Synology Diskstation DS1512+ zog in den Keller. Darauf lief als Mailserver Zarafa. Die Diskstation konnte für meinen Bedarf alles, was der SBS-Server konnte, lief aber deutlich stabiler. Die Wetterstation wurde durch ein Profigerät Davis Vantage Active Plus ersetzt und lief mit einem Micro-Rechner von Zotac mit Win7 und AMD E350. Die Zeit der dicken Serverkisten war damit Geschickte. Der Stromverbrauch sank deutlich. Der Webserver lief auf dem HP Microserver N40L unter Linux.
2015 – Diskstation DS1815+
Durch die Diskstations kam etwas Ruhe ins Gebastel. Die Diskstation 1512+ wurde in 2015 durch eine DS1815+ ersetzt: Platten aus der alten Kiste in die neue umstecken, neu starten, funktioniert.
Der Internetanschluss wurde auf 100MBit hochgerüstet (Upload 10Mbit). Die Telekom bot immer noch nicht mehr als 1Mbit an.
Wer ein Netzwerk hat, der braucht früher oder später auch einen Server.
In meinen bald 40 IT-Jahren habe ich schon viele Serversysteme gesehen, installiert und damit gearbeitet. Welches das erste System war, weiß ich nicht mehr. Novell-Server? Danach kamen Windows Server, von NT-Server über 2000 bis zu den aktuellsten Windows Server-Versionen. Natürlich auch Unix-Systeme. Auch Homeserver oder NAS gingen schon viele durch meine Hände. Aktuell verwende ich für unser Haus-Netz eine Synology Diskstation.
Als Backupserver verwende ich neben einer weiteren Diskstation seit einiger Zeit Open Media Vault. Das ist eine freie Software, mit der man in Null-Komma-Nix und zu Null-Komma-Nix Kosten einen Server installieren kann (die Kosten für Hardware kommen natürlich dazu, aber die Software ist extrem genügsam).
Für die meisten kleineren Netze kann man OMV bedenkenlos als zentralen Fileserver einsetzen. Basierend auf der Linux-Distribution DEBIAN ist das System extrem stabil. Ich hab das Backup-System wohl vor 106 Tagen installiert. Jedenfalls läuft es laut Screenshot seit 106 Tagen ohne irgendwelche Probleme (wenn Du das hier liest, sind es wohl noch ein paar Tage mehr). Probier das mal mit Windows!
Server-Hardware
Als Server-Hardware verwende ich einen Raspberry Pi 4 mit 4GB RAM
Für OpenMediaVault würden auch die älteren Modelle vollkommen ausreichen, allerdings hat erst das neueste Modell einen anständigen LAN-Anschluss und USB 3.0, vorher wurden LAN und USB über einen gemeinsamen Anschluss verwirklicht, was den Durchsatz gebremst hat.
Theoretisch könnte man auch ein kleines Board mit Intel- oder AMD-Prozessor verwenden, anstatt dem Raspberry Pi. Das wäre dann zwar deutlich weniger kompakt, aber man könnte dann ein kleines Gehäuse mit internen Festplatten verwenden und bei Bedarf auch eine 10GbE-Netzwerkkarte einbauen. Für meinen Backup-Server reicht der Raspberry Pi 4 aber vollkommen. Backup-Jobs werden mit bis zu 100MB/s übertragen, der Raspberry 4 reicht also, um 1GbE auszulasten, das 3er-Modell hatte hier deutlich weniger Durchsatz erreicht.
Für die Daten verwende ich externe 2,5″ USB 3.0-Festplatten, die hatte ich sowieso noch herumliegen und immer zur manuellen Sicherung eingesetzt.
Für Raspberry gibt es fertige Images, die man nur herunterladen und auf eine SD-Karte kopieren muss, so ein System ist in kürzester Zeit eingerichtet. Nicht mal einen Monitor benötigt man dafür – nur etwas Geduld, es dauert ein Weilchen, bis der Raspberry nach dem ersten Start im Netzwerk auftaucht. Karte in den Raspberry Pi, Stromversorgung und Netzwerk einstecken, warten. irgendwann kann man dann in der Netzwerkumgebung (z.B. im Router) ein neues Gerät erkennen und direkt mit dem Web-Browser darauf zugreifen und die Einrichtung starten. Mit vielen Anleitungen im Internet ist das ein Kinderspiel. Das erste Mal dauert vielleicht 30 Minuten, der 2. Server benötigt dann sicher keine 10 Minuten mehr.
Stromversorgung
Der Raspberry Pi ist recht anspruchsvoll in Sachen USB-Netzteil. Ausserdem müssen die USB-Festplatten noch mit versorgt werden. Für mehr als eine Platte sollte man auf jeden Fall einen USB-Hub mit aktiver Stromversorgung einsetzen, um den Raspberry nicht zu überlasten.
Das brachte mich eine einfache aber funktionale Lösung:
Für die Stromversorgung meines Servers verwende ich einen aktiven USB-Hub mit 7x USB3.0 (blau) und 4x USB für die Stromversorgung(rot), sowie einem 60W-Netzteil.
Der Raspberry Pi 4 ist einfach an einem der rot leuchtenden Anschlüsse angesteckt, diese dienen rein der Stromversorgung und haben keine Verbindung zum eigentlichen USB-HUB. Den USB-Hub habe ich dann an einen der USB-Anschlüsse des Raspberry angeschlossen und -tada- es stehen 7 USB3.0 mit ausreichend Stromversorgung für externe Geräte zur Verfügung. Eine einfache und elegante Lösung. Das funktioniert hervorragend. Diese USB-Hubs bekommt man im Internet in allen möglichen Ausprägungen, da sollte für jeden etwas dabei sein.
Netzwerk-Freigaben
Im OpenMediaVault habe ich einen Backup-Benutzer eingerichtet, den es sonst im Netzwerk nicht gibt. Das ist wichtig, damit bei einem Befall mit einem Verschlüsselungstrojaner nicht auch die Backups verschlüsselt werden. Wären die Freigaben für jeden Benutzer im Netz zugänglich, dann hätte ein Trojaner natürlich auch Zugriff darauf.
Wie man die Festplatten aufteilt und einrichtet, muss natürlich jeder für sich selbst entscheiden. Bei mir sieht das beispielsweise so aus:
1. Platte – Rsync Backup meiner Synology Diskstation mit der integrierten Backupfunktion auf die OMV-Backupkiste.
2. Platte – IMAGES meine virtuellen Maschinen werden in regelmäßigen Abständen auf diese Platte kopiert
3. Platte – Veeam Veeam ist eine Sicherungssoftware, die ich für Windows einsetze (geht auch für Linux), damit werden die Windows-Maschinen nochmal extra täglich gesichert)
4. Platte – Archiv Altes Zeug, das ich nicht mehr benötige, wird hier zwischengelagert und dann irgendwann gelöscht.
Das ist natürlich nur ein Teil meines Sicherungskonzepts. Die Diskstation wird auf eine andere Diskstation synchronisiert und es existieren noch weitere Sicherungen. Zusätzlich werden natürlich noch Offline-Sicherungen erstellt, die nicht mit einem Rechner verbunden sind. Vielleicht ist das auch schon Paranoia, aber meine privaten Daten reichen – bisher ohne Datenverlust! – bis 1995 zurück. Festplatten sind so billig, daran sollte man nicht sparen. Eine 5TB 2,5″-Festplatte bekommt man schon für 100,- Euro. Wenn einem das seine Daten nicht wert sind, dann haben die Daten keinen Wert.
Fazit
OpenMediaVault kann ich jedem nur ans Herz legen, der für zuhause einen kleinen Server einrichten will. Ob zentralen Fileserver oder Backupserver, OMV ist dafür bestens geeignet. Es ist kostenlos, sehr genügsam in Sachen Hardware und die Einrichtung geht problemlos auch für Laien. Kleiner Tipp: Wenn man den OMV als zentralen Fileserver einsetzt, dann benötigt man natürlich auch eine Backup-Lösung. Dafür gibt es direkt im System viele verschiedene Möglichkeiten, oder man installiert einfach noch so ein System für das Backup. Es gibt viele Möglichkeiten. Je nach Wichtigkeit der eigenen Daten sollte man diese nutzen. Besser mehrere, aber zumindest eine. RAID kann OpenMediaVault natürlich auch, aber RAID ist zwar was Feines, aber kein Backup.
Update
Mittlerweile läuft das System schon über 1 Jahr und ist immer noch auffällig unauffällig. Die Uptime, also die Zeit seit dem letzten Neustart, beträgt aktuell 306 Tage. Installiert ist die Version 5.6 Der Raspberry Pi läuft einfach. Ab und an spiele ich Updates von Open Media Vault auf und prüfe, ob es irgendwelche Meldungen gibt (Fehler oder ähnliches, aber bisher war nichts), ansonsten muss man nichts tun.
Hätte ich nicht meine Synology Diskstation DS 1819+ (mit 10GBit Netzwerkkarte), ich könnte mir gut vorstellen, einen zentralen Server mit OpenMediaVault zu nutzen. Mit einem kleinen, stromsparenden Prozessor, z.B. Intel Core i3 oder besser AMD Ryzen, kleines Servergehäuse und ein paar Platten, kann man mit OMV sehr stabile und effiziente Fileserver zusammenstellen. Zugegeben, die Benutzerverwaltung ist natürlich deutlich einfacher, als bei Microsoft Active Directory, aber bei 90% der Kleinfirmen mit 3-10 Arbeitsplätzen könnte man die verbreiteten Microsoft Windows Server problemlos durch OMV ersetzen. Die meisten Firmen verwenden ihre Server sowieso nur als Datenablage. Damit würde man einige Kosten sparen. Open Media Vault begnügt sich mit sehr einfacher Hardware, ist robust und einfach zu administrieren. Wenn ich da an diverse Update-Orgien unter Windows-Server zurückdenke, dann ist OMV für mich das eindeutig bessere System für kleine Dateiserver. Allerdings läuft natürlich keine Windows-Software auf dem System. Wer also beispielsweise einen SQL-Server oder ähnliches benötigt, muss wieder auf Windows Server zurückgreifen.
Für kleine Betriebe, die nur Buchhaltung machen, Rechnungen schreiben, oder ein paar Dokumente verwalten, könnte man mit OMV sogar ein kleines NAS (Network-Attached Storage) ersetzen. Da kommt es dann drauf an, was man persönlich bevorzugt. Ein fertiges NAS von Synology oder QNAP sind noch einfacher und werden – abgesehen von den Festplatten – fertig geliefert, bei OMV muss man sich erst etwas zusammenbasteln. Dafür ist man aber flexibler, kann die Hardware frei wählen und ist nicht an einen Hardwarehersteller gebunden.
Für ein Familien-NAS kann ich OMV auf Raspi-Basis empfehlen. Als Alternative zu USB-Festplatte am Router ist so ein Teil deutlich besser, vor allem schneller.
Für mich ist Open Media Vault auf einem Raspberry Pi das optimale Backup-System. Als Haupt-NAS setze ich seit Jahren Synology-Kisten ein. Für das Backup sind mir die Geräte aber zu teuer, da ist OMV besser. Vor allem kann ich das in 10 Minuten auf beliebiger Hardware selbst aufsetzen. Mal eben zum Test ein System auf einem alten PC oder einem Raspberry installiert, ist eine feine Sache.
Ich würde jedem, der Interesse an einem Netzwerkspeicher hat, einen Blick auf Open Media Vault empfehlen. Es kostet ja nichts, daher kann man außer der investierten Zeit nicht viel verlieren.
Natürlich gibt es zig andere ähnliche Systeme, wie z.B. FreeNAS oder die erwähnten NAS-Systeme von Synology, QNAP, Zyxel, Netgear und viele anderen. OpenMediaVault gefällt mir vor allem wegen der Schlichtheit, des geringen Ressourcenbedarfs und der Stabilität. Das Ding ist noch nicht ein einziges Mal abgestürzt.
Für ein Backup-System gefällt mir auch die Installation mit externen 2,5″-USB-Festplatten über einen USB-Hub. Die Geschwindigkeit muss hier nicht so hoch sein, wie bei einem Dateiserver, mit USB-Festplatten ist man aber deutlich flexibler. Ausserdem lagen die sowieso herum.
Für Backup-Zwecke habe ich einen Sicherungs-Benutzer eingerichtet, den es sonst im Netzwerk nicht gibt. Das kann Verschlüsselungstrojaner am Zugriff hindern, die unter Windows mit vollen Rechten auf alles zugreifen, was der befallene Windows-PC in Reichweite hat – auch ein NAS, falls der Benutzer darauf Zugriffsrechte besitzt.
Für jede Sicherung und jede Netzwerkfreigabe gibt es daher einen extra Backup-Benutzer, sonst hat niemand auf die Dateien Zugriff. Wenn also der fiktive User Hans sich einen Trojaner einfängt, der alles, inklusive des Netzwerkspeichers, verschlüsselt, dann ist auf dem OMV immer noch eine Kopie, auf die er keinen Zugriff hat. Natürlich muss man dann auch mehrere Versionen gespeichert haben, nicht dass man zufällig die letzte Sicherung mit der aktuellen, verschlüsselten Version, überschreibt. Und zusätzlich empfiehlt sich noch eine externe Sicherung, die nicht am PC oder Netzwerk angeschlossen ist. Beispielsweise mit einer USB-Festplatte, die nur zur Sicherung angeklemmt und nach der Sicherung sofort wieder entfernt wird – auch hier sollte man mindestens 2 Platten verwenden.
OMV kann man auch prima als kleinen FTP-Server einsetzen, oder als externes Backup-Gerät, das irgendwo anders steht. Damit kann man sich gegen Brand, Diebstahl und ähnliche Ereignisse schützen, bei denen nicht nur der eigene Server, sondern gleich auch das Backup im Haus verloren geht.
Runterladen kann man sich das System auf openmediavault.org.
OpenMediaVault basiert übigens auf Debian Linux, einem Linux-System, das auf höchste Stabilität ausgerichtet ist. Ideal ist das System für kleine Firmen, Familien-NAS oder als Backup-System. An die Hardware werden keine großen Ansprüche gestellt. Schon ein alter, ausgedienter PC reicht problemlos als Fileserver. Allerdings sollte man darauf achten, dass der Rechner nicht zu stromhungrig ist, denn als NAS läuft das Teil, abgesehen von möglichen Stromspareinstellungen, dauerhaft durch.
Stand 3.2021 Aktuell ist die Version 6, ich werde wohl ein Update riskieren und mir die neueste Version installieren. Aber vorher wird natürlich ein Backup erstellt 🙂
Im Februar 2020 habe ich fleissig meine Rechner durchgetauscht und aufgerüstet. Eine spannende Arbeit. Ein kleiner Bericht.
AMD Ryzen 9 3900x
Eigentlich sollte der Server im Keller ausgewechselt werden. Ein alter HP-Rechner mit Intel i7-Prozessor, 4 Kerne/ 8 Threads und 32GB RAM unter Ubuntu Linux. Das System war leider etwas zu schwach. Die Rechenleistung des i7 würde zwar reichen, aber für die vielen virtuellen Maschinen wären mehr Kerne von Vorteil. Die nötige Speicheraufrüstung wäre aber nur durch einen Austausch aller Module möglich. Daher entschied ich mich dafür, den Server-PC als Ganzes auszumustern, alternative Einsatzzwecke dafür habe ich genug. Neuer Server wird mein bisheriger Büro-PC mit AMD Ryzen 5 2600 und 64GB RAM. Der Prozessor ist zwar Tests aus dem Internet nach nur ca. 20% schneller als der i7, dafür hat er 6 Kerne / 12 Threads, also 50% mehr. Das wiegt bei virtuellen Maschinen schwer. Ausserdem sind bereits 64GB RAM verbaut.
Büro-PC
Den Büro-PC habe ich komplett neu zusammengebaut. AMD Ryzen 9 3900x mit 12 Kernen / 24 Threads, eine heftige Power-Maschine. Das ganze aufgebaut auf einem MS X570-A4 Pro Board und dazu 64GB RAM. Für die Daten habe ich eine Samsung 970EVO Plus M.2-SSD spendiert, als Grafikkarte habe ich eine alte Geforce 1070TI recycled. Da ich nur Büroarbeit erledige und nicht spiele, reicht die noch vollkommen. Zuerst hatte ich versehentlich die langsamere Geforce 1060 eingebaut, die man auf dem Foto sieht. Bei 2 herumliegenden Karten besteht leider die 50% Wahrscheinlichkeit, dass man die falsche einbaut. Das war aber schnell behoben. Der Zusammenbau ging flott von der Hand und Linux Ubuntu 19.3 war von USB-Stick bereits 5 Minuten nach dem ersten Booten komplett installiert. Das sollte man mal mit Windows 10 ausprobieren.
Die Kiste geht ab wie Schmidts Katze. Eine Hammer-Maschine, in der Systemüberwachung ist bald kein Platz mehr für die Prozessorkerne.
Thunderbird, Virtualbox und die übrigen Linux-Programme waren in kürzester Zeit installiert. Meine virtuelle Windows10-Maschine habe ich einfach vom alten Rechner auf den neuen kopiert. Wider Erwarten wollte Windows KEINE Neuregistrierung, sondern lief sofort in Virtualbox an, als hätte sich nichts geändert – nur war eben alles schneller, als auf dem Ryzen 5.
Für die Installation des Büro-PCs habe ich inklusive Zusammenbau und Einspielung aller Programme nur knapp eine Stunde benötigt. Da zahlt es sich aus, dass die Daten auf dem Server und nicht auf dem PC liegen und Windows in einer virtuellen Maschine liegt, die man einfach kopieren kann.
VM-Server
Weiter ging es mit dem VM-Server. (Server für die Virtuellen Maschinen (VM)) Auch hier ging die Installation recht flott. 2 neue M.2 SSD-Laufwerke Samsung SSD 970EVO+ mit je 1 TB habe ich eingebaut, das reicht aktuell für 6 virtuelle Maschinen.
Nachdem das Grundsystem lief, habe ich die virtuellen Maschinen auf dem alten PC nacheinander abgeschalten und auf den neuen Server überspielt. Zuerst die 2 virtuellen Windows 10 – Maschinen für meine Drucksysteme. Virtuelle Systeme sind einfach was Feines. Einfach auf einen anderen PC kopieren und neu starten. Fertig. Trotz Wechsel von i7 auf AMD Ryzen 5 gab es keine Probleme.
Nach den Windows-Maschinen wollte ich die Linux-VM für meine Webseite (www.bastel-bastel.de) auf den neuen PC kopieren und kam auf die dumme Idee, das Ding im laufenden Betrieb zu kopieren. Eigentlich sollte ich es besser wissen, offene Datenbanken kann und darf man nicht einfach kopieren, das macht Probleme. Manchmal denkt man aber nicht richtig nach. Die Virtuelle Maschine (VM) war schnell kopiert und ich konnte ohne Unterbrechung die Webseite auf dem neuen PC weiterbetreiben. Na ja, kurz darauf stürzte die Webseite ab. In den nächsten 2 Stunden gab es 4 Abstürze, irgendwann war dann keine Verbindung zwischen WordPress (der Webseiten-Software) und der Datenbank mehr möglich. Und da ist mir wieder eingefallen, was ich eigentlich vorher schon hätte wissen müssen: Kopiere keine geöffneten Datenbanken, das führt zu Inkonsistenzen. Nachdem ich meine eigene Dummheit erkannt und die geschlossene VM nochmal kopiert hatte, lief dann auch die Webseite wieder stabil. Seither gab es auch keine weiteren Probleme.
Damit liefen auf dem neuen Server 4 virtuelle Maschinen: 2x Windows 10 für meine Drucksysteme, 1x Windows 7 für diverse Zwecke und 1x Linux Ubuntu für meine Webseite. Alles war deutlich schneller, als auf meinem alten Server. Ich war zufrieden.
Kleinzeug
2 Dinge liefen aber noch nicht, der Radioaktivitätssensor und meine Solaranlage. Für beide war die zugehörige Software in der virtuellen Windows 7-Maschine installiert. Die Sensoren waren via USB angeschlossen und wurden von Linux an Windows durchgereicht, allerdings im Keller. Ich kam aber auf die Idee, das Netzwerk auf 10GBit hochzurüsten und daher sollte der Server zukünftig im Büro stehen. Sonst hätte ich 3 Switches austauschen müssen, so reichte einer. Die Lösung war ein Silex DS-510 USB-Device-Server. Das Teil hat 2 USB-Ports und einen LAN-Anschluss. Mit den passenden Treibern kann man die an USB angeschlossenen Geräte im Netzwerk verteilen. Kurz bestellt und eingebaut und alles lief auf Anhieb. Dabei liegen da durchaus Fallstricke, die Verbindungsstrecke ist nicht trivial: Radioaktivitätssensor bzw. SMA 5000TL Wechselrichter mit uralter Seriell-Schnittstelle (RS-232!), eingesteckt an einen Seriell-USB-Adapter. Die beiden USB-Adapter in den Silex DS-5100 USB-Device-Server und ab ins LAN. Auf dem Linux-Server in der virtuellen Maschine ein Windows 7 mit Treibern für den USB-Server, dort werden mit der Software für den USB-Seriell-Adapter 2 virtuelle serielle Schnittstellen zur Verfügung gestellt und darauf greifen 2 uralte Programme zu. Aber alles läuft soweit problemlos.
10GbE – 10GBit LAN – Netzwerk in einer neuen Dimension!
100MBit gibt es schon seit Jahrzehnten, 1GBit gefühlt auch schon ewig. Seit mindestens 15 Jahren setze ich hier schon 1GBit-Netzwerk ein. Seither haben sich die Computer rapide weiterentwickelt. Nur das Netzwerk ist bei 1GBit stehengeblieben. Damit sind im Idealfall um die 120 MByte pro Sekunde übertragbar, in der Regel liegen die Übertragungswerte bei 100MByte bis hinab zu 30MByte pro Sekunde, je nachdem was sonst noch im Netzwerk läuft. Zum Vergleich: Das Umkopieren der virtuellen Maschinen von M.2-SSD auf M.2-SSD lief mit 1.600MByte/s. Einzelne Festplatten bringen zwar kaum mehr, als ein 1-Gigabit-LAN verarbeiten kann, aber schon ein kleines RAID im Server oder gar SSD werden durch 1GBit/s-LAN ausgebremst. Neue WLAN-Standards liegen in der Theorie auch schon über 1GBit/s. Es wird also Zeit für 10GBit-LAN. Leidersind die benötigten Komponenten noch sauteuer und nicht besonders weit verbreitet. Zudem sind die benötigten Switches auf den gewerblichen Einsatz in Serverschränken ausgerichet und erzeugen eine heftige Geräuschkulisse.
Netgear MS510TX 10-Port Multi-Gigabit/10G Switch
Nach langer Suche und viel Überlegung, habe ich mich für den Netgear MS510TX entschieden. Der hat zwar auch einen Lüfter, der ist aber in meinem Büro kaum zu hören. Der Switch hat 2x 10G-Anschluss, davon 1x direkt für Kupferkabel und einmal für SFP+. Dazu noch 2x Ports mit 1G/2,5G/5G und 2 Ports 1G/2,5G, also Zwischenstufen zu 10G. Der Switch soll erst mal Erfahrungswerte erzeugen. Es muss ja nicht alles mit 10GBit angeschlossen werden,
SFP+ ist ein Steckplatz, an dem man Adapter anschliesst. Da gibt es Glasfaser oder Kupfer-Adapter.
Ich habe mich direkt für ein passendes 3m-Kabel 10Gtek SFP+ mit festen Adaptern auf beiden Seiten entschieden, da der VM-Server direkt neben dem Switch steht, passt das.
Der Switch arbeitet unauffällig und recht leise. Für den Anfang sollte der reichen. Der Rest des Netzwerks läuft weiterhin mit 1G.
Netzwerk-Karten-Spiel
Die verfügbaren bezahlbaren Netzwerkkarten kann man an 3 Fingern abzählen. Ich habe 3 Stück Asus XG-C100 mit Aquantia AQtion AQC107-Chipsatz (noch nie gehört) bestellt, 2x mit Kupfer für die normalen, „alten“ Anschlüsse und einmal mit SFP+ für dieses spezielle Kabel. Da kamen natürlich zuerst mal 3 Stück mit RJ45-Anschluss, das hat die Sache um 2 Tage verzögert, die Ersatzlieferung hat dann aber gepasst. Die Karten wurden eingebaut und auch direkt von Linux erkannt. Alles lief schön, bis ich die virtuellen Windows-Maschinen getestet habe. Die sind laufend abgestürzt und haben teilweise den Netzwerkanschluss der Linux-Maschine so weit gestört, dass ich neu Booten musste. Das war ziemlich frustig. Wenn es mal lief, dann lag die Übertragung bei lächerlichen 20-300Kilobyte/s.
Darauf habe ich mir die 10Gtek 10GBe-Karte mit Intel Chipsatz bestellt. Der Chipsatz ist schon etwas älter, aber leider wird er von Linux nicht direkt unterstützt. Der Treiber musste erst kompiliert werden, das hat leider nicht funktioniert. Laut Datenblatt werden Linux Kernel 2 und 3 unterstützt, das ist uraltes Zeug. Im Web habe ich einige Beiträge gefunden, die dieselben Probleme hatten, nur gab es keine Lösungen. Anscheinend benötigt man einen speziellen Kernel, der stand bei meinem Linux Mint 19.3 aber nicht zur Verfügung. Ausserdem wollte ich nicht das ganze System nur wegen der Netzwerkkarte verbieten. Also weg mit der Karte. Unter Windows wäre es vielleicht einfacher gewesen. Aber wer will das schon.
Zurück zu den Asus-Karten. Virtualbox hat leider nur wenig virtuelle Netzwerkkarten zur Auswahl und nur die Intel-Karte funktioniert überhaupt. Also habe ich alle Einstellungen Stück für Stück durchprobiert. Trial and Error. Tatsächlich – nachdem ich die Verbindungsgeschwindigkeit fix auf 1000MBit Duplex gestellt und die Puffer für Senden und Empfangen auf 512 verdoppelt hatte, liefen die virtuellen Maschinen absturzfrei. Die angezeigte 1000Mbit sind dabei egal, es ist ja nur eine virtuelle Schnittstelle.
Seither läuft alles mit vollen 10GBit, das macht richtig Spass!
Naja, alles ist übertrieben – der Büro-PC und der Server für die virtuellen Maschinen. Immerhin ist das Netzwerk hier spürbar schneller.
Als Datenserver verwende ich eine Synology DS918+, die kann leider nur 1GbE, da warte ich dringend auf ein Nachfolgegerät. Alternativen wie Eigenbau oder andere Anbieter wären mit sehr viel Arbeit verbunden, das will ich mir nicht antun. Größere Synology-Geräte sind zu groß und zu teuer. Bis dahin sind die Arbeitsdateien auf den VM-Server ausgelagert. Umständlich aber schnell. Als Zwischenlösung OK. Das Überwiegende Netz läuft natürlich noch auf 1GbE, das ist für die meisten Anwendungen schnell genug, es soll ja auch nur zur Übung sein. Nach und Nach kommen dann weitere schnelle Geräte dazu.
Noch mehr Virtualisierung
Der neue VM-Server stand also im Büro und daneben mein (uralter) Wetter-PC mit AMD E-350. Das Ding läuft seit Jahren problemlos für meine Wetterstation. Sollte man an einem funktionierenden System etwas ändern? Eigentlich nicht. Andererseits: 35W im Dauerbetrieb läppern sich. Also auf zur Virtualisierung: Veeam-Backup angeworfen, Sicherung auf meine Raspberry-Backupkiste mit Open-Media-Vault, dann eine virtuelle Maschine erzeugt und das Backup zurückgespielt – naja, versucht. Für das Restore wird ein rudimentäres Windows gestartet und damit haben wir das Treiberproblem mit den zu kleinen Puffern. Das lässt sich hier aber nicht ändern. Abhilfe: Bastel-PC mit 1GbE, Virtualbox gestartet, Virtuelle Maschine erzeugt und dann diese Maschine auf den VM-Server kopiert. Umständlich über 3 Ecken, aber es ging. Maschine gestartet und „Windows ist nicht aktiviert, vielleicht sind Sie einer Softwarefälschung zum Opfer gefallen…“ – Hilfe, ich bin ein Opfer! Naja, nur ein Opfer von Microsoft. Den Wechsel vom PC in die virtuelle Maschine mag Windows einfach nicht. Einfach neu aktivieren? Geht nicht, anscheinend sind die Aktivierungsserver abgeschalten, Win7 wird ja nicht mehr unterstützt. Also die Aktivierungshotline angerufen und den gefühlt Tausendstelligen Code eingetippt. Schlappe 10 Minuten dauert sowas, der Telefoncomputer spricht gefühlt deutlich langsamer als früher. Bin ich froh, dass Windows hier nur noch für Nischenanwendungen läuft.
Die Aktivierung lief problemlos, dann die Wetterstation an USB angesteckt und zum Einstellungsmenü zur Portweitergabe an das virtuelle Windows, wie ich es früher schon gemacht hatte: Kein Gerät gefunden – Ooops?!
Nach kurzem Pulsrasen und etwas längerer Prüfung hat sich dann die Lösung gefunden. Linux hat für den USB-Adapter bereits einen Treiber im Lieferumfang. Es handelt sich auch hier eigentlich um einen Seriell-Anschluss mit Seriell-USB-Adapter. Statt USB steht hier also eine Serielle Schnittstelle zur Verfügung. Das ist natürlich fein, spart es doch einen Windows-Treiber. Also Seriell der Wetterstation durch USB-Seriell-Adapter an den USB-Port des PC, von Linux wieder von USB auf Seriell umgewandelt ergibt einen Port auf /tty/USB0 Den kann man dann an das virtuelle Windows weiterleiten und dort wurde es als COM4 wie gewohnt von meiner Wetter-Software erkannt. Perfekt. Seither läuft die Wetterstation für www.ingersheimwetter.de in einer virtuellen Maschine und spart die 35W, die bisher für den extra PC benötigt wurden.
Damit laufen auf dem VM-Server jetzt 5 virtuelle Maschinen. Die erste Woche ohne Absturz ist vorbei, ich hoffe, das bleibt so.
So etwas, wie die perfekte Tastatur gibt es natürlich nicht, denn jeder hat andere Vorstellungen und Ansprüche. Daher muss ich den Titel vielleicht erweitern auf „die für mich perfekte Tastatur“.
Es gibt viele verschiedene Tastatur-Arten. Insbesondere kann man unterscheiden zwischen Membrantastaturen und Mechanischen Tastaturen, sogenannten „Mechas“. Membrantastaturen sind die billigste Ausführung und am weitesten verbreitet. Leider haben solche Tastaturen kaum einen fühlbaren Druckpunkt und die Haltbarkeit liegt in der Regel auch deutlich unter der von mechanischen Tastaturen.
Hier im Foto sieht man 3 unterschiedliche Tastaturen: Oben eine mechanische Tastatur mit Cherry-Schaltern, den bekanntesten Schaltern für mechanische Tastaturen. In der Mitte eine einfache Membrantastatur (Rubberdome) und unten die beste je hergestellte Tastatur: IBM Model M mit Knickfeder-Schaltern (Buckling-Spring). Leider wird diese Tastatur nicht mehr produziert. Unicomp produziert zwar noch Buckling-Spring-Tastaturen und verwendet angeblich die Original-Maschinen von IBM, aber die Qualität der neuen Tastaturen liegt Welten von den Original IBM-Modellen entfernt. Die Tastenkappen sind viel billiger produziert, das Gehäuse ist nur noch aus Kunststoff, der Gesamteindruck überzeugt leider nicht.
Warum mechanische Tastaturen ?
In diesem Beitrag geht es hauptsächlich um mechanische Tastaturen Marktführer bei den Schaltern für „Mechas“ ist die deutsche Firma Cherry. Daneben gibt es aber auch noch andere Anbieter wie z.B. Kailh (Kaihua Elekctronics) oder Alps.
Natürlich kann man auch auf einer Tastatur mit Knackfrosch-Haptik (Membrantastatur) ganze Bücher schreiben. Aber man täglich 10 Stunden oder mehr an der Tastatur sitzt, dann lernt man schnell das bessere Tippgefühl der mechanischen Tastaturen zu schätzen.
Außerdem sind mechanische Tastaturen in der Regel deutlich haltbarer und besser verarbeitet. Ob man so etwas benötigt, ist Geschmackssache. Man kann mit Bleistift oder Kuli genauso schreiben, wie mit einem Füller. Das Schreibgefühl ist aber bei einem Füller einfach anders. Genauso verhält es sich mit Tastaturen. Mechanische Keyboards haben einfach eine höhere Wertigkeit. Membrantastaturen wurden entwickelt, um die Eingabegeräte billiger produzieren zu können, das merkt man auch deutlich. Spätestens nach ein paar Monaten lässt die Qualität deutlich nach.
Suche nach der besten Mecha…
Meine IBM Model M ist leider defekt, manche Tasten funktionieren nicht mehr, bzw. erst, nachdem man einige Male darauf gedrückt hat. Ich vermute einen Haarriss in der Platine oder alterungsbedinge Elektronikprobleme. Das Teil wird natürlich einem Reparaturversuch unterzogen, aber bis dahin brauche ich etwas anderes.
Es gibt mittlerweile sehr viele Hersteller und ich hatte auch schon hunderte Tastaturen in der Hand. Nur leider hatte ich bisher nie einen Test durchgeführt oder Fotos gemacht. Ich hatte einfach nur geschrieben. Von einem alten CPM-Rechner mit integrierter Tastatur über die Folientastatur des Spectrum ZX-81, C64, Amiga, Atari, alle möglichen Cherry-Tastaturen, Olivetti, IBM und NoName-Keyboards sowie Marken, die mir gerade nicht mehr einfallen. Da war schon alles dabei. Auf dieser Seite werde ich daher einfach zukünftig alle Tastaturen aufführen, die mir in die Finger kommen, egal ob Mecha oder Knackfrosch.
Schnelltipper
Als Schüler und auch noch als Student durfte ich nebenher Umfragen eintippen. Damals gab es noch keine Tablets oder automatische Erfassung, da wurde alles noch von Hand in Fragebogen eingetragen und später durfte das jemand abtippen. In diesem Fall war ich das. In einem Jahr standen in den Sommerferien 10 laufende Meter Aktenordner neben meinem Schreibtisch, die mussten alle abgetippt werden. Da hatte ich dann nachts sogar vom Tippen geträumt. Bis zum i386 sind mir regelmäßig die Tastaturpuffer übergelaufen, weil der PC die Eingabe nicht schnell genug verarbeiten konnte. Erst ab i486 war der PC schnell genug für meine Tipperei. In der Zeit hatte ich einige Tastaturen „verheizt“.
Schalterdingens
Insgesamt unterscheiden sich die Tastaturen hauptsächlich im Design und in der Verwendung der Materialien. Dabei bevorzuge ich Metallgehäuse gegenüber Kunststoff. Schwere Metallkonstruktionen sind natürlich gleich deutlich teurer. Eine satt aufliegende Tastatur vermittelt in der Regel aber ein besseres Schreibgefühl und Metall sieht auch einfach besser aus.
Die Schalter kommen meistens von Cherry oder Kailh und lassen sich durch die Farbe unterscheiden. Dabei handelt es sich nicht um eine sichtbare Farbe, denn die Schalter sind unter den Tastenkappen verbaut. Vielmehr geht es um die Codierung der Schaltereigenschaften. MX-Blue sind meine Lieblingsschalter, leichtgängig und präzise, taktil mit hörbarem Klick. Allerdings ist dieses Klickgeräusch nicht unbedingt ideal, wenn man in einem Büro noch Kollegen hat. Diese könnten durch das Klappern genervt sein. Die wohl am weitesten Verbreiteten Schalter sind die Cherry MX Red, Leichtgängig und schnell, aber ohne hörbaren Klick. Daneben gibt es noch MX Black, MX Brown, MX Silent Red, MX Silent Black, MX Speed Silver, MX Green, MX Grey, MX Clear und MX Low Profile.
Mit Cherry-Tastaturen arbeite ich seit mittlerweile bald 40 Jahren, die Schalter gefallen mir immer noch am besten. Alle anderen „kompatiblen“ Schalter sind einfach nur Nachbau. Wobei manche kompatible Schalter mittlerweile durchaus vergleichbar sind.
Corsair K70 Lux
Meine alte Corsair K70 Lux wurde wieder zur Haupttastatur, nachdem sie zuvor an einem Zweitgerät im Einsatz war.
Wenn man die IBM Model M aussen vor lässt, dann ist die Corsair K70 Lux eigentlich die perfekte Tastatur. Tolles Tippgefühl, ein optischer Hingucker mit einer gebürsteten schwarz eloxierten Alu-Platte. Von 2016 bis 2020 war die Tastatur oft im Einsatz und wird es am Zweitrechner auch weiter sein. Vom Hauptrechner wird die Tastatur aber verbannt. Das hat folgenden Grund: Die Tastenkappen sind aus ABS-Kunststoff. Der hat die Eigenschaft, dass er sich mit der Zeit abnutzt.
Die Tastatur sieht dann irgendwann speckig aus. Da man die verschiedenen Tasten unterschiedlich oft drückt, geschieht das unterschiedlich schnell, die Tastatur sieht dann irgendwann aus, als hätte man gerade darauf gefrühstückt. Außerdem habe ich wohl ein besonderes 10-Finger-Schreibsystem, bei mir bekommen die Leertasten mit der Zeit immer auf der rechten Seite eine Kerbe (durch den Fingernagel des Daumens?) Die Tastatur auf dem Bild oben ist frisch gereinigt, aber den speckigen Glanz bekommt man nicht mehr weg, obendrauf sind die Tasten glänzend, am Rand noch matt wie am Anfang. (die Fussel sieht man nur in der Makro-Aufnahme, live sieht die Tastatur sauber aus. Aber speckig). Funktional stört das nicht, optisch aber schon. Das wäre eigentlich kein Problem, denn die Tastaturlayouts sollten genormt sein. Die Tastenkappen sind bei allen Tastaturen mit Cherry MX-Schaltern nur aufgesteckt und können theoretisch problemlos gewechselt werden. Leider weicht die K70 aber vom Standard ab, die Leertaste ist breiter, daher passt kein Ersatz-Tastenkappen-Set und vom Hersteller selbst gibt es keinen Ersatz. Damit ist die Tastatur optisch leider nicht mehr für meinen Schreibtisch geeignet. Die Tastatur hat mechanisch eine sehr lange Haltbarkeit. Aber wenn man die abgenutzten Tastenkappen nicht auswechseln kann, dann bringt das leider nichts. Schade.
HyperX HX-KB2BL2-DE Alloy Elite RGB
Das ist mal ein komplizierter Name für eine Tastatur. Aber immerhin ist der kryptische Name der einzige Kritikpunkt, der mir zu dieser Tastatur einfällt. Nach langer Suche habe ich mich für diese Tastatur entschieden. Optisch Top, Metallgehäuse, Cherry MX-Blue Schalter und ein angenehmes Standard-Tastaturlayout mit großer Enter-Taste.
Das Schreibgefühl entspricht der Corsair K70 Lux und gefällt mir ausgesprochen gut. Das Layout entspricht aber dem Standard, somit sollten sich alternative Tastenkappen aufstecken lassen. Das werde ich noch überprüfen und das Ergebnis nachreichen. Hier sollten sich dann auch PBT-Tastenkappen verwenden lassen.
Das Gehäuse ist aus Kunststoff, die obere Platte besteht aber aus massivem, lackiertem Metall. Damit bringt die Tastatur fast 1,4kg auf die Waage und fühlt sich recht massiv an. Die Tasten klackern wie bei Cherry-MX-Blue üblich, das Schreibgefühl ist sehr präzise. Da wackelt nichts. Massive Wertarbeit. Sehr schön.
Für die Tastatur gibt es eine Software, um die RGB-Beleuchtung einzurichten. Da ich mit Linux arbeite, läuft diese Software bei mir natürlich nicht. Aber über die Sondertasten oben links an der Tastatur kann man die Farbe und Helligkeit der Tastatur auch ohne Software einstellen. Blaues Licht und niedrigste Stufe, das passt. Leider leuchten die WASD-Tasten dann allerdings weiß. Das ist aber kein Systemfehler, sondern vermutlich Absicht. Spieler benötigen diese 4 Tasten besonders häufig und die Tastatur wird als Gaming-Keyboard verkauft. Dafür braucht man dann wohl doch die Software. Stört aber nicht weiter. Die Handgelenkauflage ist aus Kunststoff und abnehmbar. Fühlt sich recht angenehm an, aber hier muss die Zeit zeigen, wie schnell sich das Material abnutzt.
Wenn ich mich zwischen der HyperX und der K70 entscheiden müsste:
Von den technischen Daten, dem haptischen Eindruck und dem Schreibgefühl her, sind die Tastaturen gleichwertig. Welches Design besser gefällt, ist Ansichtssache, für mein Empfinden sind die Tastaturen gleich „schön“. Allerdings ist die fehlende Verfügbarkeit von Ersatz-Tastenkappen bei der K70 ein dickes Minus. Daher ist die HyperX derzeit mein klarer Favorit.
Microsoft Wired Keyboard 400
Eine etwas ältere Tastatur (laut Aufdruck aus 2012) und nicht mehr im Verkauf. Die Tastatur ist ein typischer Vertreter der Membrantastaturen. Einfaches, funktionales Gehäuse, nicht entgratete Kanten(!), flache Tasten und in der Art in vielen Büros zu finden. Wer sich nicht damit auskennt, der kann mit dieser Tastatur problemlos arbeiten und zufrieden sein. Die Tastatur erfüllt ihren Zweck vollkommen und vor allem ist sie sehr billig. Der Preis für diese Tastatur lag damals zwischen 10,- und 15,- Euro. Aktuelle Modelle liegen in vergleichbarem Preisrahmen. Solche Tastaturen sind auch gerne als Beigabe bei Komplettrechnern dabei. Zum Vergleich: Gute mechanische Keyboards fangen bei 120-150,- Euro an und können auch schon mal über 200,- Euro kosten (Sonderaktionen ausgenommen). Wie gesagt – die Tastatur erfüllt ihren Zweck. Man kann damit schreiben. Menschen, die einfach nur ins Büro gehen und dort eine Tastatur vorgesetzt bekommen, können damit zufrieden sein, wenn sie nichts anderes kennen. Aber wehe, man stellt eine mechanische Tastatur daneben und vergleicht direkt. Die Tasten haben keinerlei Druckpunkt. Mit geschlossenen Augen kann man nicht unterscheiden, ob man auf eine Taste drückt oder auf einen Kaugummi. Der Tastenhub ist minimal, das Tippen fühlt sich seltsam an, als würde man ein totes Tier antippen. Außer für einen Server, oder eine Anwendung, bei der ich weniger als eine halbe Stunde pro Monat an die Tastatur müsste, würde ich mich weigern, so eine Tastatur zu verwenden.
Microsoft Wireless Entertainment Keyboard 7000
Wie bereits geschrieben, möchte ich hier zukünftig alle Tastaturen aufführen, die ich in die Finger bekomme. Ein weiteres Exemplar der Knackfrosch-Tastaturen (Membrantastatur) aus meiner Sammlung ist das Wireless Entertainment Keyboard 7000. Das Teil hat natürlich nichts mit der Suche nach der perfekten Tastatur zu tun, ist aber für Spezialanwendungen ganz nützlich. Es ist eine Bluetooth-Funktastatur mit eingebauter Mausfunktion, ideal für ein Mediacenter und von mir lange am Heimkino-PC verwendet. Die Tasten sind vergleichbar mit obiger Microsoft Wired 4000 Tastatur, allerdings ist die Anordnung gebogen. Dadurch kann man das Keyboard näher an den Körper ziehen und z.B. auf dem Sofa auf dem Schoß verwenden. Für die Mediensteuerung ist das Gerät perfekt, für die tägliche Arbeit ist es eher nicht zu empfehlen.
Titanwolf Invader
Ein martialischer Name: Eindringling, Angreifer, Invasor. Vermutlich soll der Invader die etablierten Hersteller mechanischer Tastaturen „angreifen“. Die Tastatur ist für eine Mecha recht günstig zu haben. Es ist auf der Verpackung auch kein Hersteller aufgeführt, sondern eine Importfirma. Schlappe 60,- Euro muss man dafür auf den Tisch legen. Das ist gerade mal die Hälfte der K70 oder HyperX. Dafür bekommt man eine Tastatur mit durchaus ansprechendem Design, solange man von vorne oder oben draufschaut. Die Tasten sind von Kailh, einem großen Konkurrenten von Cherry. Die Ausführung ist „blue“, dabei wurden die mechanischen Eigenschaften der MX-Blue kopiert. Die Tasten klicken auch angenehm und ich würde vermutlich auf identischen Tastaturen den Unterschied zwischen Cherry MX-Blue und Kailh-Blue nicht erkennen. Die hier aufgeführten Tastaturen sind aber bei Weitem nicht identisch und das macht den Unterschied. Während die K70 und die Hyper X sehr schwer sind und dadurch auch ein sattes Tippgefühl erzeugen, fühlt sich die Titanwolf Invader direkt klapprig an. Unter dem Aludeckel ist ein einfaches Kunststoffgehäuse, dadurch wirkt alles etwas klapprig. Der Tastendruck ist vergleichbar mit den obigen Mechas, aber der Nachhall beim Drücken der Taste erzeugt einen hohlen, schepprigen Klang. Aus meiner früheren Zeit, in der ich mich viel mit Sound beschäftigte, ist mir ein guter Klang sehr wichtig. Sattes Klackern einer mechanischen Tastatur zähle ich zum guten Sound. Hohles Plastik-Geklapper gehört eher nicht dazu. Das Design, na ja. Eine Alu-Deckelplatte mit vielen Biegungen. Wenn es gefällt. Mein Ding ist es nicht. Für den aufgerufenen Preis ist diese Tastatur aber durchaus eine Überlegung wert. Wenn man eine Membrantastatur durch eine mechanische Tastatur ersetzen und dabei nicht viel Geld ausgeben will, dann kann ich die Titanwolf Invader empfehlen. Allerdings sollte man auch einen Blick auf die Sharkoon Skiller SGK3 werfen, die ungefähr dasselbe kostet. Das Bessere ist bekanntlich des Guten Feind!
Leider hat mein Exemplar der Titanwolf Invader einen schweren Mangel. Die Tastatur hat von Anfang an geprellt. Und das geht leider gar nicht, weder bei einer Mecha, noch bei einer Membrantastatur. Natürlich ist das nur ein bedauerlicher Einzelfall. Normalerweise sollte die Tastatur sicher problemlos funktionieren. Wenn ich eine Taste drücke, dann will ich ein Zeichen und nicht mehrere. Immerhin wurde der Kaufpreis der Tastatur problemlos erstattet. Ich musste das Teil nicht einmal zurücksenden, damit habe ich einen gratis Satz Tastenkappen und Kailh-Blue-Schalter, mit denen ich experimentieren kann. Die im Internet zu findenden Bewertungen zu dieser Tastatur sind sehr gut. Für Einsteiger in das Thema „mechanische Tastatur“ kann ich die Titanwolf Invader daher guten Gewissens empfehlen. Das ist anständige, wertige Mittelklasse.
Sharkoon Skiller SGK3
Da liegt die Stahlplatte auf meinem Tisch. Satte 1300g, fast so schwer wie die HyperX, aber zum halben Preis (um die 65,- Euro). Die Schalter sind nicht von Cherry, sondern Kailh Blue (auch hier bevorzuge ich wieder das Klackern, Blau = hörbarer Klick). Es scheint Stahl anstatt Alu verbaut zu sein. Das Eingabegerät hinterlässt einem mächtig massiven Eindruck. Die leicht strukturierte Oberfläche erinnert aber an Lackierungen, wie sie vor 40 Jahren üblich war. Die Struktur ähnelt alten IBM-Gehäusen aus PC-XT-Zeiten, nur waren die damals Beige und nicht Schwarz. Altbacken aber durchaus hochwertig. Falls man am Schreibtisch überfallen wird, mit diesem Teil hat man eine gute Verteidigungswaffe. Das USB-Kabel ist allerdings fest angeschlossen und könnte beim Kampfeinsatz stören. Die Tasten stehen offen über der Tastatur, damit kann man alles gut reinigen. Die Bodenplatte der Tastatur ist auch hier aus Kunststoff, durch die massive und schwere obere Platte fällt einem das aber nicht besonders auf. Die haptische Wertigkeit der Sharkoon Skiller SGK3 ist deutlich höher als bei der Titanwolf Invader. Die verbauten Kailh-Blue-Schalter sind allerdings identisch. Beim Tippen ist er dann aber wieder da, dieser unangenehme Nachklang nach dünnem Plastik. Während das Drücken bis zum „Klick“ fast identisch ist zu den Tastaturen mit Cherry-MX-Blue, ist danach auch hier ein unangenehmer Ton zu hören. Die HyperX und K70 erzeugen ein KLACK-KLACK, die Skiller SGK3 und die Titanwolf Invader eher ein KLAPPER-KLAPPER. Ob das an den Tastaturgehäusen, den verbauten Platinen oder an den Schaltern liegt, kann ich derzeit nicht sagen. Ob einen das überhaupt stört, muss jeder für sich selbst ausprobieren. Manche mögen die Tastengeräusche insgesamt nicht und wählen lieber leisere Tastenschalter, wie die Red, Brown, usw.
Insgesamt ist die SGK3 eine sehr gute Tastatur. Für den fast identischen Preis würde ich sie der Titanwolf auf jeden Fall vorziehen. Der Tippeindruck und die Haptik sind sehr hochwertig. Das Design ist ein bisschen langweilig aber massiv. Ich werde diese Tastatur meinen Eltern an ihrem neuen PC installieren. Beide sind als Beamter, bzw. Sekretärin lange Jahre mit Schreibmaschinen unterwegs gewesen, da muss es mechanisch sein. Aber eine Gaming-Tastatur wie die Hyper-X wäre hier übertrieben. Die SGK3 passt perfekt.
Tastatur-Fazit
Abgesehen vom IBM Model-M, das außer Konkurrenz läuft, ist mein derzeitiger Tastatur-Sieger die Hyper-X HX-KB2BL2-DE Alloy Elite RGB (wer denkt sich solche Namen aus?) Die Corsair K70 wäre gleichwertig, fällt aber durch die fehlenden Ersatz-Tastenkappen vom Podest.
Preis-Leistungs-Sieger für die Mittelklasse ist die Sharkoon Skiller SGK3
Gerne bin ich für Hinweise zu anderen Tastaturen dankbar. Es gibt zu viele, um die alle zu kaufen und zu testen (geschenkte nehme ich aber gerne in den Test auf)
Tastenkappen
Mechanische Tastaturen werden oft für Anwendungen angeschafft, bei denen sie hoch beansprucht werden. Da ist die Verfügbarkeit von Ersatz-Tastenkappen ein Muss. Die Tastaturen haben zwar unterschiedliche Zusatztasten, das eigentliche Tastenfeld ist aber genormt. Damit lassen sich die Tastenkappen zwischen allen Tastaturen (mit Ausnahme der K70) problemlos austauschen. Die Kappen sind nur gesteckt und können auch zwischen Cherry und Kaihl getauscht werden. Die meisten Tastenkappen sind aus ABS, das wird leider bei längerem Gebrauch speckig und sieht dann nicht mehr besonders schön aus. Besser sind PBT Tastenkappen. Die sind aber extrem schwer zu bekommen. Die wenigen Anbieter haben in der Regel nur PBT-Tastenkappen im US-Layout im Angebot, der Markt für Deutsche Tastaturkappen in PBT ist vermutlich einfach zu klein. Der einzige Anbieter, von dem auch was lieferbar ist, ist die Firma Ducky. Dort gibt es mechanische Tastaturen direkt mit PBT-Tastenkappen, aber auch PBT-Tastenkappen zum Nachrüsten für kompatible Tastaturen. Das werde ich noch ausprobieren. Aber das ist eine andere Geschichte. 🙂
Update: Tastenkappen
Mittlerweile ist einige Zeit vergangen. Die IBM Model M ist nach wie vor meine Lieblingstastatur, aber ich bin da irgendwie ein bisschen gestört. Bei Füllern muss ich auch ab und zu mal wechseln. Genauso ist es mit der Tastatur.
Wenn man 10 Stunden oder mehr täglich am PC zu tun hat, dann braucht man Abwechslung. Deswegen liegt die IBM Model M angeschlossen (!) hinter dem Monitor im Regal und auf dem Schreibtisch steht eine Mecha mit Cherry MX-Blue – bis mich mal wieder der Wunsch zum Tausch befällt, was gefühlt so alle 2-3 Wochen der Fall ist.
Die Corsair K70 gefällt mir von den Tastaturen mit Cherry-Tasten immer noch am besten. Die gebürstete, schwarz eloxierte Alu-Oberfläche ist einfach edel. Die Schalter sind ja bei allen Tastaturen identisch. Mittlerweile gibt es von Corsair ein Modding-Kit mit PBT-Tasten für unter 30,- Euro. Das wäre ja ganz in Ordnung, aber leider hat die K70 eine breitere Leertaste und entspricht somit nicht dem Standard. Dafür gibt es ein Kit für über 40,- Euro, aber nur in Englisch. Deutschland ist einfach zu klein, das interessiert die Firmen nicht. Dabei wäre es ja so einfach, die abweichende untere Tastenreihe einzeln zu verkaufen. Schade. Alternativ könnte man eine K70 RGB Pro nehmen, bei der bereits PBT-Tastenkappen verbaut sind. Nimmt man die beiden Modding-Kits (das englische wegen der Leertaste und das deutsche für den Rest), dann ist man 70,- Euro los, für die neue Tastatur gut 200,- Euro. Ich habe mich nach langer Überlegung für die Modding-Kits entschieden. Die Tastenkappen sind nur gesteckt und lassen sich mit einem mitgelieferten Werkzeug problemlos austauschen. Einerseits ist es ärgerlich, dass die K70 sich nicht an den Standard hält, die Leertaste ist minimal breiter. Andererseits gefällt mir eine breite Leertaste viel besser. „Die Windows-Tasten hat der Teufel erfunden!“ Naja, nur so ein Satz – ich mag diese blöden Windows-Tasten nicht und komme auch nach Jahrzehnten seit deren Einführung nicht damit zurecht. Leider gibt es mittlerweile kaum noch Keyboards ohne diese Teile.
PBT-Tasten sind den Aufpreis wirklich wert! Die sind matt und sehen edler aus, allerdings fällt das nur bei direktem Vergleich auf. Angeblich halten sie viel länger – man wird sehen. Das Tastgefühl ist aber um Welten besser! ABS-Tastenkappen sind leicht rutschig, PBT hat dagegen eine rauhe Oberfläche. Man rutscht nicht mit den Fingern auf den Tasten umher. Der Unterschied ist sehr gering. Normaltipper werden das vermutlich nicht einmal bemerken. PBT-Tasten sind auf jeden Fall immer zu bevorzugen, wenn man eine edle Tastatur möchte. Das Update ist es wert. Bei einem Neukauf sollte man aber einfach gleich eine fertig bestückte Tastatur nehmen.
Nach dem Umbau sieht die Tastatur viel sauberer aus! Natürlich wird meine Tastatur regelmäßig gereinigt, aber ABS wird mit der Zeit einfach glänzend und speckig. Das sieht immer schmuddelig aus, egal wie sauber die Tastatur ist! Mit den matten PBT-Tastenkappen sieht das Keyboard aus, wie neu. Unten gebürstetes schwarzes Alu, oben matte Tasten. Die rote Beleuchtung könnte man durch weiß ersetzen, oder blau? Ob ich mir doch eine neue K70 RGB holen soll? Ich weiss, ich spinne ein bisschen 🙂
Mecha mit Cherry MX, Anschlagdynamik nach eigenem Belieben (die Farbcodes geben das unterschiedliche Tippgefühl an). Hersteller nach Belieben, da gibt es einige gute – Ducky, Corsair, HyperX, Cherry selbst. Viel falsch machen kann man da nicht. Besser als jede Membrantastatur!
Nachdem mein erstes Projekt mit dem Luftfilter-Adapter so hervorragend geklappt hat, habe ich natürlich gleich einen weiteren Versuch gestartet.
Projekt diesmal:
Eine Abdeckung für die Absaugöffnung meiner Meltem Raumbelüftung.
Für mein Büro verwende ich eine Raumbelüftung von Meltem. Dabei wird in einem Raum die frische Luft eingesaugt und über einen anderen Raum verbrauchte Luft abgesaugt. Die Räume sind offen miteinander verbunden und in der Lüftungsanlage wird über einen Kreuzwärmetauscher Wärmeenergie zurückgewonnen.
Das funktioniert in der Praxis sehr gut.
Was mich aber schon immer etwas irritiert hat, war die Tatsache, dass die Original-Abdeckung für die Absaugöffnung vorne geschlossen ist. Das heißt, mit dem Deckel gibt es nur einen umlaufenden, ca. 5 mm breiten Spalt, über den die Abluft abgesaugt wird. Das ist meiner Meinung nach etwas wenig. Vielleicht soll der Deckel verhindern, dass im Raum ein Luftzug entsteht. Direkt aus dem Raum angesaugte Luft könnte zu einem Luftzug vor der Absaugöffnung führen und in Wohnräumen unangenehm sein. Bei den in modernen Häusern verbauten Lüftungsanlagen sind zwar auch Deckel auf den Absaug-Öffnungen, aber die Luft wird immer von vorne angesaugt, nicht seitlich an der Tapete vorbei.
Die seitliche Anströmung führt dazu, dass die Tapete um die Öffnung durch die Abluft recht schnell schmutzig wird. Das gefällt mir nicht. Ich habe die Lüftung daher recht lange ohne Abdeckung betrieben. Das sieht aber hässlich aus. Eine Lösung muss her. Und dafür ist der 3D-Druck bestens geeignet.
Lüfterabdeckung im 3D-Druck
Zuerst muss man von der Originalabdeckung die Maße abnehmen. Dafür eignet sich am besten ein Messschieber. Millimeter reichen hier, 1/10mm braucht es nicht unbedingt. Ich habe einen elektronischen Messschieber verwendet, den kann man einfacher ablesen. Aber im Prinzip sollte es ein 5,- Euro – Teil aus dem Baumarkt tun. Zur Not auch ein Lineal oder Meterstab, die Genauigkeit sollte im Millimeter-Bereich liegen.
Die neue Abdeckung soll etwas größer werden, ich habe sie auf 14x14cm geplant. Für die Aufnahme an der Wand habe ich die Zapfen vom Original abgemessen und etwas länger nachgebaut, damit kann die Abdeckung etwas weiter von der Wand abstehen.
Das 2. Projekt ist eigentlich nicht viel schwieriger, als das erste (Lüfteradapter für Raumluftfilter), aber ich habe gleich ein paar zusätzliche Funktionen von FreeCAD ausprobiert.
Zuerst also wieder FreeCAD gestartet, einen Basiskörper als Rechteck konstruiert, mit 14×14 cm Kantenlänge und 3 mm Dicke. Das ist die Grundform für den Deckel der Absaugöffnung. Als Nächstes die Zapfen für die Wandbefestigung genau abgemessen und auf das eigene Modell übertragen. Hier habe ich gleich eine neue Funktion ausprobiert. Da die Zapfen sehr filigran sind, habe ich unten in der Verbindung zur Basisplatte eine Abschrägung als Verstärkung eingebaut. Das stützt den Zapfen am Übergangspunkt. Für die Öffnungen im Lüftungsgitter habe ich mir Abmessungen überlegt, die mir als Passend erschienen und dann habe ich davon 2 nebeneinander gezeichnet. Die beiden Rechtecke dann in der 3D-Ansicht wieder als Vertiefung ausgeführt, damit sind schon mal 2 durchgehende Lüftungsöffnungen in der Platte. Man könnte jetzt natürlich jede Öffnung einzeln zeichnen, aber wenn man einen Computer hat, dann lässt man den so etwas machen. Das geht schneller und einfacher.
Die Funktion in FreeCad dazu heisst „Erzeugung eines Linearen Musters“. Damit kann man beliebig viele Kopien eines Objektes anfertigen. Für mein Lüftungsgitter haben mir 11 Wiederholungen am besten gefallen. 2 Öffnungen nebeneinander x11 gibt 22 Luftschlitze. Ich habe die Öffnungen auf 2 Bereiche verteilt, um mittig einen festen Steg stehen zu lassen, durchgehende Öffnungen wären natürlich auch möglich, das mindert aber die Stabilität der Platte deutlich. Im fertigen Design fand ich dann die Ränder zu groß, daher habe ich seitlich zwischen den Zapfen noch jeweils eine Öffnung eingefügt. Fertig ist die Abdeckung.
Verschönerung
Damit der Deckel schöner aussieht, habe ich dann noch ein paar Optimierungen eingebaut. Die wären nicht nötig, aber erstens wollte ich noch ein wenig mit FreeCad experimentieren und zweitens sollte es ja perfekt ausssehen. Daher habe ich die Ecken der Platte noch zusätzlich abgerundet. Auch die umlaufenden Kanten sind ganz leicht gerundet.
Druck und gut!
Danach gespeichert, exportiert und in Ultimaker Cura für den Anycubic i3 Mega aufbereitet.
Als Filament habe ich transparentes PETG verwendet. Durch die Struktur der Füllung ist das Material später NICHT transparent, sondern sieht eher nach Milchglas aus, gefällt mir aber ganz gut. Durch die Abdeckung sieht man den Filter und kann gut erkennen, wenn dieser dunkel wird und ausgewechselt werden muss. Statt dem Originalfilter, den man in kleinen 10x10cm für teures Geld bekommt, habe ich eine Filtermatte mit 1m² gekauft und schneide mir davon passende Stücke heraus. Das sollte fast ewig ausreichen.
Funktionell gibt es an der neuen Abdeckung nichts auszusetzen, mir gefällt das Teil deutlich besser, als die Originalabdeckung. Im Nachhinein hätte ich wohl die Lüftungsöffnungen eher quer drucken sollen. Das ist aber nur ein optisches Problem und hat nichts mit der Funktion zu tun. Vielleicht hätte man unten noch eine kleine Nase nach hinten einbauen sollen, die die Filterwatte hält. Aber es funktioniert auch so ganz gut. Bisher hält alles.
Man sieht hier auch schön, dass man mit 3D-Druckern durchaus auch praktische Dinge drucken kann, nicht nur Spielzeug.
Es hat jedenfalls Spass gemacht, weitere Druckobjekte werden folgen.
Wie vermutlich fast jeder Besitzer eines 3D-Druckers, habe ich Anfangs eigentlich nur fertige Objekte aus dem Internet gedruckt, vor allem von thingiverse.com.
Irgendwann wird das aber langweilig und eigentlich will man ja was Eigenes drucken. Vor dem Druck steht aber die größte Hürde: Die Konstruktion.
Für mein erstes Projekt habe ich ein ganze einfaches Objekt gefunden, das dennoch für mich sehr viel Nutzen bringt:
Einen Lüfter-Adapter für einen Raumluftfilter
Bevor man ein 3-D-Objekt drucken kann, muss man es erst einmal erstellen. Dazu benötigt man eine Software. Zum Glück gibt es die Software recht günstig und teilweise sogar gratis. Beispielsweise Fusion 360, Tinkercad oder ähnliche.
Ich bevorzuge aber lokale Anwendungen und habe gewisse Vorbehalte gegen CLOUD-Lösungen. Meine Wahl fiel daher auf FreeCAD.
Freecad ist eine kostenlose Software und läuft bei mir perfekt unter Linux Mint. Der Funktionsumfang erschlägt einen am Anfang. Nachdem ich erst einmal nichts auf die Reihe gebracht habe, bin ich auf Empfehlung zu Tinkercad gewechselt. Damit kann man aber nur „malen“, richtiges Zeichnen funktioniert damit nicht. Daher bin ich schnell wieder zurück zu FreeCAD. Nachdem ich einige Tutorials angeschaut habe, bin ich dann tiefer in das Programm eingestiegen. Für den Anfang sollte man sich ein einfaches Objekt konstruieren. Ich habe dafür ein Tutorial gewählt, das meinem Zielobjekt von den benötigten Arbeitsschritten recht nahe kam. Dann habe ich angefangen zu konstruieren. Nach 2 Stunden war ich fertig. Als ich das Objekt spaßeshalber noch einmal konstruiert habe, war ich in 5 Minuten fertig. Aller Anfang ist schwer.
Mein erstes 3D-Objekt
Bei mir arbeiten mehrere Druckmaschinen, das gibt Papierstaub und auch Ausdünstungen von sogenannten VOC (das sind Lösemitteldämpfe, nicht unbedingt gesund). Ich habe eine Belüftungsanlage und nebenbei mit einigen Raumlüftern experimentiert. Die Dinger sind alle laut und teuer. Am besten gefiel mir der Xioami Air Purifier. Davon habe ich mir auch gleich ein Modell gekauft. Den Rundfilter halte ich für sehr praktisch. Das Gerät ist aber wie alle anderen Luftreiniger nicht ganz billig. App-Steuerung, WLAN-Anbindung und so einen Quatsch benötige ich nicht. Die Alternative war ganz einfach:
Man nimmt diesen Rundfilter aus dem Xioami Air Purifer und bastelt sich einen Lüfter obendrauf. Fertig ist ein perfekter Raumluftfilter.
Passende Lüfter habe ich genug im Keller, zu Weihnachten gab es aber eine Aktion mit 5 Lüftern Arctic F14 – 140mm zum Preis von 11,- Euro. Vielleicht ein Preisfehler? Jedenfalls habe ich zugeschlagen.
Fehlt nur noch ein passender Adapter. Und damit mein erstes eigenes 3D-Objekt.
Konstruiert in FreeCAD
Für einfache Objekte reicht ein Meterstab oder Lineal, besser ist aber ein Meßschieber. Zuerst muss man nämlich die benötigten Maße bestimmen. Der Luftfilter des Xioami Air Purifiers hat einen Durchmesser von 200mm. Daher habe ich einfach zuerst einen Kreis mit 204mm Durchmesser in FreeCAD gezeichnet, die 4mm Überstand sind wichtig!
Kurz überlegt und entschieden, dass der Deckel 15mm mit dem Filter überlappen soll. Daher die Dicke des Kreisobjekts auf 17mm gesetzt.
Damit habe ich einen Kreiskörper, der den Filter auf jeder Seite um 2mm überlappt. Nächster Schritt: einen weiteren Kreiskörper mit 200mm und 15mm als Vertiefung aus dem ersten Körper ausgespart. 2mm Rand bleiben stehen. Damit haben wir einen Deckel für den Lüfter.
Jetzt einfach noch den Lüfter abmessen – die Öffnung des Lüfters ist 135mm im Durchmesser. Also noch einen Körper erstellt mit 135mm x 17mm und wieder als „Vertiefung“ eingesetzt. damit wird der erste Körper in der Mitte komplett entfernt. Es bleibt ein Körper mit 204mm Durchmesser stehen, mit 2 umlaufendem Rand und 2mm Bodenfläche, in der in der Mitte ein 135mm Loch ausgespart ist.
Letzter Schritt: Die 4 Bohrlöcher abmessen und einzeichnen, auch wieder als Vertiefungen und mit 5mm Durchmesser, passend zu den Lüfterschrauben.
Sieht doch ganz gut aus. Das ganze als STL exportiert und in Cura wieder importiert. Cura ist ein sogenannter Slicer, eine Software, die aus meiner Konstruktionsdatei eine Druckdatei erstellt. Dabei wird das Objekt in Schichten (Slices) zerlegt, der 3D-Drucker druckt ja Schicht für Schicht übereinander.
Cura hat meine Datei ohne Beanstandung bearbeitet und für meinen 3D-Drucker aufbereitet. Jetzt kommt der spannende Teil: der Druck mit meinem Anycubic i3 Mega 3D-Drucker.
Unheimlich spannend ist das vor allem deshalb, weil der 3D-Druck so langsam ist. Mein erstes Objekt ging dann mit 204mm Durchmesser auch gleich an die Grenze des Machbaren, der Drucker kann bis 210x210mm drucken.
Nach 4 Stunden konnte ich dann das fertige Objekt entnehmen. Es hat auf Anhieb perfekt gepasst. Mit leichtem Druck ließ sich der Deckel auf den Filter stecken und die Passung war so genau, dass man den Filter am gedruckten Deckel anheben konnte. Das war besser, als erwartet.
Damit der Lüfter dicht anliegt, habe ich noch dünne Schaumstoffstreifen aufgeklebt. Danach den Lüfter mit den beiliegenden Schrauben vorsichtig angeschraubt.
Beim Anschrauben muss man auf die Blasrichtung des Lüfters achten, dafür sind auf dem Lüfter immer Pfeile angebracht, die sind aber oft schwer zu erkennen. Bei diesem Projekt soll die Luft unten seitlich in den Filter eingesaugt und nach oben ausgeblasen werden.
Für die Stromversorgung habe ich einfach ein altes 12V-Netzteil verwendet. Davon habe ich noch eine ganze Kiste voll im Keller.
Man kann alternativ natürlich auch 7V-Netzteile verwenden oder eine Lüftersteuerung, damit der Lüfter leiser läuft. Da kann man noch viel optimieren. Mir reicht ein einfacher Lüfter. Gedruckt habe ich das Objekt mit PETG, das ist haltbarer und stabiler als PLA. Zwar ist es etwas schwieriger zu drucken, gefällt mir aber insgesamt einfach besser.
Materialkosten: 2,50 Euro für den Lüfter, 2,50 Euro für Druck und Druckmaterial, Netzteil gratis aus der Schrottkiste. Gesamt also um die 5,- Euro. Da kann man nicht meckern. Der Filter kostet natürlich extra. Die einfachen Modelle sind ab 20,- Euro erhältlich, die besseren mit Aktivkohle kosten um die 35,- Euro.
Serienproduktion
Mit 3 Filtern riecht man beim Betrieb meiner Maschinen nichts mehr. So gefällt mir das.
Ich habe auch gleich einen Filter in den Vorratsraum im Keller gestellt. Eigentlich wollte ich Staub und Pilzsporen einsammeln. Das Haus ist alt, der Keller kämpft mit Luftfeuchte um 60%, da muss man aufpassen, dass nichts schimmelt.
Luftentfeuchter kosten Strom, Lüften ist aufwändig. Der Filter war als zusätzliche Maßnahme gedacht. Interessanterweise ist die Luftfeuchte auf 50% gefallen, seit der Lüfter im Raum steht. Ich vermute, dass die Luftbewegung einen Luftaustausch mit dem Treppenhaus erzeugt und damit Feuchtigkeit abtransportiert wird. Mittlerweile habe ich 4 Luftreiniger gedruckt, alle funktionieren perfekt.
Die Filter gibt es in Grün, Blau und Lila, je nachdem, welche Filterstufe man benötigt. Die Lila Filter haben sogar noch eine antibakterielle Beschichtung und töten Viren und Bakterien ab. So einen stelle ich dann auch noch ins Schlafzimmer. Die Lüfter haben weniger als 2W Leistungsaufnahme, das lässt sich verkraften. Die verwendeten Arctic F14 140mm-Lüfer haben einen Luftstrom von 126m³/h. Mit dem vorgebauten Filter natürlich deutlich weniger. Aber wenn noch 50m³/h übrig bleiben, dann reicht das für viele Anwendungen. Ein Raum sollte min 1x pro Stunde umgewälzt werden. Für Produktionsräume habe ich im Internet Angaben von 5x gefunden. Mein Produktionsraum hat knapp 30qm, bei 2,3m Höhe wären das ungefähr 70m³. Die benötigte Mindest-Umwälzung wäre damit 70m³/h, optimal 350m³/h. Mit 3 selbst gebauten Raum-Reinigern liege ich irgendwo zwischen 150m³ und 200m³, also ganz passabel. Zusätzlich arbeitet ja auch noch meine Absauganlage, die die Raumluft über einen Wärmetauscher durch Aussenluft ersetzt. Wenn die Drucker gearbeitet haben, dann hat man das bisher nach einiger Zeit deutlich riechen können. Die Hersteller behaupten zwar, das sei alles ungiftig, aber so ganz vertraue ich dieser Aussage nicht. Seit die 3 Raumreiniger laufen, ist kein Geruch mehr feststellbar.
Der Lüfteradapter ist problemlos in FreeCAD konstruierbar. Auf Wunsch stelle ich aber gerne die Dateien zur Verfügung, falls jemand selbst so einen Adapter drucken möchte.
Das erste Projekt ist damit erfolgreich abgeschlossen. Weitere Projekte folgen natürlich bald.
Update:
Ich bin auf Arctic P14 Lüfter gewechselt. Die sind besser für den Betrieb mit Filtern geeignet. Interessant: nach 3 Tagen Betrieb sieht man an der Außenseite des Filters Staub, bei den F14-Lüftern ist der Luftdurchsatz schwächer, da sieht man auch nach 3 Wochen keinen Staub am Filter. Mit P14 hat man also nicht nur einen Luftfilter für Feinstaub, sondern auch gleich einen „Staubsauger“. Falls jemand noch andere Lüfter empfehlen kann/will, bin ich für weitere Vorschläge offen.
Mich stören die Lüfter im Büro optisch nicht, aber wenn man die Dinger verstecken will, dann kann man einfach einen Gitter-Papiermülleimer von Ikea nehmen. Entweder einfach reinstellen oder den Mülleimer umdrehen, Loch in den Boden schneiden und schon hat man einen stylischen Lüfter 🙂 Früher gab es die Papierkörbe bei Ikea auch in rund, aktuell konnte ich nur einen eckigen finden. Das sieht in Natura aber garnicht so durchscheinend aus, wie auf dem Foto. Auf dem Foto sieht man die Version im Test mit 2 Lüftern. Mit einem Lüfter passt der Filter perfekt in den Ikea-Papierkorb. Man könnte sich sogar oben noch eine Abdeckung basteln. Dafür ist mein aktueller 3D-Drucker aber leider zu klein.
Filterparade
Der Vollständigkeit halber, habe ich hier mal alle Filter zusammengestellt, die es aktuell für den Xioami Air Purifier gibt. Die Teile sind von den Abmessungen identisch und unterscheiden sich nur in der Filterleistung. Blau = Originalversion, der erste Filter für die Luftreiniger. Mit Aktivkohle-Filter Grün = Enhanced Version mit verstärktem Filter und Aktivkohle-Schicht Lila = Antibakterielle Version. Hat zusätzlich noch eine Beschichtung, die Viren und Bakterien abtöten soll. Grau = mit integriertem Hepa-Filter, wobei ich hier nicht ganz sicher bin, was der Unterschied zu den anderen Filtern ist. (Der graue ist ganz neu und noch eingetütet. Man soll die erst auspacken, wenn man sie verwendet) Welchen Filter man verwendet, das muss jeder für sich selbst entscheiden. Wichtig: es gibt auch Fake-Filter, nachgebaute Filter von Drittanbietern. Also aufpassen, ich hatte einen nachgebauten Filter erwischt. Der war als Original angeboten, war aber mangelhaft (seitlich am Rand war der Filter nicht ganz dicht, mein selbstgedruckter Adapter passte auch nicht, weil der Filter etwas dicker war) Im Zweifelsfall sind die Originale am Besten. Es gibt immer wieder Aktionen, daher auf Schnäppchen warten und zuschlagen, wenn die Originale günstig sind.
Viel Spass beim Nachbasteln Würde mich auch über Feedback freuen.
Hilft das Ding gegen Corona / Covid-19, Influenza und anderes Zeug?
Leider muss man in 2020 an solche Dinge denken. Sicher helfen die Luftfilter nicht gegen eine Ansteckung. Aber generell filtern die Geräte Schadstoffe aus der Luft und die Lila Version soll auch gegen Viren helfen! Wenn die Ansteckung tatsächlich über die Luft erfolgt, dann kann ein Filter immerhin ein bisschen zusätzlichen Schutz bieten.
Leider gibt es zu diesem Thema viele widersprüchlichen Informationen und Halbwahrheiten im Netz. Angeblich benötigt man einen Hepa-Filter der Klasse H13 oder 14, da Viren kleiner als 1µm sind. Xioami wirbt mit einer guten Filterleistung bis 0,3µm schon beim grünen Filter. Der graue Filter oder gar der Lila haben eine noch höhere Filterleistung. Da ich die Dinger sowieso im Büro stehen habe, hoffe ich, dass die Filter auch ein paar Viren aus der Luft filtern können. Im Wohnzimmer steht der Original Xioami Air Purifier, im Schlafzimmer eine selbstgebastelte Version mit Lila Filter. Ob es was nutzt? Gegen Pollen, Hausstaub, Staubmilben und sonstiges lästiges Zeug auf jeden Fall. Gegen Viren und Bakterien? Keine Ahnung. Der Hersteller behauptet es.
Schaden kann es jedenfalls nicht.
Update 12.2020 – es funktioniert!
Nach Weihnachten ist das Büro geschlossen, Zeit zum Putzen und aufräumen. Im Packraum – da, wo ich meine Ware verpacke, stand seit 6 Monaten ein selbstgebastelter Raumluftreiniger mit Xiaomi-Filter. Durch die Kartonage und Papiere fällt sehr viel Staub an. Der Luftfilter wird hier mit 2x 14cm-Lüfter (übereinander) betrieben. Ganz offensichtlich funktioniert das Teil wunderbar, es wurde extrem viel Staub angesaugt.
Zur besseren Visualisierung habe ich mit dem Staubsauger senkrecht über den Filter eine Linie abgesaugt.
Je nach Raum gibt es verschiedene Anforderungen an die Luftfilter. Im Packraum soll eigentlich nur der Staub eingesaugt werden. Das funktioniert super. Hier kann man die Filter problemlos absaugen und dann nochmal verwenden. In anderen Räumen werden allerdings Aktivkohle-Filter gegen Ausdünstungen der Drucker (VOC – flüchtige Organische Stoffe) benötigt. Die Aktivkohle verbraucht sich mit der Zeit, da bringt Absaugen nichts. Im Hobbyraum ist es dann eher Grobstaub, durch Sägen, schleifen und sonstige Basteleien. Da tut es auch ein gebrauchter Filter.
Daher werde ich die Filter zuerst im Druckerraum einsetzen, danach absaugen und im Packraum und dann nochmal absaugen und in der Werkstatt einsetzen. Danach werden die Filter entsorgt.
Für den Druckerraum gibt es mittlerweile etwas neues – mit viel Aktivkohle. Aber das gibt einen extra Beitrag 🙂
Mein Creality CR-10 3D-Drucker war ein feines Teil. Vor allem der vergleichsweise große Druckraum hat mir gefallen. Allerdings hatte das Gerät auch ein paar Nachteile, die mich teilweise ziemlich genervt haben. Durch die Größe und die wackelige Führung war der Druck oft etwas unsauber. Besonders nervig war aber das Druckbett. Dauernd musste man nachjustieren und trotzdem klappte es oft nicht mit der Haftung.
Ganz anders der Anycubic i3 Mega. Nachdem mir das Gerät empfohlen worden war und ich ein paar Testdrucke davon gesehen hatte, habe ich mir den Drucker einfach bestellt. Wirklich teuer sind die Geräte ja nicht. Für den Anycubic i3 Mega habe ich nur 230,- Euro bezahlt.
Nachteil gegenüber dem Creality CR-10: deutlich kleinerer Druckraum. Ansonsten ist das Gerät in allen Belangen einfach nur besser. Die Drucke sind um einiges feiner. Die Führungen laufen besser und die Ultrabase ist (fast) perfekt. Einmal ganz am Anfang nivelliert, seither läuft der Drucker. In über einem Jahr gab es noch keine Druckjobs, bei denen irgendwelche Haftungsprobleme aufgetreten sind.
Nach dem Abkühlen des Drucks lassen sich die Objekte einfach von der Druckplatte herunternehmen. Die Konstruktion des Anycubic i3 Mega ist sehr stabil, da wackelt nichts.
Mittlerweile habe ich den Creality CR-10 verkauft und drucke nur noch mit dem Anycubic i3 Mega: Drucker einschalten, Druckjob starten, kurz schauen, ob der Druck sauber startet und dann nach ein paar Stunden (3D-Drucke dauern leider immer ziemlich lange) kann man das Druckobjekt vom Drucker nehmen. Anfangs habe ich nur PLA gedruckt, da der Drucker offiziell nicht für PETG freigegeben ist. Irgendwann habe ich es dann aber doch gewagt und kann sagen, dass das Gerät einwandfrei mit PETG funktioniert. PETG ist deutlich temperaturstabiler als PLA, witterungsbeständiger und sehr UV-beständig. Es eignet sich daher deutlich besser für Objekte im Außenbereich. Außerdem ist es angeblich lebensmittelecht. Geschirr möchte ich damit zwar nicht drucken, aber diese Eigenschaft könnte für manche Anwendungen durchaus interessant sein.
Angeschlossen ist der Anycubic i3 Mega über USB an einen Raspberry Pi Model 3B, auf dem Octoprint läuft. Das Zusammenspiel funktioniert perfekt. PETG drucke ich mit 228°C, Druckbett auf 70°C Das muss aber bei jedem Drucker und bei jedem Filament einzeln eingestellt werden, da gibt es leider ziemliche Schwankungen im Material und bei den Sensoren.
Das größte bisher gedruckte Objekt hatte einen Durchmesser von 202mm, da kommt der Drucker schon nah an seine Grenzen. Die üblicherweise von mir verwendeten Skirt-Linien konnten dabei nicht mehr verwendet werden. Die maximale Druckgröße des Anycubic i3 Mega liegt bei 210x210x205mm.
Wenn man den großen Bauraum des Creality CR-10 nicht benötigt, würde ich auf jeden Fall den Anycubic i3 Mega vorziehen. Das Gerät ist viel zuverlässiger beim Druck, die Druckqualität ist deutlich besser und vor allem die Haftung auf dem Druckbett funktioniert einfach.
Ich hatte für den Creality CR-10 noch eine Ultrabase gekauft, die gibt es auch mit 30x30cm. Damit funktioniert auch der CR-10 recht gut. Aber insgesamt ist der Anycubic i3 Mega einfach zuverlässiger und macht einfach das, was er soll: Drucken. Beim Creality CR-10 lag das Verhältnis zwischen Wartung und Druck ungefähr bei 50:50, beim Anycubic i3 Mega gab es seit der Inbetriebnahme mit dem ersten Leveln des Druckbetts keinerlei Wartungsbedarf – mit Ausnahme von gelegentlichen Filament-Wechseln.
Man kann mit 3D-Druckern basteln oder einfach nur damit drucken. Ich bevorzuge das Drucken, daher ist für meine Zwecke der i3 Mega einfach das besser geeignete Gerät.
Nachdem ich Anfangs überwiegend fertige Objekte von Thingiverse.com und anderen Webseiten gedruckt habe, arbeite ich mich mittlerweile in die Erstellung eigener Drucksachen ein. Dazu gibt es natürlich einen weiteren Blogbeitrag auf www.bastel-bastel.de
Irgendetwas läuft gewaltig schief beim Internet-Banking!
Seit weit über 30 Jahren nutze ich den Kontozugriff über die Telefonleitung. Anfangs noch via BTX, später über das Internet. Mit Pin/TAN auf Papier oder HBCI per Chipkarte. Über die Banken-Webseite oder am liebsten mit speziellen Programmen, wie Wiso Mein Geld, StarMoney, Quicken und ähnlichen. Das hat alles gut funktioniert und war auch hinreichend sicher.
Bis zu dem Zeitpunkt, als die Banken wegen PSD2 in Panik gerieten. Seither ist alles anders. Es funktioniert nichts mehr und in der Online-Banking-Welt herrscht das totale Chaos. Allerdings habe ich auch den Eindruck, dass das von gewissen Kreisen in der EU so gewollt ist. Bankster sind überall!
Online-Banking mit PIN/TAN auf Papier war technologisch ausreichend sicher. Das einzige Problem sind die Benutzer, die gedankenlos überall drauf klicken. Da ist dann mal ein PC Viren-verseucht oder man ist so naiv und gibt auf Anfrage von angeblichen Bank-Sicherheitsberatern seine PIN und die Tanliste auf einer Webseite ein oder verschickt diese per eMail.
Um die Benutzer zu schützen, haben die Banken alternative Wegen eingeführt, TANs via Handy-App, SMS oder mit einem kleinen Lesegerät, das man an den Bildschirm halten musste und das per Blink-Code eine TAN generiert hat. Auch das ist technisch ausreichend sicher. Der „Schwachpunkt MENSCH“ bleibt aber und daher kann auch dieses System ausgehebelt werden.
Banking mit HBCI und Chipkarte war sehr komfortabel und sicher. Verschlüsselte Kommunikation über spezielle Kanäle, Anfangs über ISDN, später auch über das Internet. Tolle Lösungen mit bankeigenen Programmen wie z.B. SFIRM, aber auch mit universellen Bankingprogrammen wie oben genannt. Aber aus irgendwelchen Gründen war das offiziell nur für Firmen und wurde von den Banken kaum verbreitet.
Diese gut funktionierende Banking-Welt wurde mit PSD2 im Auftrag der EU eingerissen. Seither funktioniert nichts mehr wie zuvor. Bei der einen Bank funktioniert keine Überweisung mehr über HBCI, die andere schafft das System gleich ganz ab. Wieder eine andere Bank führt ein System ein, das eine andere gerade abgeschafft hat. Totales Chaos.
Man soll jetzt über die Webseite der Bank arbeiten, Bankingprogramme am PC sind nicht mehr modern genug. Das Tolle am Webseiten-Banking ist natürlich, dass die Banken einem bei jedem Login Werbung präsentieren können. Da freut man sich richtig, wenn man sich erst mal bis zu seinem Konto durchklicken darf.
Besser noch ist das Banking per App. Wer glaubt, dass die Bank-Apps sicher sind, der glaubt auch an den Weihnachtsmann.
Bankprogramme, die über HBCI mit Chipkarte über einen verschlüsselten Kanal mit dem Bankrechner kommuniziert haben, waren schon immer sicher. Irgendwelche von der Bank zusammengestückelte APPS auf einem Handy, das schutzlos dauerhaft im Internet hängt und vielleicht seit 2 Jahren keine Sicherheitsupdates mehr erhalten hat, sind es definitiv NICHT! Ist es besonders sinnvoll, dass jede Bank eine eigene APP hat? Alle Apps werden unterschiedlich bedient, sind vielleicht von verschiedenen Softwareklitschen programmiert, von denen man sonst noch nie gehört hat. Einen Standard gibt es nicht. Das soll sicher sein?
Wieso muss man bei manchen Banken alles über oder zumindest mit Hilfe einer Handy-App erledigen? Zugegeben, die Apps sind meistens recht bequem, das ist aber auch schon alles. Benötigt man wirklich immer und überall, auch unterwegs, Vollzugriff auf sein Konto? Ein Handy kann herunterfallen, geklaut oder gehackt werden, geht verloren, wird zerstört. Dann ist der Zugriff auf das Konto weg. Aber die sicheren System sind einfach nicht mehr modern genug. Veraltet, langweilig, unerwünscht.
Beispiele
DIBA: Wieso sollte man auf der Mini-Tastatur am Handy eine IBAN eintippen? Das geht doch theoretisch komfortabler am PC! Mit WISO Mein Geld ging das bisher problemlos, mittlerweile ist aber über HBCI nur noch der Kontoabruf möglich, Überweisungen funktionieren nicht mehr, das wurde einfach abgeschaltet.
Der moderne Weg am PC geht so: Für eine Überweisung geht man auf die Webseite der Bank, geniest die Werbung, loggt sich ein: Zugangsnummer, Internetbanking PIN, dann im nächsten Feld den DIBA-KEY. Dann das Handy zur Hand nehmen, um das Login zu bestätigen. Anmelden am Handy, App laden, Banking-PIN eingeben. Anmeldung am PC bestätigen. Zur Bestätigung nochmal die PIN eingeben. Warten. Werbung anschauen. (Beim Schreiben dieses Textes auf dem Handy für „FONDSHELDEN“, am PC irgendeine „ANALYSE“) Klick auf das Girokonto, Überweisung starten, umschalten zum Handy, Freigabe mit Banking-PIN. Puh, fertig. Das ist ja super komfortabel – NICHT!
Gleiches bei der N26 Eine lokale Volksbank wurstelt anscheinend weiter wie bisher, die Sparkasse führt ein System ein, das eine andere Volksbank gerade wegen PSD2 abgeschafft hat. Bei der Comdirect benötigt man eine APP als TAN-Generator. Alles schön auf dem Handy.
2-Faktor Authentifizierung in einer App?
Seltsamerweise wird der 2. Faktor, also die Auftrennung auf 2 Wege für die Sicherheitsfreigabe, auf dem Handy einfach abgeschafft.
Früher gab es PIN und TAN auf Papier, dann die TAN mit TAN-Generator oder SMS. Getrennte Medien für die Übertragung. Alles hinfällig.
Die APPS machen das alles intern, die haben die Sicherheit ab Werk verbaut und sind sicher. Kann man glauben oder auch nicht. Mit den meisten Banking-Apps hat man vollständigen Kontozugriff, sobald man sich angemeldet hat.
Jedenfalls herrscht aktuell totales Chaos.
Zweithandy fürs Banking
Ich wollte niemals meine gesamten Bankdaten auf dem Handy mit herumtragen. Deswegen habe ich mir ein billiges Handy zugelegt, bei einem Hersteller, der regelmäßig Updates verteilt. Dieses Handy hat eine Prepaid-SIM-Karte von Netzclub (günstigste Lösung für sowas). Es bekommt KEINEN mobilen Datenzugriff und liegt nur zuhause. Damit kann es schon mal nicht verloren gehen. Außerdem laufen alle Internet-Zugriffe über das hausinterne Netz und können per Firewall und mit verschiedenen Tools einigermaßen gesichert werden. Das Handy ist nur für das Banking zuständig.
Open Banking
Ein „nettes“ Feature, welches mit PSD2 eingeführt wurde, ist das „open banking“. Damit müssen Banken Drittanbietern Zugriff auf die Konten ermöglichen. Hört sich komfortabel an, wenn mit einer App die Konten aller Banken auf dem Handy sind. Aber ganz ehrlich – wer ist so bekloppt und gibt irgendeiner unbekannten Firma seine Kontozugangsdaten? Da bastelt ein Startup eine App, meldet eine GmbH an und bietet ganz tolle Finanzdienstleistungen. FINTECHS nennt man diese modernen, hippen Firmen. Superduper Dienstleister, das braucht jeder, ohne sowas ist man hoffnungslos veraltet. Falls da jetzt irgendein krimineller Mitarbeiter mal eben die Kundenkonten leerräumt, dann ist das halt dumm gelaufen. Man hat ja freiwillig seine Kundendaten weitergegeben. Tja, denkste, der letzte Satz war eher ein Traum! Der Witz am „open banking“: man muss da nicht mal wirklich seine Einwilligung geben, die Bank darf das nicht einmal prüfen. Sie muss anfragenden Dienstleistern den Zugriff gewähren. Also irgendein Dienstleister kann problemlos auf ein Konto zugreifen, ohne dass der Kontoinhaber das mitbekommt. Das ist natürlich total im Sinne der DSGVO.
Man stelle sich vor: Firma XYZ fragt bei der Bank Kontodaten ab, ohne dass der Kontoinhaber zustimmen muss und die Bank muss diese Abfrage ausführen. Das ist ja toll! Wer das nicht glaubt, darf gerne die PSD2-Richtlinien durchlesen. Das machen vermutlich die Wenigsten, wie sonst ist zu erklären, dass es noch keinen Aufschrei gibt?
Ich hatte ja schon Probleme mit meinem Prepaid-Handy-Vertrag. Gerne hätte ich die automatische Aufladung, aber dafür muss ich bei Vodafone „aus Sicherheitsgründen“ die erste Ladung per Überweisung über einen Dienstleister durchführen, dem ich PIN und TAN für mein Konto geben soll. Wie bekloppt ist das denn? Die können (und machen das auch, zumindest nehmen sich die Firmen das Recht per AGB und Datenschutzhinweis – das liest ja auch niemand) erst mal die Kontobewegungen der letzten Wochen und Monate abrufen und ein Profil erstellen, während sie die Überweisung durchführen.
Außerdem: Früher war es mal verboten, PIN und TAN für andere Zwecke als direkt bei der kontoführenden Bank zu verwenden. Heute sehen die Konzerne das nicht mehr so genau. Den Ärger hat ja im Zweifelsfall der Kunde. Mit PSD2 wird das jetzt alles legalisiert, ausgebaut und sogar zwangsweise eingeführt.
Also nicht wundern, wenn irgendwann mal das Konto leer ist. Das ist alles nur zum Wohle der Kunden.
Schöne neue Banking-Welt.
Kleine Anekdote: Der Sparplan unseres Juniors ist ausgelaufen. Ich bin daher mit einer fertig geschriebenen Kündigung zur Bank, habe dort den Schrieb und das Sparbuch übergeben, der Bankmitarbeiter hat alles angeschaut und dann erklärt, es sei soweit ok. Das Geld würde wie gewünscht nach Ende der Kündigungsfrist auf das angegebene Konto überwiesen.
Er war ganz erstaunt, dass ich eine Quittung wollte. Immerhin hatte ich ihm das Sparbuch übergeben und damit keinerlei Nachweis mehr über das Eigentum am Konto. Er hat mir dann auf einer Kopie meines Schreibens den Erhalt des Sparbuchs bestätigt, mit mehreren Stempeln und Unterschrift. Fertige Belege oder Bescheinigungen gibt es bei der Bank dafür nicht, anscheinend ist es nicht vorgesehen, dem Bankkunden eine Quittung auszustellen. Da muss man der Bank schon vertrauen.
Sollte man der Bank wirklich so weit vertrauen, um so etwas ohne Beleg durchzuführen?
Diese Website verwendet Cookies, damit wir dir die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in deinem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn du auf unsere Website zurückkehrst, und hilft unserem Team zu verstehen, welche Abschnitte der Website für dich am interessantesten und nützlichsten sind.
Unbedingt notwendige Cookies
Unbedingt notwendige Cookies sollten jederzeit aktiviert sein, damit wir deine Einstellungen für die Cookie-Einstellungen speichern können.
Wenn du diesen Cookie deaktivierst, können wir die Einstellungen nicht speichern. Dies bedeutet, dass du jedes Mal, wenn du diese Website besuchst, die Cookies erneut aktivieren oder deaktivieren musst.