Micro-Colocation: Der Personal Server
Hatte ich eigentlich schon vor etwa 2 Jahren vorhergesagt, jetzt ist es da.
Bisher gibt es grundsätzlich zwei Varianten, wenn man sich bei Colocation Provider / Hoster Rechner mietet: Entweder mietet man sich einen physikalischen PC in einer Server-Variante, technisch und preislich nach oben hin offen. Oder irgendwas virtualisiertes in der Cloud. Ersteres ist teuer, letzteres hat wieder so seine eigenen Nachteile.
Jetzt kommt noch etwas zwischendrin: Schon ein ganzer, eigener Rechner, den man für sich alleine hat, aber eben kein großer PC, keine 1HE-Maschine, sondern nur ein Platinchen mit dem nötigsten. Was braucht man alles? Kaum etwas. Stromversorgung? Kann zentral geschehen. CPU und Mainboard? ein ARM-SoC reicht da völlig. Alles drauf, was man braucht. Speichercontroller, Ethernet, USB. Fertig. 1-2GByte RAM. Entweder ne 2,5-Zoll-Platte, eine SSD oder noch irgendwas kleineres, eine von diesen neuen Mini-SSDs zum draufstecken. Fertig. Reicht völlig, um sich seinen eigenen Webserver für den kleinen Bedarf, ein Mail-Relay und ein bisschen private-cloud-gedöns zu betreiben.
Dazu braucht man keine 1HE-Maschine, dafür reicht ein kleines, stromsparendes Platinchen. Könnt Ihr Euch noch an die Transputer-Streifen erinnern? Da gab’s damals die als Transputer bezeichneten Prozessoren, die auch alles notwendige (sogar etwas Speicher) auf dem Chip hatten – Speicherkontroller, serielle Schnittstellen, sogar etwas Speicher. Zusammen mit einem Taktgeber und etwas dynamischem RAM passten die auf so kleine streifenförmige Platinchen, die man dann auf große Trägerboards stecken konnte. So in etwa könnte man das auch mit ARM-Prozessoren machen und dann auf jedem dieser Maschinchen ein eigenes Linux laufen lassen, das man dann mieten kann. Damit braucht man dann nur noch etwas 3-4 Watt Strom, an Platz nur noch etwa 1/20 einer 1HE-Maschine, und die Beschaffungskosten lägen in der Größenordnung von 100 Euro.
Zwar gab es tatsächlich schon mal Anbieter, die solche ARM-Prozessoren im Serverbereich anbieten wollten, von denen ist aber mindestens einer Pleite gegangen. Weil der das zu hochpreisig angegangen ist.
Inzwischen macht aber ein französischer Provider erste Experimente und hostet Cubieboards. Die sind zwar nicht speziell dafür gedacht und haben noch nicht die hohe Packungsdichte, die möglich wäre, dafür überflüssige Hardware (WLAN, HDMI,..), aber die Richtung stimmt schon mal. Damit dürfte es drastisch billiger werden, sich einen kleine, schwachen, aber für viele Zwecke durchaus ausreichenden Server zu mieten. Dazu wird es dann über kurz oder lang noch fertige Images mit allem geben, was man so braucht.
Dürfte dann das sein, was nach dem bisherigen virtualisierten Cloud-Computing kommt. Dass jeder so seinen Personal Server hat. Mit dem man dann z. B. seine Terminkalender usw. synchronisiert. Stichwort OwnCloud.
22 Kommentare (RSS-Feed)
Wir haben mal durchkalkuliert, was Raspberry Pi Hosting kosten würde.
Mit einem entsprechend geformten Blech könnten etwa 72 Pis auf einer 19″-Ebene untergebracht werden. Die benötigen aber alle Strom und vor allem Netzwerk. D.h. die Dichte an Netzwerkports pro Schrank steigt plötzlich immens und die brauchen ja auch nochmal Strom.
Das ganze rechnet sich am Ende einfach nicht, auch wenn es ein cooles Projekt gewesen wäre.
Solange man das nur in Platzersparnis rechnet, lohnt es sich vielleicht nicht, in den meisten Rechenzentren der Hoster ist Platz nicht so wirklich knapp.
Dafür spart man aber eben Strom (damit Kühlung) und Anschaffung. Und wirklich interessant wird das ganze eben erst dann, wenn man nicht mehr in jedes einzelne Board ein Ethernetkabel stecken muss, sondern man das auf eine Trägerplatine steckt, die die Switch-Chips direkt drauf hat. Und dann nur noch mit IPv6 versorgen.
Und wenn ein Rechner eben nur noch 4 Watt braucht, spart das eben Geld. Im Vergleich zu einem Normal-PC mit Platten, der auch nicht unter sagen wir mal 60 Watt liegt, wären das – einfach um mal einen Wert zum Rechnen zu schätzen – 50 Watt Ersparnis. Macht im Jahr 438 kWh, oder etwa 100 Euro zu normalen Strompreisen gerechnet. Dazu die Ersparnis an Kühlung. Weiter die Ersparnis bei der Anschaffung und geringere Wartungskosten, denn keine Mechanik mehr, nur noch ein paar Zentral-Lüfter. Weniger Netzteile. Keine Festplatten.
Ich glaub schon, dass sich das lohnt. Nur eben nicht mit Raspberries, sondern mit entsprechend angepassten und auf das Nötige reduzierten Boards.
Allerdings wird das erst dann richtig interessant, wenn es einen Privatkundenmarkt für sowas gibt, denn für Geschäftskunden ist das eher nichts.
“Oder irgendwas virtualisiertes in der Cloud […] hat wieder so seine eigenen Nachteile.”
Huch. Nämlich?
@Hank: Dass Du nie so genau weisst, wo Deine Daten eigentlich lagern und ob die Virtualisierung und der Host wirklich dicht sind. Und ob beispielsweise die Plattensektoren ausgenullt werden, wenn da mal irgendwer umpartioniert und die virtuellen Festplatten verschiebt, oder ob dann der nächste Kunde in seiner „frischen” virtuellen Platte nicht die Daten vom letzten vorfindet. Oder was der Hoster mit der Platte macht, wenn sie kaputt oder veraltet ist.
Einen richtigen Markt dafür haben wir auch nicht gesehen.
Und die Kosten für eine Spezialentwicklung mit Switch auf dem Trägerblech muss ja auch erstmal finanziert werden.
Aber das Problem heutiger Clouds liegt doch in der (gewollten) fehlenden Ende-zu-Ende-Verschlüsselung so gut wie aller marktüblichen Software. Das wäre mit separater Hardware wohl kaum zu lösen.
Ich habe so ein Problem aktuell mit Onenote, das ich gerne beruflich (und damit unter Windows) nutzen würde. Ich habe Onenote kürzlich bei einem Kollegen gesehen und würde es auch gerne nutzen, aber scheue die Auslagerung “in die Cloud”, d.h. hier auf ein Microsoft “Skydrive”. MS hat aber seine Software – nach meinem Kenntnisstand – absichtlich so programmiert, dass entscheidende Features fehlen, wenn man nicht ihre Cloud (Skydrive) nutzt. Die alte Masche.
Allerdings wird das erst dann richtig interessant, wenn es einen Privatkundenmarkt für sowas gibt, denn für Geschäftskunden ist das eher nichts.
Privatkunden interessieren sich in erster Linie für Spieleserver (Linux/Windows) und dafür sind die Kistchen schlicht nicht geeignet.
Eine Übersicht über Raspberyy Pi Hosting-Angebote gibt es hier: http://www.lemmster.de/blog/index.php/2013/06/15/1262
In der Praxis gestaltet sich das aber eher steinig: http://v2.blogdoch.net/2014/02/27/wusel-172757/
Mit dem Nachfolger des ALIX-Boards werde ich das im Selbstbau und zu Hause machen.
http://www.pcengines.ch/apu.htm
Da brauche ich mich weder auf einen Hoster noch auf eine Cloud zu verlassen und weiss immer wo das Ding steht.
@ Fry
Ja, MS hätte schon gerne, dass du in die Cloud wechselst. Welche Features fehlen Dir denn ohne Skydrive?
Ich nutze noch OneNote 2010 und mit den Notizbüchern auf einer normalen Dateifreigabe fehlt mir eigentlich gar nichts. (Vorsicht: Die Freigabe sollte nicht über Offlinedateien oder so synchronisiert werden.)
Ja klar – die ARM Teilchen mit deren superschnellen-CPU. Zeit ist auch Geld und davon braucht man mit dem arm Zeugs mehr als genug.
“..in den meisten Rechenzentren der Hoster ist Platz nicht so wirklich knapp.”
Weiß zwar nicht wie es woanders ist, aber ich bin froh, wenn ich in den bisher betretenen Rechenzentren in Wien zwischen den Racks noch durchgehen kann, da würden ein paar kleinere Server nicht schaden.
@Michael
schöne flotte Intel Atoms der neuesten Generation sind hier wohl eher angebracht 🙂
Ich hab einen Raspberry Pi in einem Rechenzentrum gehosted.
Firma heißt PCExtreme, aus Holland.
Die Sache ist hier beschrieben: http://www.raspberrypi.org/archives/tag/pcextreme
Gibt also Leute die machen das schon 🙂
Gratis PI-hosting (wenn man sein fertiges Kistchen hinschickt) bietet EDIS an. Ich habe da allerdings nur ein paar virtualisierte Maschinen gemietet, bin mit dem Laden sehr zufrieden.
Ein PI mit Gehäuse und SD-Karte sollte, in grösseren Stückzahlen, für 50 Euro hinzubekommen sein. Zentrale Stromversorgung, jedes Gerät eine SD-Karte – die Einstandskosten sind sicher geringer als bei Stange-PCs.
Wer aber einen eigenen Hardware-Server braucht, tut das meist, weil die virtualisierten Kisten nicht genug Leistung bieten. Und dann reicht ein PI eben auch wieder nicht.
Abgesehen davon: Wenn man sein Hosting nicht in den eigenen vier Wänden betreibt, ist das sicherheits-mässig schon fast egal, ob virtualisiert oder auf echtem Eisen.
@Hadmut: Im Gegenteil, beim (nicht-virtuellen, hardware-basierten) Server-Hosting kann der Hoster schnell mal Deine Platte mit der eines anderen Servers tauschen. Beim virtuellen Hosting sind Softwaremechanismen am Werk, die per Software reine virtuelle Festplatten sichern. Das kann man zu Hause z.B. mit Xen auf Linux durchprobieren, mit was anderem arbeitet der Hoster auch nicht.
Genauso mit dem Sniffen von Daten anderer Kunden die am gleichen LAN-Segment hängen, der hardware-basierte Server kann schnell mal auf Promiscuous Mode geschaltet werden und mal gucken was da so über’s LAN kommt. Der Hypervisor dagegen klammert alles aus was nicht Deine MAC-Adresse ist, die virtuelle Netzwerkkarte schert sich nicht um eine Promiscuous-Einstellung.
Z.B. mal hier gucken: http://aws.amazon.com/articles/1697 . Zitat: “The AWS proprietary disk virtualization layer automatically wipes every block of storage used by the customer, and guarantees that one customer’s data is never exposed to another.” und “While customers can place their interfaces into promiscuous mode, the hypervisor will not deliver any traffic to them that is not addressed to them. This includes two virtual instances that are owned by the same customer, even if they are located on the same physical host.”
@Hank: Wenn mir der Server gehört, tauscht der Provider da keine Platten aus.
Geil. Vielen Dank, solche Sachen machen Spass. Ich habe hier einen Holzkopfprovider ins Haus geholt (rsp. holen lassen, seufz), der seine Kunden hinter ein NAT sperrt. Sonst wäre es ja möglich, mein Cubieboard2 einfach zuhause an einem UBS-Adapter dauerlaufen zu lassen. 140€ sind ein wenig viel, für die Hälfte kriegt man VPN um solche Ka—provider zu umgehen.
@Stefan H
Schau mal bei OVH, ich weiss nicht wie das Angebot gerade heisst (damals KS2G), aber vor einem knappen halben Jahr gab es dort die Atoms in offener Bauweise für ‘n Appel und ein Ei. Zwar nur mit zwei Kernen, aber immerhin.
Insgesamt finde ich OVH da recht experimentierfreudig, wie man Kosten bei niedrigpreisigen Dedi-Servern senkt. Container mit Durchzug, zentrale Wasserkühlung….
Ach Du Sch… – bloss nicht OVH. Aus deren Netzen bekomme ich hier (neben China) den meisten Blog-Spam. Ganz schrecklich, elende Malwareschleudern obendrein.
@Hadmut: Oben war von “Rechner mieten” die Rede, dabei hat der Provider immer noch die Verantwortung für die Hardware. Wenn Du für Deine eigene Hardware verantwortlich bist (das ist dann Colocation, nicht Hosting), es schlimm auf anderer ebene: Z.B. bei einem Festplattenausfall musst Du selbst zum Rechenzentrum hinfahren und das austauschen. Das geht nur wenn Du Dir gleich x Rechner hinstellst für die Redundanz. Das mit dem Sniffen des LANs geht außerdem.
in meinem alten job vor so 11 Jahren haben wir dann selber server “gebastelt”. mini-atx mainboards, gehäuse von einem blechner, au 3HE bekamen wir so 8 Rechner. und dann haben wir eigene netzteile entwickeln lassen. die gängigen netzteile sind nicht wirklich effizienz optimiert. Alleine bei der Grätz Brückenschaltung liessen sich einige prozent sparen. Im RZ ist der stromverbrauch 3x teuer. USV,Notstrom und vor allem die klimaanlage.