Technologiebegrenzung durch Stromverbrauch
Normalerweise verursacht die Zeitschrift Informatik Spektrum, Organ der Gesellschaft für Informatik, bei mir eher Gähnen. Häufig ersichtlich bemüht, irgendetwas zu Papier zu bringen, aber meistens dann doch ziemlich belanglos wie der Zustand der deutschen Informatik eben. Obwohl ich im Heft vom April 2009, Informatik überall, jederzeit und für alle von Broy und Endres doch einen bemerkenswerten Hinweis auf eine Technologiebegrenzung gefunden habe. Zwar an sich auch nicht neu, aber doch interessant ist die Feststellung, daß wir in der Hardware-Entwicklung gerade gegen eine – unerwartete – Grenze laufen, die das Moore’sche Gesetz der stetigen Erhöhung der Rechenleistung ausbremsen könnte, bevor wir an echte physikalische oder technologische Grenzen stoßen. Nämlich der Stromverbrauch. Während der Stromverbrauch früher nur am Rande betrachtet wurde, ist er nun plötzlich enorm wichtig geworden. Und die Grenze der Miniaturisierung läge darin, daß die Verlustströme jetzt schon kaum noch zu beherrschen seien.
Richtig ist, daß sich bei den normalen PCs ein Paradigmenwechsel abzeichnet. In den letzten Jahren wurden die Netzteile immer dicker. Vor nicht allzu langer Zeit hatten PCs noch Netzteile in der 75 bis 150 Watt Klasse, dann waren irgendwann mal Netzteile von 250 bis 400 Watt normal, und inzwischen bekommt man auch Netzteile zwischen 600 und 1000 Watt, um all die übertakteten Prozessoren und Mega-Graphikkarten sowie deren notwendige Wasserkühlung betreiben zu können. Schon länger aber betrifft das nicht mehr den Normal- oder gar Business-PC, der früher mal die Leistung anführte. Nur noch High-End-Spieler brauchen sowas. Immer mehr Firmen stehen vor dem Problem hoher Stromkosten, und auch im Privatbereich wird das immer wichtiger, weil immer teuerer. Plötzlich fragen die Leute nach der Effizienzklasse von Küchengeräten. Plötzlich fangen die Herstellern von Fernsehern, Videorekordern, Set-Top-Boxen an anzugeben, wieviel Strom das Ding im Standby-Betrieb verbraucht. Gab es noch vor einiger Zeit Geräte, die im Standby stillschweigend mal so 15 Watt verbrieten (was ist eigentlich das Perfekt von braten?), bemühen sich nun die Hersteller anzugeben, daß die Dinger im Standby irgendwo unter 1 Watt liegen. Und es steht auf den Preisschildern im Blödmarkt inzwischen nicht nur die Größe des Displays und die Anzahl der HDMI-Buchsen, sondern eben auch der Standby-Verbrauch drauf.
Die Rechenleistung von PCs “reicht” mehr als aus um zu surfen, zu mailen oder mal einen Video zu gucken. Schnellere stärkere Hobel sind kein Verkaufsargument mehr. Stattdessen fängt man an auf den Stromverbrauch zu gucken. Maß der Dinge sind inzwischen Notebooks, weil die samt Bildschirm oft unter 40 Watt liegen – während der normale PC schon ohne Bildschirm mindestens ein 250-Watt-Netzteil hat. Selbst wenn er dann weniger Strom braucht, ist der Wirkungsgrad dann so schlecht, daß er trotzdem weit drüber liegt. Und plötzlich werden auch kleine Atom-PCs mit externem Notebook-Netzteil interessant. Letztlich nichts anderes als Notebooktechnik ohne Akku und Bildschirm. Eine Asus eeeBox hat ein 65Watt-Netzteil. Intel stellt Unmengen von Atom-Prozessoren her – deutlich langsamer als die bisherigen Desktop- und Notebook-Prozessoren, aber stromsparend. Und auch beim Einkauf gucken die Leute plötzlich viel stärker aufs Geld, der Prozessor muß nun billig sein.
Interessante neue Zielsetzungen. Ein Umschwung in der PC-Technik. Vielleicht zu vergleichen mit dem Strategiewechsel in der Automobiltechnik. Da sind die großen spritsaufenden Pickups, Monstertrucks, Geländewagen plötzlich auch völlig out und Hersteller mit solchen Riesenautos plötzlich in der Krise.
Ironie am Rande: Wir hatten schon mal deutlich stromsparendere Prozessoren als den x86-Murks. PowerPC und so. Damals hat der Markt, der sich um Stromverbrauch nicht kümmerte, alles plattgemacht, was nicht x86-kompatibel war. Würde heute wohl anders laufen.
4 Kommentare (RSS-Feed)
Mmmh? Bei “Standby” (wie bei PCs oder anderen Geräten) gehe ich mal von 24 Stunden am Tag aus.
10 Watt mal 24 Stunden/Tag * 365 Tage ergäbe aber 87.600 Wattstunden bzw. 87 kWh.
Das sind allerdings immer noch um die 20 Euro pro Jahr. Nicht gerade so ein Argument.
dict.leo.org: to barbecue braten | briet, gebraten |
Die Entgegnung verstehe ich jetzt nicht ganz. 20€/a ist nicht die Welt, aber wenn man viele Geräte hätte die so aasen (Kinder mit eigenem Rechner, TV, Settop-Box, …) summiert es sich.
Und eine Firma mit 100 Rechnern, da summiert es sich auch.
Wo diese Paradigmenwechsel aber herkommen ist mir ein Rätsel. Die Klimadebatte kochte schon hoch, die Spritpreise waren hoch wie nie, als die Straßenpanzer erst richtig populär wurden. Daß der Trend zu sparsamen Fahrzeugen geht – ist das schon so, oder gibt es nur mehr Leute die es herbeireden wollen?
Der Mensch ist schwer berechenbar, und selten rational. Bei der Mülltrennung, die bekanntermaßen unwirtschaftlich gelöst ist, machen alle mit, aber das Auto ist nur unter anderem ein Transport- und Verkehrsmittel. Es kann natürlich sein, daß es zum Instrument wird, den Nachbarn moralisch unter Druck zu setzen – man müßte wie bei den Digicams, auf denen die Megapixelaufkleber pappen und vom Besitzer oft erst weggemacht werden, wenn die anderen größere Zahlen haben, den Verbrauch groß in Zahlen draufschreiben. CO2-Wert: X, Verbrauch: Yl/100km, daß sich alle zu gegenseitig zu unterbieten versuchen.
Die Irrationalität hat aber auch Vorteile. Wir wären ja manipulierbar wie Lämmer auf dem Weg zur Schlachtbank, wenn wir immer täten was vernünftig scheint.
Aber mein Rechner, ein Laptop, kommt auch schon in die Jahre, und ich sehe keinen Grund aufzurüsten.
Hast Recht, irgendwo habe ich da nicht aufgepaßt:
10W mit 24hx365 sind 87,6 kWh/a was etwa 17,50€/a kosten würde bei 20ct/kWh
Bei PC’s ist aber ein “Mehrverbrauch” von 100W durchaus möglich, wenn man halt die billige Platte drin hat, den “billigeren Desktop-Prozessor und die 3D-grafikkarte anstatt onboard-Grafik und schon kommt man auf bis zu hundert Euro pro Jahr und mehr, wenn man davon ausgeht, daß der PC mindestens 20h die Wochen läuft, was heutzutage bei den meisten der Fall sein dürfte. In Firmen laufen die ja meisten 8-9h/d und das 5 Tage die Woche, womit man im Jahr deutlich über 100€ sparen kann, wenn man die richtigen BüroComputer verwendet.
Beispiel:
Ein “toll” ausgestatteter Rechner beim Blödmarkt1 kostet meist 500 bis 600 Euro, hat aber soviel Zeug mehr drin, daß der Stromverbrauch deutlich höher ist als beim Bürocomputer, der zwar genausoviel kostet, aber deutlich sparsamere Komponenten hat.
Die Krux ist aber, daß viele Kleinfirmen sich das zeug vom Blödmarkt holen, weil man da ja “mehr” fürs Geld bekommt, ohne daß die Folgekosten bedacht werden.
Nunja, genauso wie sich keiner bei den SUVS & co. um den Spritverbrauch gekümmert hat, kümert sich auch keiner um den Stromverbrauch der Computer.
Wenn man bedenkt, daß 10W Mehrverbrauch sich im 17kWh/a, bzw. ca 3,40 €/a auswirkt, kommen bei vielen Geräten die im Standby durchaus ordentliche Summen zusammen.
Ein PC mit 300W Verbauch kostet eine Firma bei 40h Betrieb pro Woche 120€/a
Leider ist es aber so, daß viele Betriebe (und Privatleute) bei einem Preisunterschied von 50 € (z.B. 550 statt 500) lieber zu dem “billigeren” Modell greifen, obwohl das teurere Modell nach spätestens 2 jahren sich amortisiert hat.