Speichergrößen in Rechnern
Zuschrift eines Lesers und Widerspruch.
Ich hatte gerade gerügt, dass man Notebooks oft nur noch mit fest eingelötetem Speicher bekommt und nicht mehr aufrüsten kann.
Einige Leser hatten dazu geschrieben und Hypothesen aufgestellt, dass dies erfoderlich sei, um in den heute üblichen flachen Gehäusen die Luftzirkulation noch ermöglichen zu können, oder dass Microsoft (die aber auch nur einen kleinen Teil des Notebook-Marktes bedienen) das aus Sicherheitsgründen macht, damit man den Speicher nicht mit flüssigem Stickstoff kühlen, herausnehmen und auslesen kann. Als ob man einen 400-Euro-Notebook aus dem nächsten Supermarkt mit Einsatzgebiet Home-Schooling gegen Angriffe mit flüssigem Stickstoff schützen müsste. Und RAM muss normalerweise gar nicht so sehr gekühlt werden (wie etwa die CPU oder die Bridge-Chips), alle meine bisherigen Notebooks kamen auch ohne Kühlung der RAM-Riegel aus.
Ich halte das eher für eine Verkaufsmasche, weil der Notebook-Markt in zwei Teile zerbrochen ist: Es gibt den Billig-Markt, in dem man Notebooks mit günstiger Ausstattung und meist Plastikgehäuse bekommt, und den teuren Markt, in dem man Metallgehäuse, Ultrabooks und die neusten CPUs findet. Und die gehen preislich ziemlich auseindern. Die einen so ab 300 Euro, die anderen so ab 1.200 Euro.
Das Problem daran:
Die Technik ist mittlerweile so fortgeschritten und massenmarktergriffen, dass im normalen Gebrauch die billigen Rechner völlig reichen. Mittelprächtige CPU, 8 GB RAM, 256 oder 512 GB SDD, WLAN, Full-HD-Display. Reicht im Normalbetrieb. Vor allem im Home-Office, wo der Angeberfaktor vor Kollegen nicht wirkt. Es fehlt an Verkaufsargumenten für die teuren Rechner. Habe ich gerade für einen bestimmten Zweck für rund 320 Euro gekauft. Auch noch nett klein. Ethernet fehlt. Und der RAM fest eingelötet. Wenn einem nämlich die 8GB nicht reichen – dann wird’s gleich deutlich teurer.
Als ich den Rechner im Laden abgeholt habe, kam ich gerade dran vorbei, wie ein Verkäufer einer jungen Frau erklärte, warum sie ein Notebook mit mehr Speicher kaufen sollte. Ich habe nur nicht mitbekommen, wieviel. Das, was sie sich da ausgesucht habe, freilich, damit könne man arbeiten. Aber die jungen Leute von heute, die hätten doch gerne so viele Browserfenster offen. Und wenn der Rechner den Speicher dann auslagern müsse, dann würde das sehr, sehr langsam. Er würde ihr zu einem Modell mit mehr Speicher raten.
Und dickerem Preisschild.
Und dann natürlich die Frage, ob Microsoft den Preis der Windows-Lizenz vom maximalen Rechnerausbau abhängig macht. Es gab ja mal das Problem, dass wenn man den Speicher aufrüstet, die Windows-Lizenz ungültig wurde, weil die Lizenz auf einen Fingerprint der Rechnereigenschaften ausgestellt wurde.
Nun schreibt ein Leser (und das auch noch zur Betonung in teils Riesen-Schrift und Knallfarben, als ob mich das beeindrucken könnte, es nervt aber nur und ist schlechtes Benehmen gegenüber dem Empfänger):
Grüß Gott, Herr Danisch,
gerade Sie sind prädestiniert, dazuzusagen, daß (sieht man von Anforderungen wie Filmen und großen Bildern ab) der Speicherbedarf vor allem durch starke Softwareadipositas begründet ist.
Das beiliegende Layoutprogramm (in einigen Aspekten auch heute noch InDesign überlegen) lief auf den damaligen 640 kB Hauptspeicher – nebenher mit proportionalen Scrollbalken, wie zu sehen und auch heute nicht überall selbstverständlich.
Heute möchte InDesign 16 GB.
Kürzlich schwärmte der Techniker Horst Lüning in seinem Videoblog vom Mooreschen Gesetz. Hat verschlafen, daß da seit 20 Jahren kaum noch was weitergeht. (Anfang des Jahrtausends schrieben die Fachzeitschriften noch von den bald 10 Ghz).
So mancher Fortschrittsglauben steht auf diesem sehr wackligen Untergrund.
Mit mehr Bemühen um SW-Qualität ließe sich einiges bewegen!
Njet.
Es ist zwar richtig und wurde auch schon von mir beklagt, dass die Software vor allem durch Sprachen wie Go oder Rust unnötig aufgebläht wird, und auf einem Linux-System längst unzählige Prozesse laufen, von denen man nicht mehr weiß, was sie tun, und warum überhaupt so viele, das ist aber jedenfalls bei mir nicht die Hauptursache des Speicherbedarfs.
Natürlich habe auch ich immer mehr Browserfenster offen.
Aber die Webseiten werden auch immer aufgeblasener, alles voller Bilder, voller Videos, voller Multimediakram. In der Frühzeit der Web-Technik haben wir uns noch Sorgen gemacht, ob man es verantworten könnte, in eine Webseite so ein kleines Bildchen von 256 Pixel Breite einzubauen. Die Datenmengen. Der Speicher. Die Dauer des Bildaufbaus. Mehr als zwei Bilder auf einer Webseite galt als Affront gegen den Besucher der Seite.
Heute: Vollgedonnert.
Ein anderer Grund, besonders bei mir, ist aber, dass ich heute vieles virtualisiere, was ich früher auf getrennten Rechnern habe laufen lassen. Vieles, wofür ich früher in mein Heimnetz musste, habe ich – zumindest pro forma und wenigstens zum Entwickeln oder bei Bedarf – längst auf jedem Rechner mit dabei, um es in LXD oder docker als virtuellen Server oder Prozess laufen zu lassen. Was früher auf mehrere Computer verteilt war, habe ich heute im Rechner bei mir dabei. Oder betreibe die Entwicklungsarbeit für irgendwelche Serverinstallationen auf einem virtuellen Server.
Und so fair muss man dann auch schon sein, wenn man die Funktion mehrerer Rechner von früher durch Virtualisierung in einen Rechner zusammenpackt, man dann den Speicherbedarf von heute nicht mit einem Rechner von damals vergleicht, sondern mit allen, die man dadurch ersetzt.
Als ich als Administrator an der Uni angefangen habe, hatten wir im Institut – Linux gab es damals noch nicht – ein Cluster aus wirklich verdammt teuren Sun 3 Workstations, die noch einen Prozessor der 68000er-Reihe hatten (68020, wenn ich mich jetzt richtig erinnere) und, da bin ich mir jetzt nicht mehr sicher, sowas um die 4, 8 oder 16 MB (MB, nicht GB!) RAM hatten. Ja, kann hinkommen. Sun 3/50 war der Desktop-Klassiker. Nicht mal Festplatten. Und einen zentralen Server mit zwei Festplatten zu je 600MB (5 1/4-Zoll-Festplatten, so richtig große Brocken), die sämtliche Daten speicherten. Später dann durch Sun 4 mit Sparc-Prozessor ersetzt.
Ein einzelner Raspberry Pi von heute für 70 Euro würde den ganzen Laden von damals in jeder Hinsicht locker abhängen. Gibt’s bis 8GB RAM, das Tausendfache (wenn gerade mal erhältlich), auch von der Frequenz (unter Berücksichtigung der Zahl der Kerne) das rund Tausendfache, Speicherkapazität gerne mal 64 GB auf einer Billig-SSD-Karte im 10-Euro-Bereich, also das ungefähr 50.000-Fache, und trotzdem kann man daraus nicht folgern, dass der Bedarf durch schlechte Software aufgebläht wäre. weil man damit eben ganz andere Dinge macht. Das Ding kann Bilder anzeigen oder Videos abspielen, was alle unsere Sun-Workstations von damals, und damals immerhin am oberen Ende dessen, was zu kriegen war, konnten.
Meine erste Digitalkamera habe ich 1999 auf einer Reise eingesetzt. Das war eine 1-Megapixel-Kamera, und weil Speicher so teuer war, musste ich mir noch sehr überlegen, was mir ein Foto wert war, und meist noch auf 0,25-Megapixel runterschalten. Heute trage ich Kameras mit 20, 40 oder mehr Megapixeln herum, schon im Handy, kann sogar Videos aufnehmen in 4K, und der verfügbare Speicher begrenzt mich nicht. Im Bordgepäck im Flieger, sogar im Handy habe ich mehr Speicherkapazität als ein ganzes Rechenzentrum vor 20 Jahren. Aber nicht, weil die Software so schlecht geworden ist, sondern weil ich jede Menge Fotos, Videos, Podcasts speichere. Mein Speicherbedarf wächst immer mehr, aber ich habe festgestellt, dass eine Art Not-Backup, in dem ich alles außer Videos speichere, immer noch eine überschaubare Größe hat, obwohl auch Musik und PDF-Dateien heute viel Platz einnehmen.
Und das muss man fairerweise einfach berücksichtigen, dass wir heute ganz andere Sachen machen als damals.
Wer hätte geglaubt, dass man heute auf dem Handy Kinofilme speichern und ansehen kann? Hunderte sogar. Und das noch in höherer Auflösung als die Kinos damals waren? Mehrsprachig?
Dass Leute heute Dokumentationssendungen ohne mit der Wimper zu zucken als Mail-Anhang verschicken?