Linux-Software-Qualität sinkend
Es ist zum Haare-Ausraufen, was da in letzter Zeit an Desktop-Mist produziert wird.
Nun hab ich ja in letzter Zeit schon öfters böse Blog-Artikel darüber geschrieben, daß im Linux-Bereich die Software-Qualität steil abnimmt, und da immer mehr Spinner absurde Ansichten durchdrücken, und – entgegen landläufiger Meinung – eine Jugend nachdrückt, die keineswegs besser programmieren kann und „digital natives”, sondern höchstens „digital naives” sind.
Gerade heute schrieb mir jemand, daß er Ärger mit Akonadi hatte – und sich wunderte, daß ich dieselben Probleme schon vor fast zwei Jahren beschrieben hatte. Die „Linux-Gemeinde” ist – vor allem im Desktop-Bereich, der sich immer mehr der Windows-Sicht annähert – inzwischen weitgehend beratungsresistent, ignorant und ideologielastig geworden. Ich erinnere mich noch daran, wie ich sogar von der Kernel-Entwicklertruppe angeraunzt wurde, weil ich Probleme mit gesetzten Zugriffsrechten angesprochen habe. Am schlimmsten sind aber wirklich die Leute, die an den Desktops arbeiten. Da bin ich schon mal mit Hinweisen auf fehlende Hooks zum Verbindungsabbau abgeprallt. Der Autor des Network-Managers meinte, der Rechner müsse ja auch klarkommen, wenn die Netzwerkverbindung plötzlich ausfällt. So gesehen dürfte man seinen Rechner erst gar nicht herunterfahren, sondern müßte einfach den Stecker ziehen und aus ist. Völlig hirnverbrannt.
Ein guter alter Kumpel von mir, ein überaus erfahrener und fähiger Sicherheits- und Netzwerkspezialist, hat auch mal in diesem Zusammenhang auf ein Problem hingewiesen und bekam als Antwort: „Das willst Du nicht!” Da bilden sich inzwischen ähnliche Effekte wie in der Wikipedia, wo die guten Leute rausgeekelt werden und sich eine ignorante Kerntruppe bildet, die ohne Rücksicht auf die Realität ihre Vorstellungen durchdrückt.
Mit dem stehe ich ja auf Kriegsfuß. Nicht weil ich das Konzept als solches ablehne. Ein zentrales System zur Nachrichtenverteilung über Änderungen, die den Rechner und den Desktop betreffen und eine vorher nicht bekannte Zahl von Programmen „interessiert” ist ja an sich eine gute Idee. Aber die Umsetzung ist absoluter Murks. Kaum bzw. nicht dokumentiert, und kaum zu debuggen. Ich hab ja schon mal echte Probleme gehabt, weil der Network-Manager nicht vernünftig lief, und nicht klar war, woher der überhaupt seine Konfiguration bekommt – bis sich herausstellte, daß er die über den D-Bus holt und das dann quasi gar nicht zu debuggen oder nachzustellen war. So darf ein Desktop oder überhaupt ein sicheres System einfach nicht aufgebaut sein. Das ist einfach ein immer größerer Murks.
Heute hatte ich da wieder so ein Schlüsselerlebnis.
Ich benutze Ubuntu. Liegt mir von allen Distributionen (noch) am nächsten. In den letzten 3 Tagen habe ich verschiedene Rechner auf die aktuelle 11.04 aktualisiert. Da wird ja als Standard-Desktop Unity vorgegeben. In mancherlei Hinsicht grausig und unfertig, aber man kann’s ja abschalten. Um auf dem Stand zu sein, hab ich es doch mal auf einem Rechner ausprobiert. Dies ging nicht, das ging nicht, jenes ging nicht. Lauter Fehler. Alles schon bekannte und gemeldete Bugs, an denen sie schon länger herumpuzzeln.
Bei einem Bug gab mir jemand den Hinweis, ich soll doch mal prüfen, ob das Paket libdconf0 installiert ist. War es nicht. Es zu installieren löste aber schlagartig alle diese Probleme.
Daß bei einem Systemupgrade mal was mit den Dependencies schief geht, ist Tagesgeschäft, das kann vorkommen.
Aber daß da mehrere Programme von einer Programmbibliothek abhängen, die für die Konfiguration von Software zuständig ist, und alle ohne jede Fehlermeldung laufen (nur eben nicht richtig funktionieren), obwohl bzw. weil da eine Bibliothek fehlt, und keiner merkt, was die Ursache des Problems ist, das ist eigentlich ein ziemliches Unding. Das ist keine zuverlässige oder vertrauenswürdige Software mehr. Das ist Bockmist.
Linux war vor 5 bis 10 Jahren deutlich stabiler, zuverlässiger und durchschaubarer, und damit auch beherrschbarer, als es das heute ist.
Die legen immer mehr Wert auf schöne Oberflächen und Schnickschnack, aber die Stabilität, Robustheit, Wartbarkeit fällt völlig hinten runter. Das wird so richtig schlecht.
11 Kommentare (RSS-Feed)
@usul
Nunja, die Alternativen sind gar nicht so groß: Murks bleibt Murks, ob unter SuSE, Ubuntu, Debian, RedHat, Fedora oder Gentoo.
Apropos alte Bugs:
Ich habe gerne RAID-Systeme in meinen und Kundensystemen laufen, sofern die Anforderungen nicht allzu hoch sind, auch Software-Raids. Seit einigen Releases, mindestens aber lucid lynx kann man das System nicht mehr out of the Box auf einem RAID1 installieren. Besser gesagt, installieren schon, aber es bootet nicht. Bei Systemen, die über mehrere Generationen (z.B. seit hardy heron) schon mit RAID1 laufen und dann auf den RAIDS frisch installiert wurden (ohne die RAIDs umzubauen), laufen einwandfrei. Das war für mich der Grund bei neuen Systemen wieder zu debian squeeze zu wechseln, trotz der Probleme, die man manchmal mit fehlender Firmware hat.
Ich benutze schon seit Jahren die Slackware Distribution und bin
damit eigentlich ganz zufrieden. Allerdings kann ich mir beim eigenen
Rechner leisten, nicht jedem Desktop hinterherzulaufen.
An sich ist auch klar, weshalb die Desktop-Linux Gemeinde viele
Dinge fortschreitend windowfiziert: man wollte ja explizit solche
Benutzer zu Linux hinführen, die es von sich aus nicht verwenden und
Windows vorziehen.
Mittlerweile beschleicht mich allerdings bei Ubuntu das Gefül, dass
nicht nur die Normalbenutzer, sondern auch Systemadministratoren
allmählich nur nur wissen, wie man per Mausklick administriert;
ich weiß nicht, ob diese vermeintliche Bequemlichkeit noch unangenehme
Folgen zeitigen wird.
meinen arbeitsrechner lasse ich so lange es geht auf 10.10 nachdem ich auf einem anderen rechner das 11.04 ausprobiert habe. das mistding hat schon beim ersten reboot abgekackt. seit dem habe ich es nicht mehr angefasst. vielleich schleicht sich ja der selbe zyklus wie bei ms ein: auf ein relativ stabieles betriebssystem folgt eine betaversion. ich werde vorläufig also noch warten mit der umstellung bis sich da was tut oder schaue mich nach einer anderen distribution um.
@hadmut
dürfen wir denn noch einmal an ein paar visuellen eindrücken aus deinem urlaub teilhaben?
Wird noch ne Weile dauern mit den Bildern. Haufen Arbeit.
Zudem habe ich gerade das Problem – Du glaubst es kaum – daß mein bevorzugtest Bildbearbeitungsprogramm Bibble5 in der aktuellen Version unter Ubuntu 11.04 gerade mal nicht startet.
Außerdem hab ich gerade keine ordentliche Software zum Bilder auf der Webseite präsentieren. Das will ich in mein geplantes neues Blog hübsch einbauen, weiß aber nicht, wie lange ich dafür brauche.
Fast 15 Jahre lang habe ich Linux auf meinem Desktop eingesetzt. Anfangs SuSE, später Debian, zwischendurch auch mal Red Hat, zuletzt fast nur noch Ubuntu. Heute benutze ich Windows 7 – und zwar ausschließlich.
Nicht nur werden Ubuntu und Co. immer mehr zu Betatestsuiten für Menschen ohne geregelten Tagesablauf, auch die Oberflächen fördern eher die Entstehung von Augenkrebs als dass man entspannt damit arbeiten könnte.
Ohne eine Grundsatzdiskussion zu “Windows vs. Linux” anzetteln zu wollen: Zumindest für den Desktop ist diese Entwicklung eigentlich schade.
11.04 …
Da bootete nach dem Upgrade erstmal mein Rechner nicht. Offenbar ändert der etwas und vergisst dann, die Grub-Konfiguration zu aktualisieren. Die Anleitung dazu ist offenbar auch falsch, nur /boot einhängen ist eher nicht üblich – man mountet das komplette System und lässt update-grub dann aus einer chroot-Umgebung laufen. Nachdem ich das erklärt bekommen hatte, lief es. Naja, einiges hakt noch, und ich hätte das System nicht in Hibernate versetzen und vor dem Aufwecken die Dateisysteme rw mounten sollen. Kernel 2.6.38 läuft auch nicht, warum, weiß ich nicht. 2.6.35 läuft aber. Und ich weiß jetzt, wie ich meine Dateisysteme von einer Boot-CD komplett manuell einhänge.
Dasselbe Problem trat auch bei mir und bei einem Kumpel auf.
Der neue Kernel bei Natty hat die Akkulaufzeit meines Laptops im Vergleich zu Maverick drastisch reduziert. Das macht dann irgendwie keinen Spaß mehr.
Vor einigen Tagen musste ich eine kleine Appliance zusammenstellen und habe dort einfach das kleine Debian Stable und XFCE genommen. Komplett installiert mit der Payload-Software ist das Ding so 900 MB groß. Und es ist verdammt schnell.
Von daher, wenn man die Zeit hat, mal die Alternativen anschauen. Nur ist das migrieren der Daten (Evolution KMail, Akkregator Liferea) immer was nervig …
@Usul
Ich glaube er meint den Networkmanager als Dienst und nicht die GUI (nm-applet/wicd/knetworkmanager).
Wenn dir nicht passt was da fabriziert wird, dann nimm dir Zeit für Slackware, Gentoo oder LFS und pass das deinen Anforderungen an. Dieses System kannst du auf jedes andere klatschen und entsprechend wieder neukompilieren, zumindest was Slackware und Gentoo angeht.
Das Gute an Linux ist doch, dass man dem zum Teil entgehen kann, indem man Alternativen wählt. Es muss nicht Ubuntu, Gnome und der NetworkManager sein. Ich bin zu meinem Teil mit Archlinux, XFCE und Wicd (als WLAN-Manager) zufrieden und habe da das Gefühl, dass genau diese Verschlimmbesserungen mir erspart bleiben. Gut, wenn beim Kernel was im Argen ist, nützt das relativ wenig, da dieser in er Regel bei allen Distributionen (fast) der gleiche ist, aber der Rest? Man hat doch die breite Auswahl. Bei Linux hat man sie, im Gegensatz zu Windows oder Mac z. B.