ubuntuusers.de

Warum wurde Xubuntu so fett?

Status: Gelöst | Ubuntu-Version: Xubuntu 24.04 (Noble Numbat)
Antworten |

tomtomtom Team-Icon

Supporter
Avatar von tomtomtom

Anmeldungsdatum:
22. August 2008

Beiträge: 55208

Wohnort: Berlin

noisefloor schrieb:

@tomtomtom: du hast Upstart vergessen.

Da hadda Recht.

noisefloor Team-Icon

Anmeldungsdatum:
6. Juni 2006

Beiträge: 29567

Hallo,

wobei man Upstart ja zugute halten muss, dass es das 1. System war, was im größeren Maßstab (= alle *buntu) zum Einsatz kam, um das stark angestaubte SysV-Init System zu ersetzen. Und man kann auch spekulieren, ob ohne Upstart systemd zu der Zeit in der Form entwickelt worden wäre. AFAIR wäre Debian fast auf Upstart gewechselt, hat sich dann aber für systemd entschieden - hätten die sich anders entschieden, wäre die Situation heute vielleicht anders. Wobei IMHO systemd das bessere System ist. Wobei systemd sich ja auch nicht zu 100% durchgesetzt hat. Es soll gerüchteweise immer noch Leute gaben, auch nach 10 Jahren systemd, die Cron Jobs statt systemd Timer Units benutzen. Na ja, Fortschritt und Teile der Linux-Community sind halt leider stark gegenpolig. Wenigsten das hat Konstanz in der Linux Community.

Gruß, noisefloor

konbra

(Themenstarter)

Anmeldungsdatum:
3. Dezember 2010

Beiträge: 23

noisefloor schrieb:

Das Problem ist, je fetter ein System ist umso schwieriger ist es zu verstehen.

Wenn es danach geht, dann ist doch kein Betriebssystem seit min 20 Jahren mehr zu verstehen...

Das ist falsch. Richtig ist:

Ein Einzelner kann kein Betriebssystem seit min 20 Jahren mehr verstehen.

Aber ein Einzelner kann einen (sehr) begrenzten Teil davon verstehen.

Wenn also ausreichend viele Individuen oder Gruppen sich begrenzte Teile davon vornehmen, können auch größere Systeme verstanden werden. Vorausgesetzt der Quellcode liegt vor und der Binärcode kann mit dem Quellcode verifiziert werden.

Siehe:https://www.danisch.de/blog/2024/03/31/it-sicherheitskatastrophe-durch-code-of-conduct/

wxpte

Anmeldungsdatum:
20. Januar 2007

Beiträge: 1388

noisefloor schrieb:

Es soll gerüchteweise immer noch Leute gaben, auch nach 10 Jahren systemd, die Cron Jobs statt systemd Timer Units benutzen. Na ja, Fortschritt und Teile der Linux-Community sind halt leider stark gegenpolig.

Das ist ja eigentlich auch nachvollziehbar. Wer über Jahrzehnte hinweg seine zeitgesteuerten Skripte über Cron Jobs hat laufen lassen, der wird das Systen nicht bloß deswegen umstellen, weil es jetzt schicke neue Timer Units gibt. Besonders, wenn es nur darum geht, ganz primitive Skripte zu bestimmten Zeiten laufen zu lassen, dann ist die Crontab immer noch ein bisschen einfacher zu handhaben: es wird die Zeile mit dem Zeitrhythmus und dem Skriptpfad in die Crontab geworfen, und das war's.

Dagegen muss man sich bei den Timer Units Gedanken darüber machen, wie die jeweilige .service-Datei und .timer-Datei heißen soll, von welchem Typ der Service ist und welche Umgebung benötigt wird. Auch wenn jeder dieser Gedanken höchstens eine Sekunde dauert, so wird am Ende die Faulheit siegen, solange alles rund läuft.

Wenn man allerdings bei einem Cron Job einen Workaround benötigt hat, und beim Ausprobieren der Timer Units feststellt, dass es auch ohne Workaround geht, dann ist man relativ schnell von Crontab, Autostart und Gedöns weg.

san04

Anmeldungsdatum:
19. Januar 2010

Beiträge: 1247

Frieder108 schrieb:

dann gibt es im Grunde nur 4 Distris, die es sich lohnt anzuschauen → Debian, Fedora, Suse und Arch - alles andere ist "Kindergarten". 😉

Alpine Linux 😎

Gerade wenn es was kleines, leichtes sein soll.

Und die haben ohne systemd und ohne glibc vermutlich nur müde gelacht, als die xz-backdoor gefunden wurde.

Yabba-Dabba-Doo

Anmeldungsdatum:
7. Januar 2015

Beiträge: 445

konbra

Ein Einzelner kann kein Betriebssystem seit min 20 Jahren mehr verstehen.

Aber ein Einzelner kann einen (sehr) begrenzten Teil davon verstehen.

Wenn also ausreichend viele Individuen oder Gruppen sich begrenzte Teile davon vornehmen, können auch größere Systeme verstanden werden. Vorausgesetzt der Quellcode liegt vor und der Binärcode kann mit dem Quellcode verifiziert werden.

Dies ist definitiv falsch!

Das Problem ist die sog. "Emergenz", dass aus einfachen und Bedingungen hochkomplexe Ergebnisse herauskommen, die nirgends in den Ursprungsbedingungen vorhanden sind oder wie Aristoteles sagt "Das Ganze ist mehr als die Summe seiner Teile."

Siehe auch "Conways Spiel des Lebens"

Emergenz

Dieser Artikel behandelt die Systemeigenschaft – zu anderen Bedeutungen siehe Emergenz (Begriffsklärung).

Emergenz (lateinisch emergere „Auftauchen“, „Herauskommen“, „Emporsteigen“) bezeichnet die Möglichkeit der Herausbildung von neuen Eigenschaften (Systemeigenschaften) oder Strukturen eines Systems infolge des Zusammenspiels seiner Elemente.

Dabei lassen sich die emergenten Eigenschaften des Systems nicht – oder jedenfalls nicht offensichtlich – auf Eigenschaften der Elemente zurückführen, die diese isoliert aufweisen. So wird in der Philosophie des Geistes von einigen Philosophen die Meinung vertreten, dass das Bewusstsein eine emergente Eigenschaft des Gehirns sei. Emergente Phänomene werden jedoch auch in der Physik, Chemie, Biologie, Mathematik, Psychologie oder Soziologie beschrieben. Synonyme sind Übersummativität und Fulguration. Analog zur Emergenz spricht man bei der Eliminierung von Eigenschaften von Submergenz.

https://de.wikipedia.org/wiki/Emergenz

Das Ganze ist mehr als die Summe seiner Teile." - verkürztes Zitat aus Metaphysik VII 17, 1041b

Ausführlicher: "Das, was aus Bestandteilen so zusammengesetzt ist, dass es ein einheitliches Ganzes bildet – nicht nach Art eines Haufens, sondern wie eine Silbe –, das ist offenbar mehr als bloß die Summe seiner Bestandteile. Eine Silbe ist nicht die Summe ihrer Laute: ba ist nicht dasselbe wie b plus a, und Fleisch ist nicht dasselbe wie Feuer plus Erde."

https://de.wikiquote.org/wiki/Aristoteles

Conways Spiel des Lebens https://de.wikipedia.org/wiki/Conways_Spiel_des_Lebens

konbra

(Themenstarter)

Anmeldungsdatum:
3. Dezember 2010

Beiträge: 23

Yabba-Dabba-Doo schrieb:

konbra

Ein Einzelner kann kein Betriebssystem seit min 20 Jahren mehr verstehen.

Aber ein Einzelner kann einen (sehr) begrenzten Teil davon verstehen.

Wenn also ausreichend viele Individuen oder Gruppen sich begrenzte Teile davon vornehmen, können auch größere Systeme verstanden werden. Vorausgesetzt der Quellcode liegt vor und der Binärcode kann mit dem Quellcode verifiziert werden.

Dies ist definitiv falsch!

Was ist definitiv falsch? Meine erste Aussage (somit Beide):

Aber ein Einzelner kann einen (sehr) begrenzten Teil davon verstehen.

Oder nur die Zweite:

Wenn also ausreichend viele Individuen oder Gruppen sich begrenzte Teile davon vornehmen, können auch größere Systeme verstanden werden. Vorausgesetzt der Quellcode liegt vor und der Binärcode kann mit dem Quellcode verifiziert werden.

Ich habe weder Informatik noch Philosophie noch Geschichte studiert, kann weder griechisch noch Latein und werde schon gar keine 2000 Jahre Toten zitieren.

Mit diesem Nebensatz

aus einfachen und Bedingungen hochkomplexe Ergebnisse herauskommen, die nirgends in den Ursprungsbedingungen vorhanden sind

stimmt etwas nicht. Da fehlt etwas und die Schlussfolgerung ergibt keinen Sinn.

Ich behaupte auch nicht, dass man genügend gute Leute finden kann und man genug Zeit hat ein ganzes Betriebssystem zu verstehen. Vor allem da sie ständig weiterentwickelt werden und die Voraussetzung:

der Quellcode liegt vor und der Binärcode kann mit dem Quellcode verifiziert werden

nicht erfüllt ist.

Aber ich behaupte zusätzliche 800+ MB Code erschweren es massiv, ein System zu verstehen.

HaCeMei Team-Icon

Anmeldungsdatum:
2. August 2010

Beiträge: 2265

konbra schrieb:

Aber ich behaupte zusätzliche 800+ MB Code erschweren es massiv, ein System zu verstehen.

Bin auch kein Experte, und ich habe nicht viel für snap übrig, aber das größere Volumen ergibt sich nicht daraus, dass wirklich mehr Code zugrunde liegt und kontrolliert werden müsste. Das System bläht sich auf, weil das Prinzip der Paktetverwaltung aufgegeben bzw. umgangen wird. Jedes Programm wird mit allen seinen Abhängigkeiten installiert, damit kommen dann viele Pakete mehrfach auf die Platte. Dass jemand den Quellcode "mitliest" geschieht aber (hoffentlich) früher, also "näher an der Quelle". Wenn er dort in Ordnung ist, kann er stromabwärts ruhig mehrfach kopiert werden. Das - für sich - ist eigentlich kein Sicherheitsproblem.

konbra

(Themenstarter)

Anmeldungsdatum:
3. Dezember 2010

Beiträge: 23

HaCeMei schrieb:

das größere Volumen ergibt sich nicht daraus, dass wirklich mehr Code zugrunde liegt und kontrolliert werden müsste. Das System bläht sich auf... dann viele Pakete mehrfach auf die Platte.

Ich gebe dir recht, der Code der dem größerem Volumen zu Grunde liegt, ist nicht proportional zum Fett.

Aber viele Pakete liegen nicht in der exakt gleichen Version in den Snaps (soweit ich es verstanden habe). Und viele Snaps haben Zugang nach Außen (Internet).

Wer stellt sicher, dass dort keine Backdoors eingebaut werden oder Code nachgeladen wird.

Da die Komplexität des Gesamtsystems überproportional (exponentiell?) steigt (vielleicht hat Yabba-Dabba-Doo das gemeint), ist, meiner Meinung nach, unnötiges Aufblähen des Gesamtsystems unbedingt zu vermeiden.

Yabba-Dabba-Doo

Anmeldungsdatum:
7. Januar 2015

Beiträge: 445

konbra

Was ist definitiv falsch? Meine erste Aussage (somit Beide):

Aber ein Einzelner kann einen (sehr) begrenzten Teil davon verstehen.

Oder nur die Zweite:

Wenn also ausreichend viele Individuen oder Gruppen sich begrenzte Teile davon vornehmen, können auch größere Systeme verstanden werden.

Nein, dies ist ein Denkfehler, da ein System gänzlich andere Eigenschaften hat, als wenn man nur die Einzelteile betrachtet.

Nimm von mir aus mal ein altes Radio, das noch funktioniert, zerlege es in seine Einzelteile und warte darauf, bis Musik herauskommt, da wirst lange darauf warten können.

Man sollte nicht den Fehler machen und meinen man könnte einfach die Eigenschaften der Einzelteile aufsummieren und hätte dann die Systemeigenschaften, das ist falsch. Deshalb können auch nicht durch eine Vielzahl an Einzelbetrachtungen die Systemeigenschaften verstanden werden.

Emergenz Kim Hermann 10.02.2022

Ein riesiger Vogelschwarm formt ein Muster am dämmernden Himmel.

Henk Bogaard/iStock

„Das Ganze ist mehr als die Summe seiner Teile“, so ähnlich formulierte es Aristoteles vor mehr als 2000 Jahren. Denn sobald mehrere „Teile“ zusammenwirken – von Atomen, über Vögel bis hin zu Sternen –, lassen sich manchmal Eigenschaften beobachten, die ein einzelnes Teil nicht hätte. Wie solche emergenten Phänomene entstehen und welche Rolle sie in der Physik spielen, berichtet Manfred Salmhofer von der Universität Heidelberg in dieser Folge des Podcasts.

https://www.weltderphysik.de/mediathek/podcast/emergenz/

Sieh hierzu auch

Infinite-Monkey-Theorem https://de.wikipedia.org/wiki/Infinite-Monkey-Theorem

Wie dumme Einzelteile zusammen intelligent werden - Emergenz https://www.youtube.com/watch?v=pb4YoMjcYM4

konbra

(Themenstarter)

Anmeldungsdatum:
3. Dezember 2010

Beiträge: 23

Yabba-Dabba-Doo schrieb:

Ein riesiger Vogelschwarm formt ein Muster am dämmernden Himmel.

Das hat mich jetzt überzeugt. Du hast recht.

Antworten |