Cranvil
Anmeldungsdatum: 9. März 2019
Beiträge: 990
|
Frieder108 schrieb: ah ok, dann hatte ich das falsch eingeschätzt - irgendwie so ala 1000 GiB = 1024 GB.
Da ich gerade nichts anderes finde, wo ich drauf antworten könnte, nehme ich doch den Aspekt mal heraus. ☺ Du gehst bei der Berechnung ja auch über die darunter liegenden Ebenen, sodass
Wenn der Festplattenhersteller also einen Datenträger mit 1 TB verkauft, hat der Kunde vom Start weg und ohne Abzug von Overhead durch Dateisystemmetadaten 10% weniger als das ggf. erwartete Volumen bereitstehen. Und das alles nur, weil sich über Jahrzehnte keiner damit beschäftigt hatte, dass SI-Einheiten-Präfixe besser nicht ohne weiteres für die eigenen Bezeichnungen hergenommen werden sollten.
|
ChickenLipsRfun2eat
Anmeldungsdatum: 6. Dezember 2009
Beiträge: 12067
|
Was hat denn nun die Diskussion über GiB/GB mit Ubuntu oder Linux zu tun? Das ist ja auf allen Systemen so.
|
Frieder108
Anmeldungsdatum: 7. März 2010
Beiträge: 8989
|
ChickenLipsRfun2eat schrieb: Was hat denn nun die Diskussion über GiB/GB mit Ubuntu oder Linux zu tun?
naja, weil ja Ubuntu scheinbar doof ist und nicht rechnen kann. 😇
Das ist ja auf allen Systemen so.
Ich kenn zwar nicht alle Systeme, glaube dir deine Aussage aber mal ungeprüft. 😛 Cranvil schrieb:
wow, ok, das ist natürlich heftig, doch so viel. 🙄
|
tomtomtom
Supporter
Anmeldungsdatum: 22. August 2008
Beiträge: 53484
Wohnort: Berlin
|
Frieder108 schrieb: Ich kenn zwar nicht alle Systeme, glaube dir deine Aussage aber mal ungeprüft. 😛
Die Aufgabe der Maintainer ist es, ein Distributionskonformes Paket aus den Softwarequellen zu bauen, nicht am Quellcode zu basteln (das wiederum ist die Aufgabe der Entwickler der Vanilla-Software). Du kannst also schwer davon ausgehen, dass z. B. GNU Parted unter Slackware die selben Einheiten verwendet wie unter openSUSE, Fedora, Debian, Ubuntu....
|
ChickenLipsRfun2eat
Anmeldungsdatum: 6. Dezember 2009
Beiträge: 12067
|
Frieder108 schrieb: naja, weil ja Ubuntu scheinbar doof ist und nicht rechnen kann. 😇
Ubuntu kann nicht rechnen, das stimmt. Aber ich möchte jetzt nicht kleinkariert damit werden 😀 Aber siehe Binärpräfix (nicht gerade aktuell, aber Stand vor 10 Jahren reicht ja)
|
Gottfried_S
Anmeldungsdatum: 10. Oktober 2009
Beiträge: 24
|
Frieder108 schrieb: Interessant wär für mich eher die Frage, wie es zu den gewaltigen Unterschieden (ca. 70, bzw. 50 GB ) in den Abfragen kommt, mit GB oder GiB hat das ja nichts mehr zu tun.
Die 650GB ist die Partitionsgröße Die 605.4G ist womöglich die Menge an Daten, die du auf die Platte schreiben kannst (Abzug der Filetables, Verzeichnis Struktur und der 5-10% Speicher für root)
|
Gottfried_S
Anmeldungsdatum: 10. Oktober 2009
Beiträge: 24
|
tomtomtom schrieb: Frieder108 schrieb: Ich kenn zwar nicht alle Systeme, glaube dir deine Aussage aber mal ungeprüft. 😛
Die Aufgabe der Maintainer ist es, ein Distributionskonformes Paket aus den Softwarequellen zu bauen, nicht am Quellcode zu basteln (das wiederum ist die Aufgabe der Entwickler der Vanilla-Software). Du kannst also schwer davon ausgehen, dass z. B. GNU Parted unter Slackware die selben Einheiten verwendet wie unter openSUSE, Fedora, Debian, Ubuntu....
Das GNU Parted scheint nicht von dem GiB infiziert zu sein, da es ja GB oder G schreibt. Die Software wird zwar nicht geändert, aber die Übersetzungen werden mit den i verseucht. Bei Debian, welches Ubuntu als Ursprung hat, hat auch bei der deutschen Version viel weniger GiB als das Ubuntu.
Auch CentOS verwendet nicht diese Bezeichnungen, sonder kB, GB usw. Bei Microsoft wird auch KB, GB usw. verwendet, obwohl sie auch Leute in bei den Normungsstellen haben. Es wurde ja schon in den 90er in eine Norm gepackt. Da wollten sich nur einige wenige wichtig machen, oder warum hat man nicht die anderen Bezeichnungen geändert, wie kdg = Kilodezigramm. Aber was soll das Kibibyte, wofür steht das bi, womöglich für Binär? Aber warum machte man nicht ein kBi (i sollte tiefergestellt sein) das würde mehr Sinn ergeben, ist aber schwer mit textbasierten Terminals darzustellen.
Das mit kB war schon seit den 70er mit 1024 Bytes so. Gleiches gilt ja auch für Unicode, da sitzen nur ein paar Leute und entscheiden, was für Schriftsätze zur Norm kommt. Am Anfang war es ja super, da man sich nicht mehr mit Codepages herumärgern muss, aber jetzt hat es Ausmaße erreicht, was keinen Sinn mehr ergibt. Es kommen derzeit jedes Jahr unzählige Schriftarten dazu, welche weder geschrieben, noch gesprochen werden. Das mit den Hieroglyphen wurde nicht mal geprüft, als es dem Standard hinzugefügt wurde. Aber wir könnten jetzt die Diskusion in Hieroglyphisch, Schnapskarten, Runen, Domino, Mah-Jongg, Schachfiguren, Smileys oder Miao fortsetzen. Aber nicht in Klingonisch, Tengwar oder Cirth.
Wenn man nun ein Embedded Gerät hat wie z.B Raspberry Pi, kann man sich schon mal ausrechnen, wieviel sinnloser Platz nur für die Schriften werdendet wird.
Und das zu Zeiten von pdf und Open-Document-Format, wo Schriftzeichen in das Dokument eingebettet werden kann.
|
black_tencate
Anmeldungsdatum: 27. März 2007
Beiträge: 10955
|
Hej Gottfried_S, Gottfried_S schrieb: ...Bei Debian, welches Ubuntu als Ursprung hat
hä? Wer hat hier wen zum Ursprung? Deutsche Sprache schwere Sprache. Gruß black tencate
|
unbuntuS12
Anmeldungsdatum: 2. Juni 2010
Beiträge: 1816
|
Gottfried_S schrieb: Da wollten sich nur einige wenige wichtig machen, oder warum hat man nicht die anderen Bezeichnungen geändert, wie kdg = Kilodezigramm. Aber was soll das Kibibyte, wofür steht das bi, womöglich für Binär? Aber warum machte man nicht ein kBi (i sollte tiefergestellt sein) das würde mehr Sinn ergeben, ist aber schwer mit textbasierten Terminals darzustellen.
Das mit kB war schon seit den 70er mit 1024 Bytes so.
ChickenLipsRfun2eat schrieb: Aber siehe Binärpräfix (nicht gerade aktuell, aber Stand vor 10 Jahren reicht ja)
Weniger spekulieren, mehr lesen!
|
Cranvil
Anmeldungsdatum: 9. März 2019
Beiträge: 990
|
Gottfried_S schrieb: Da wollten sich nur einige wenige wichtig machen, oder warum hat man nicht die anderen Bezeichnungen geändert, wie kdg = Kilodezigramm.
Kilo und Dezi sind beides Präfixe, die einen Faktor für die eigentliche Einheit (hier die Basis Gramm) darstellen. Dein Beispiel bedeutet so viel wie eintausend zehntel Gramm. Wenn man es denn so haben möchte, wäre das Hektogramm eine sinnvollere Einheitenidee - vergleichbar mit dem Hektoliter.
Aber was soll das Kibibyte, wofür steht das bi, womöglich für Binär? Aber warum machte man nicht ein kBi (i sollte tiefergestellt sein) das würde mehr Sinn ergeben, ist aber schwer mit textbasierten Terminals darzustellen.
Es bietet sich an, ein Präfix, das eine Potenz auf der Basis 2 darstellen soll, auch entsprechend zu nennen. Alternativ hätten sie hinter das Ki auch "Frischer Blumenkohl" hängen können. Und was soll die Verlegung des i ans Ende bringen? Die Basiseinheit ist das Byte (B) und danach kommen höchstens noch y, t oder e in Frage.
Das mit kB war schon seit den 70er mit 1024 Bytes so.
Ich habe mangels Existenz zu den 70ern keine nennenswerten Erfahrungen sammeln können. Allerdings weiß ich rein zufällig, dass die Differenz zwischen der Anwendung einer Skalierung basierend auf Zehnerpotenzen und einer auf Zweierpotenzen so gering ausfällt, dass es nichts ausmacht. Zusätzlich gab es nicht Millionen von Konsumenten, die hiervon nicht wussten sowie keine z.B. Festplattenhersteller, die daraus Profit schlugen (die Kunden erwarteten die größere Zahl an Bytes, aber wegen der ungenauen Präfixe konnten rechtmäßig die kleineren Mengen verkauft werden).
Wenn man nun ein Embedded Gerät hat wie z.B Raspberry Pi, kann man sich schon mal ausrechnen, wieviel sinnloser Platz nur für die Schriften werdendet wird.
Ich mag Beispiele, in denen vorgerechnet wird, wie oft dieselben Inhalte übers Netzwerk übertragen werden müssen, da hier tatsächlich die Möglichkeit besteht, durch entsprechende Einsparungen viel gutes zu tun. Wenn ich aber mal überlege, wie viel Platz ich als Serverbetreiber für Nutzdaten über die Laufzeit eines Systems bereithalten muss und das ins Verhältnis zu den Schriftarten setze, ist der Bedarf so marginal, dass er in den Rundungsdifferenzen untergeht.
Und das zu Zeiten von pdf und Open-Document-Format, wo Schriftzeichen in das Dokument eingebettet werden kann.
Du sprichst hier von zwei unterschiedlichen Dingen.
|
stoertebekker
Anmeldungsdatum: 31. Oktober 2008
Beiträge: 19
|
Hallo, vor einigen Monaten nach Jahren mal wieder ein Linux (Ubuntu, aktuelle Langzeitversion) installiert just for fun auf einer kleinen 2,5 Platte für einen alten Lenovo 3000 Serie N200 Laptop von 2005. Schiebe die ab und zu mal rein. Habe den Arbeitsspeicher letztjährig von 2 auf 4 GB erweitert. Was sowohl WIN10 wie Ubuntu anzeigen aber es so richtig ausschöpfen tun sie beide nicht, egal. Schon beeindruckend wie akzeptabel WIN10 Prof mit dem Winzspeicher und einem Celeron 510 damit läuft. Habe auf dem Gerät die ganze Evolutionsphase mitgemacht für WIN10, dafür gabs die Prof gratis. Bis heute ohne Neuinstallation, nur auf eine größere Platte gespiegelt. Ohne Probleme, booten Lizenzabfrage usw. Ubuntu im Vergleich zu früher (gleicher Rechner) braucht lange zum starten, abmelden, anmelden und ausschalten. Egal, zum Thema. Mir fiel dann im Home Ordner dieser snap Ordner auf. Heute beim basteln aus Langeweile schaue ich mal in die Systemüberwachung und da fällt auf: Unter "Dateisysteme": /etc/nsswitch.conf, /etc/ssl und alles unter /var/lib/snapd/hostfs/ ist zu 100% bis zur definierten Höchstgröße ausgelastet. 0 Bytes sind frei. Hier gerade erfahren was snap ist. Ein Grund mehr Linux zu meiden. Daten Sicherheit in meinem Sinne? Eher nicht. Darum nur noch installiert auf einer kleinen internen Platte. Und ALLE Nutzdaten abgespeichert auf externen Trägern formatiert mit NTFS. Wie viele Dateisysteme gabs für Linux in den letzten Jahrzehnten die alle wieder verschwanden, aus gutem Grund. Übrig bleibt das gute alte ext4.. Gnome3 und Wayland (nach wieviel Jahren?) immer noch nicht am Ziel bzw. ewige Baustellen, siehe BER. Kompetenz geht anders. Das für mich beste Ubuntu gab es 2011, die Frühjahrsausgabe. Mein bestes Linux überhaupt war im 1. Jahrzehnt eine 6monatige Evolution des damaligen NOVELL Enterprise Linux. Die hatten bewußt einen mehrere Jahre alten Kernel (ausgereift) verwendet der alles konnte was ich brauchte. Die Anforderungen blieben bis zum Ende meiner Linuxzeit gleich hatte jedoch zunehmende Probleme durch die "Weiterentwicklung".
Und Sicherheit? Vielleicht keine Viren etc. Dafür über die Jahre 2 zerschossene BIOS mit Totalverlust. Braucht kein Mensch.
Moderiert von sebix: An bestehenden Thread zum Thema angehaengt.
|
tomtomtom
Supporter
Anmeldungsdatum: 22. August 2008
Beiträge: 53484
Wohnort: Berlin
|
stoertebekker schrieb: Ubuntu im Vergleich zu früher (gleicher Rechner) braucht lange zum starten, abmelden, anmelden und ausschalten.
Echt? Aktuelle Software läuft auf älterer Hardware langsamer als alte Software? Skandal! da fällt auf: Unter "Dateisysteme": /etc/nsswitch.conf, /etc/ssl und alles unter /var/lib/snapd/hostfs/ ist zu 100% bis zur definierten Höchstgröße ausgelastet. 0 Bytes sind frei.
Dir ist klar, was ein Loopdevice ist? Das kann schlecht mit weniger als 100% angebunden werden, weil es nur so groß ist wie sein Inhalt. Wie viele Dateisysteme gabs für Linux in den letzten Jahrzehnten die alle wieder verschwanden, aus gutem Grund.
Das war dann eines. Der gute Grund war, dass dessen Entwickler seine Frau ermordete und sich im Gefängnis wohl schlecht weiter daran arbeiten ließ. Der Rest ist )mm(
|
voxxell99
Anmeldungsdatum: 23. September 2009
Beiträge: 3901
Wohnort: da, wo andere Urlaub machen. :)
|
tomtomtom schrieb: Das war dann eines. Der gute Grund war, dass dessen Entwickler seine Frau ermordete und sich im Gefängnis wohl schlecht weiter daran arbeiten ließ. Der Rest ist )mm(
Hans_Reiser_(Informatiker)
|
stoertebekker
Anmeldungsdatum: 31. Oktober 2008
Beiträge: 19
|
Ooii, jetzt habe ich sie aber geweckt die Experten. Die gerade installierte SLE 15 (in Gedenken an die selige Novell Enterprise, welche allerdings vor dem Aufkauf von Suse geschrieben wurde) flutscht wie gelutscht. Profiware halt, kein Gemurkse.Und wie bereits bemerkt: WIN10 Prof tuts auch recht flott auf dem Schätzchen. Die Geschichte der getöteten Ehefrau klingt doch sehr nach Theke. Dann mal Prost..
|
Seebär
Anmeldungsdatum: 2. Mai 2009
Beiträge: 829
|
stoertebekker schrieb: Die Geschichte der getöteten Ehefrau klingt doch sehr nach Theke.
Der Qualität deiner Ausführungen folgenden stehst Du da gerade.
Dann mal Prost..
Klar, zieh dir noch einen. Wie gelutscht.
Profiware halt, kein Gemurkse.
Dann ist die Software doch gar nicht für Dich. Wir halten fest:
Da gab es doch einen Begriff dafür. Hhmm, toll, fällt mir jetzt nicht ein.
|