Benno-007
Anmeldungsdatum: 28. August 2007
Beiträge: 29240
Wohnort: Germany
|
Developer92 schrieb:
Beispiel; auf einer 500 GB Platte sind noch 100 GB frei, aber die 400 GB sind so kleinräumig verteilt, dass eben beispielsweise eine 20 GB Datei keinen Platz mehr hat. Daher ist es auch zwingend notwendig, wenn man zu Windows auf der gleichen Platte ein Linux dazuinstalliert, vorher eine Defragmentierung durchzuführen um einen zusammenhängenden Platz zu schaffen.
Bitte nicht…
Nicht defragmentieren vorm Verkleinern? Wieso nicht? Macht schon Sinn.
|
Developer92
Anmeldungsdatum: 31. Dezember 2008
Beiträge: 4101
|
Benno-007 schrieb: Nicht defragmentieren vorm Verkleinern? Wieso nicht? Macht schon Sinn.
Wenn man ein Dateisystem verkleinern will werden die Daten, die ausgerechnet da liegen, wo später eine andere Partition hin soll, sowieso woanders hin verschoben. Das wird so oder so gemacht, egal ob man das Dateisystem vorher defragmentiert oder nicht. Zudem betrifft eine Defragmentierung alle Daten auf einer Partition, beim Verkleinern sind aber lediglich die Daten relevant, die ausserhalb der neuen Partitionsgröße liegen. Für mich ist das lediglich Verschwendung von Zeit und Energie (sinnvoller wäre es sogar noch nach dem Verkleinern zu defragmentieren, wenn man unbedingt will. Aber auch das halte ich, wie bereits geschrieben, bei aktuellen Betriebssystemen für relativ sinnfrei [und auf Flashspeichern sowieso]).
|
Benno-007
Anmeldungsdatum: 28. August 2007
Beiträge: 29240
Wohnort: Germany
|
Bist du dir da sicher? Bisher hieß es eigentlich immer, sonst könne nicht verkleinert werden - oder es gäbe gar Fehler/ Verluste. Aber in der Praxis funktioniert es ja erstaunlich gut - wobei wohl "keiner" so extrem verkleinert, dass man an manche festgepinnte Win-Systemdateien rankommt...oder überhaupt zu sehr in den Bereich, wo Daten liegen, sondern eher den freien Bereich.
|
Developer92
Anmeldungsdatum: 31. Dezember 2008
Beiträge: 4101
|
Benno-007 schrieb: Bist du dir da sicher?
Ja und Nein ☺ Ich muss meinen vorherigen Beitrag nochmal stark überarbeiten, weil das ganze doch nicht so einfach ist wie ich das dargestellt habe. Also: Defragmentieren sagt nur aus, dass nicht zusammenhängende Daten soweit wie möglich zusammenhängend neu auf den Datenträger geschrieben werden. Defragmentieren an sich lässt allerdings erst einmal keine Rückschlüsse darauf ziehen, wie Daten auf dem Datenträger verteilt werden. Soweit die Definition. Besitzt ein Dateisystem keine Möglichkeit der Online-Verkleinerung kann tatsächlich nur soweit verkleinert werden, wie der letzte Datenblock auf der Partition vom Ende der Partition entfernt ist. Damit macht es für die Mehrheit der Dateisysteme (ext2/3/4, NTFS) Sinn alle Blöcke an den Anfang der Partition zu schieben bevor man verkleinert. Wirklich nötig ist das allerdings nur dann, wenn man ansonsten beim Verkleinern den letzten Datenblock erwischen würde. Prinzipiell wäre es hier auch möglich ein Werkzeug zu schreiben, welches in dem Falle das Dateisystem einhängt, die Daten an andere Stelle schiebt, die Partition wieder aushängt und anschließend verkleinert. Allerdings habe ich so etwas bisher noch nicht gesehen. Einen Datenverlust, weil man nicht defragmentiert hat oder zu viel der Partition wegnehmen möchte, hat man nicht zu befürchten. Die von mir verwendeten Werkzeuge (Windows integrierte Partitionierungstool, resize2fs sowie GParted) erlauben das Verkleinern einer Partition nicht, wenn hierbei Daten verloren gehen würden. Im Letzteren genannten Falle unter Windows muss man dann tatsächlich defragmentieren, denn eine Defragmentierung (unter Windows) defragmentiert Daten nicht nur, sondern schiebt diese auch näher an den Anfang der Partition. Das wird von Microsoft in diesem Falle auch empfohlen (und unter den neueren Systemen dann auch entsprechend angezeigt). Dateisysteme die eine Online-Verkleinerung unterstützen (etwa btrfs) haben mit den hier genannten Problemen nicht zwingend zu kämpfen. Hierbei hängt es dann vom Dateisystem ab, ob entsprechende Werkzeuge vorhanden sind. Bei btrfs etwa werden bei einer Verkleinerung alle Daten, die am Ende der Partition liegen und von der Verkleinerung betroffen sind, neu auf dem Datenträger verteilt. Anschließend wird die Partition entsprechend verkleinert. Dies ist auch das, was ich in meinem vorherigen Beitrag dargestellt habe, wenn auch fälschlicherweise für alle Dateisysteme 😇
|
rklm
Projektleitung
Anmeldungsdatum: 16. Oktober 2011
Beiträge: 12822
|
Es bleibt aber der Punkt, dass der Fragmentierungsgrad der Dateien auf dem Datenträger ein sehr unbedeutender Faktor in der wahrgenommenen Performance von Windows und Linux ist - entgegen dem, was Wibuntu schrieb. Das wird allein schon deutlich, wenn man ein Windows und ein Linux mit einer SSD vergleicht. Da es da keine physischen Bewegungen des Schreib-Lese-Kopfes gibt, ist es praktisch egal, wo Dateien liegen und wie sie verteilt sind. Trotzdem kann man deutliche Unterschiede bemerken, z.B. beim Herunterfahren. Ein sicherlich deutlich wichtigerer Faktor ist der auf vielen Windows-Systemen vorhandene Online-Virenscanner. Für den Rest müsste man die Interna besser kennen und mal messen, wo die Zeit so bleibt.
|
Benno-007
Anmeldungsdatum: 28. August 2007
Beiträge: 29240
Wohnort: Germany
|
Das ist auch nur die halbe Wahrheit: Bei SSDs brechen die Raten bei Random Read/ Write stark ein, wie man bei Benchmarks sehen kann. Zumindest bei USB-Sticks (Flash) für Linux habe ich da sehr genau hingeschaut, weil Programme und insbesondere auch das Entpacken von Updates das benötigen und die Performance von über 100 MByte/s auf unter 0,2 MByte/s einbricht - sogar auf guten Sticks, nachdem sie einmal benutzt und nicht mehr trimbar sind (unter Linux, weil USB, ioctl-Error). Übrigens stand dort im Testergebnis 2 MByte/s für Random Write, also wenn er noch neu ist. Selbst das ist nicht viel. Nun ist die Frage, wieviel Random in Fragmentierung steckt - und wieviel beim Entpacken von debs. Die Frage gehört dann aber nicht mehr ganz hier her und ist auch eher theoretischer Natur. Zweifelsohne sind SSDs hier deutlich besser als USB-Flashspeicher aufgestellt - der Hauptvorteil überhaupt, wenn man sie gegeneinander konkurrieren lässt, z.B. für mobile Systeme. Allerdings müsste man auch abwägen, dass man die SDD extern nicht oder nicht einfach trimmen kann.
|
rklm
Projektleitung
Anmeldungsdatum: 16. Oktober 2011
Beiträge: 12822
|
Benno-007 schrieb: Das ist auch nur die halbe Wahrheit: Bei SSDs brechen die Raten bei Random Read/ Write stark ein, wie man bei Benchmarks sehen kann.
Das ist aber nicht sehr relevant, denn es betrifft alle Betriebssysteme und taugt nicht dazu, die Fragestellung des Themas zu erklären.
|
Developer92
Anmeldungsdatum: 31. Dezember 2008
Beiträge: 4101
|
Benno-007 schrieb: Bei SSDs brechen die Raten bei Random Read/ Write stark ein, wie man bei Benchmarks sehen kann.
Das trifft auf alle zur Zeit gebräuchlichen Datenträger zu…
[…] und insbesondere auch das Entpacken von Updates das benötigen und die Performance von über 100 MByte/s auf unter 0,2 MByte/s einbricht
Das hängt stark vom Algorithmus ab. LZO, LZ4, Snappy und gzip etwa lassen sich sehr schnell dekomprimieren. Das zugrundeliegende Archivformat (in der Regel tar) sowieso (nunja, kein Kompressionalgorithmus, aber für mehr als eine Datei eben nötig). XZ/LZMA hingegen ist ein gutes Stück langsamer, und bzip2 ist wohl die Messlate wenn es um Langsamkeit geht. Abgesehen davon: Die mehrheitlich verwendeten Algorithmen sind Single-Threaded implementiert, d.h. es finden sowieso relativ wenige random read/write Zugriffe statt (abgesehen von dem, was der Algorithmus eben so verlangt). Manche Dateisysteme nutzen Kompression sogar, um Zugriffe zu beschleunigen (btrfs bietet diese Option). Manche Datenträger (SSDs…) implementieren Kompression ebenfalls. Insofern verwundert es mich etwas, wenn beim Entpacken von Updates die Schreibleistung dermaßen einbricht.
Nun ist die Frage, wieviel Random in Fragmentierung steckt […]
Sind die Algorithmen zur Allokierung nicht deterministisch? Insofern steckt da gar kein "Random" drin. Zumal auch nur dann fragmentiert wird/werden sollte, wenn es nötig ist, und nicht früher. Linux löst das hervorragend, Windows in den letzten paar Versionen (seit Vista?) auch. Zu anderen Betriebssystemen kann ich keine Aussage treffen.
Zweifelsohne sind SSDs hier deutlich besser als USB-Flashspeicher aufgestellt - der Hauptvorteil überhaupt, wenn man sie gegeneinander konkurrieren lässt, z.B. für mobile Systeme. Allerdings müsste man auch abwägen, dass man die SDD extern nicht oder nicht einfach trimmen kann.
Am besten wäre es das Problem einfach mit mehr RAM zu erschlagen 😬 (Zugriffe werden ja in der Regel gecacht, also…) Speziell bei Debian-basierten Betriebssystemen noch ein Hinweis bezogen auf den Paketmanager: dpkg verwendet sehr viele fsync()-Calls, welche auf langsamen Datenträgern das ganze, nunja, nochmal enorm verlangsamen. Der Bugreport hierzu spricht speziell btrfs an, gilt im Prinzip aber für alle Dateisysteme: Bug #601299
|
Wibuntu
Anmeldungsdatum: 21. Januar 2011
Beiträge: 564
|
....womit die Frage, warum Windows immer langsamer wird noch immer nicht geklärt ist. Ich sag es mal so, Windows hat bei den Datei- u Programmeinträgen im System den größeren Durcheinander - sagen wir Saustall - und bei Linux läuft es geordneter und besser abgestimmt auf das System ab. Schon die Updateverwaltung unter Windows ist eine Katastrophe - bei der Abmeldung der Hinweis - fahren sie Windows nicht herunter bis etc.- und dann bei der Anmeldung wieder Updates werden installiert. Beim Linux läuft das ohne Einschränkung während des Betriebes. Schönen Sonntag wünsche ich 👍
|
tomtomtom
Supporter
Anmeldungsdatum: 22. August 2008
Beiträge: 53598
Wohnort: Berlin
|
Wibuntu schrieb: Beim Linux läuft das ohne Einschränkung während des Betriebes.
Würde ich jetzt so nicht unterschreiben. 😉 Einige Programme machen gerne Unfug, wenn sie bei der Aktualisierung der n Benutzung sind und müssen neugestartet werden. Und bei Linux-Distributionen, die keine alten Kernel aufheben, sondern beim Update den alten mit dem neuen überschreiben, wird es lustig, wenn man noch ein Modul neuladen will. 😈
|
Xeno
Ehemalige
Anmeldungsdatum: 6. April 2005
Beiträge: 2572
Wohnort: Schweiz
|
tomtomtom schrieb:
Würde ich jetzt so nicht unterschreiben. 😉 Einige Programme machen gerne Unfug, wenn sie bei der Aktualisierung der n Benutzung sind und müssen neugestartet werden.
Ja. Wenn zum Beispiel Firefox aktualisiert wird und Du startest ihn während der laufenden Aktualisierung, findet das System (die Paketverwaltung) das nicht lustig. Eigentlich nicht völlig überraschenderweise. Lg X.
|
Wibuntu
Anmeldungsdatum: 21. Januar 2011
Beiträge: 564
|
Xeno schrieb: tomtomtom schrieb:
Würde ich jetzt so nicht unterschreiben. 😉 Einige Programme machen gerne Unfug, wenn sie bei der Aktualisierung der n Benutzung sind und müssen neugestartet werden.
Ja. Wenn zum Beispiel Firefox aktualisiert wird und Du startest ihn während der laufenden Aktualisierung, findet das System (die Paketverwaltung) das nicht lustig. Eigentlich nicht völlig überraschenderweise. Lg X.
Und deshalb starte ich auch die Aktualisierung und lasse Ubuntu dann allein. Ich wollte eigentlich damit sagen, dass es beim Neustart bzw. Herunterfahren im Gegensatz zu Windows keine Verzögerung gibt weil eben die Aktualisierung während des Betriebes abläuft. Die Updateverwaltung bei Windows war auch mit ein Grund dass ich mich von diesem System verabschiedet habe. Und ich bin nicht einmal traurig darüber 😐
|
Krümelomat
Anmeldungsdatum: 18. Oktober 2010
Beiträge: 1077
|
Um zur ursprünglichen Frage zurückzukehren. Die Antwort ist einfach. Die Registry wird zugemüllt, irgendwann braucht es mehr Speicher und Rechenkraft um das System überhaupt am Laufen zu haltnen. Dann installieren allerlei Programme ihre dlls usw ins System, die werden auch geladen, bleibem geladen wenn das Programm wieder deinstalliert wurde. Dann die ganze Spyware die mitlaufen muss. Bei Windows 10 werden laut Sempervideo alle Tastureingaben per default zu Microsoft geschickt. Steht aber bestimmt in der EULA, aber die ist ja für Ottonormalmensch gut zu verstehen. Die AGBs werden auch immer besser, z.B. von Google, du gibtst was in Docs ein und Google darf es weiterverarbeiten und als sein eigenes geistiges Eigentum betrachten. Bei Chat und Mail sind auch hakelige Bedingungen vorzufinden. Spyware findet sich nicht nur unter Windows, auch unter Linux, wo man das Adroid ja dazurechnen kann. Whatsapp und Facebook wissen alles über deine Person. Das war in der Geschichte noch nie so.
|
MalSaulusMalPaulus
Anmeldungsdatum: 4. November 2014
Beiträge: 286
Wohnort: Bayern
|
Ob es wirklich an der Registry liegt, naja ich weiß nicht. Seit ich eine SSD habe merke ich eigentlich nicht, dass Windows merklich langsamer wird. Was auch hilft ist, nicht alles zu installieren bzw. zu überprüfen, ob wirklich so viel beim Systemstart geladen werden muss. Steam startet automatisch Discord startet automatisch Twitsch startet automatisch Docker startet automatisch usw.
Mittlerweile scheint es die Standardeinstellung zu sein, dass sich Programme automatisch beim Systemstart öffnen. All das kostet natürlich Systemressourcen. Auch verstehe ich nicht, warum viele Desktopprogramme irgendwelche Update-Checker installieren. Chrome kann doch beim Start prüfen, ob ein Update da ist und muss nicht ständig im Hintergrund das überprüfen. Daher deaktiviere ich diese ganzen unnötigen Update-Checker. Wenn möglich verwende ich auch chocolatey zur Programmverwaltung, da kann ich sowieso schnell nach Updates suchen und ggf. alle Programme updaten. Und hier sieht man auch, dass es nicht an Windows liegt, dass es langsame wird. Wobei langsamer wird es ja nicht, die ganzen Programme, die gestartet werden und im Hintergrund laufen, kosten halt Systemressourcen. Übrigens hat man den selben Effekt bei Android.
|
Krümelomat
Anmeldungsdatum: 18. Oktober 2010
Beiträge: 1077
|
Bei Android und bei Ubuntu, viele Programme starten im Hintergrund und benötigen daher Ressourchen. Windows wird auch erst langsamer wenn man die Installation entsprechend lange verwendet. Es kommt auch auf die Nutzung an. Und früher hat man das eher gemerkt, weil da die Hardware noch langsamer war
|