lilith2k3
Anmeldungsdatum: 14. Dezember 2006
Beiträge: 2999
Wohnort: OS
|
Das EXT3 nicht fragmentiert hat mir sehr geschmeichelt. Doch leider scheint es nicht die Wahrheit zu sein.
Zumindest nicht die ganze Wahrheit *g* http://www.heise.de/open/Das-Dateisystem-Ext3-tunen--/artikel/104859 Ein sehr netter Artikel im Übrigen 😉
|
salatman
Anmeldungsdatum: 7. Dezember 2005
Beiträge: 1813
|
By Vegeta ☺
Schöner Artikel, würde aber noch einfügen, dass die normale Fragmentierung unterhalb von 10%-Punkten liegt und diese teilweise auch gewollt ist. Z.B. weil ext3 bei dynamischen Dateien automatisch Platz lässt und eine Defragmentierung in solchen Fällen sogar eine Performance-Verschlechterung bringen kann. Auch könnte man erwähnen, dass die Fragmentierung sehr stark bei vollen Laufwerken anwächst.
Ich mach sowas nicht! Fragmentieren machen ich wenn ich ein Mosaik lege. Logo - bin doch kein 🐸 Nighty
|
noisefloor
Ehemaliger
(Themenstarter)
Anmeldungsdatum: 6. Juni 2006
Beiträge: 29067
Wohnort: WW
|
Hallo, nee, getestet habe ich die Tools nicht, weil bei 1,X% Defragmentierung das nicht nötig ist... 😉 Es steht ja auch so im Artikel drin (meine zumindest, dass ich es geschrieben habe...), dass Defragmentierung primär auf Servern mit vielen Schreib-Löschvorgängen auftrittt, so wie z.B auf deinem NAS. Lt. c't ist ja eine simples kopieren und zurückkopieren ja am besten... Gruß noisefloor
|
dreama
Anmeldungsdatum: 18. März 2008
Beiträge: Zähle...
|
Hmm.. ich frag mich schon warum ich auf 3Laufwerken so hohe Fragmentierung habe. Und von Wegen 1% .. pah /dev/hda5: 179384/36569088 files (21.4% non-contiguous), 57794053/73119839 blocks Das ist nicht lustig. Das mit dem Kopieren auf einen andere Festplatte ist für mich keine brauchbare Lösung. Dann kann ich womöglich alle paar Monate einmal eine Extra Festplatte dranhängen. Das halte ich für nicht Praktikabel. Schiebe große Dateien hin und her. Aber auch Kleinkram. Habe mir erhofft.. hier etwas mehr Leidengenossen zu finden. 😈 Danke für deinen Anteilnahme noisefloor. Aber wenn ich bei 2Nas und einem Server immer die Daten hin und herschaufeln muß, dann bin ich zeitlich arm dran.(Alles ist zu 80% voll) Was machen Firmen die einen Linux-Server stehen haben? Das müssen die doch auch bemerken? Verstehe nicht daß da nix vorangeht. Das ist ja eine richtige Marktlücke. http://www.m740.de/wiki/Ext3_HowTo http://lwn.net/Articles/205585/ ← Kommt damit jemand klar?
|
noisefloor
Ehemaliger
(Themenstarter)
Anmeldungsdatum: 6. Juni 2006
Beiträge: 29067
Wohnort: WW
|
Hallo, grundsätzlich glaube ich es zu verstehen - dies ist quasi ein Patch für das ext3 Modul des Kernels, also nix, was du mal schnell laufen lassen kannst... Gruß noisefloor
|
dreama
Anmeldungsdatum: 18. März 2008
Beiträge: 19
|
Naja.. sowas hatte ich vermutet. (KernelPatch) Da ich ein ziemlicher Wadenbeißer bin, hab ich mich weiterhin der Sache angenommen. Habe nun die 20% fragmentierte Festplatte hergekommen und mir eine 500GB zugelegt. Die Daten mit Knoppix schön formatiert. Und dann die Daten fleißig kopiert. Jetzt da 400GB von den 500GB voll sind. Dachte ich mir machmal nen Check was die Fragmentierung anbelangt. Da ich ja immer schön eins nachdem anderen Kopiert hatte.. ging ich von einer Fragmentiertung aus kleiner 1%. Der Schock sitzt tief. Habe 9,7% Fragmentierung. Jetzt versteh ich nix mehr. Kann mir das bitte jemand erklären.? An den Daten kann es ja wohl nicht liegen? Ich weiß auch nicht wie er auf die ca. 10% kommt. Angenommen ich hätte hauptsächlich riesige 4GB Dateien(was ich nicht habe). Also das wären ca. 100Stk(400GB) und jede 10te wäre fragmentiert. ( in 2 Teile ) sind das dann 10%? Beim Kopieren selbst hab ich beobachtet das die Kopiergeschwindigkeit zeitweise auf die hälfte sank. Also das was c't da schreibt, kann ich nicht bestätigen.
|
noisefloor
Ehemaliger
(Themenstarter)
Anmeldungsdatum: 6. Juni 2006
Beiträge: 29067
Wohnort: WW
|
Hallo, verschoben: Defragmentierung Den Thread hier habe ich als Link im Artikel gelassen, vielleicht kommt noch mehr Feedback, was man dann auch in den Artikel einbauen kann. Gruß, noisefloor
|
Nobuddy
Anmeldungsdatum: 2. September 2005
Beiträge: 6896
Wohnort: 29614 Soltau
|
Hallo, habe mir den Artikel durchgelesen und finde es gut, daß dieses Thema auch im Wiki aufgeführt wird. Eins ist mir nicht ganz klar, oder es wurde im Beitrag nicht verständlich genug erklärt, wie letztendlich defragmentiert wird? Welche Aufgabenbereiche haben die Drei (e2fsck, dumpe2fs, filefrag) mit welchem kann defragmentiert werden? Das sollte ausführlicher beschrieben und deutlicher hervorgehoben werden! Grüße Nobuddy
|
mythos
Anmeldungsdatum: 14. Juli 2006
Beiträge: 1080
|
mein Gott, wer sagt denn, dass fragmentieren schlecht ist. Sobald man mehrere Prozesse hat, die etwas lesen wollen, ist eine intelligente Fragmentierung ein muss, um _gleichmäßige_ Performance zu garantieren. http://blog.koehntopp.de/archives/1265-Fragmentierung-fuer-Jannik.html imho bläst der komplette Artikel ins falsche Horn. mfg mythos
|
noisefloor
Ehemaliger
(Themenstarter)
Anmeldungsdatum: 6. Juni 2006
Beiträge: 29067
Wohnort: WW
|
Hallo, was ist denn eine
intelligente Fragmentierung
?? Gruß, noisefloor
|
RvD
Anmeldungsdatum: 26. Mai 2006
Beiträge: 2870
|
Ein Widerspruch in sich selbst. 😉 Solange Datenzugriff sequentiell erfolgt ist Fragmentierung nie von Vorteil... sie spielt nur eine immer kleiner werdende Rolle.
|
mythos
Anmeldungsdatum: 14. Juli 2006
Beiträge: 1080
|
solange Datenzugriff sequentiell erfolgt ist Fragmentierung nie von Vorteil
Schon mal drüber nachgedacht, dass wenn du sehr große Dateien linear abspeicherst, die Seektime exorbitant steigt, wenn man dann wieder zu einer anderen Datei switched. Der Datenzugriff ist zwar sequentiell, aber es wird doch nicht die komplette Datei auf einmal eingelesen. Wenn ein anderer Prozess eine Datei verlangt, wird der vorherige Lesevorgang "unterbrochen". Ich hätte mir von euch ein wenig mehr erwartet. So schwer ist die Thematik ja nicht. Keine Fragmentierung hat nur dann einen Vorteil, wenn nur _ein_ Prozess auf die Daten zugreift (zu guten alten DOS-Zeiten). mfg mythos
|
noisefloor
Ehemaliger
(Themenstarter)
Anmeldungsdatum: 6. Juni 2006
Beiträge: 29067
Wohnort: WW
|
Hallo,
Ich hätte mir von euch ein wenig mehr Wissen erwartet. So schwer ist die Thematik ja nicht.
So, erst mal nicht frech werden. Sachliche Diskussionen zum dem Thema sind natürlich ok. Zum Thema: das ist aber sehr theoretisch, zumal moderne Festplatte per NCQ = Native Command Queuing die Schreib- / Lesebefehle des Betriebssystem selbst in eine optimale Reihenfolge bringen. Optimal heißt AFAIK eine minimierte Bewegung der Schreib- / Leseköpfe. In sofern hat du recht, dass wenn eine Festplatte z.B. 12 Köpfe hat und die Datei 12 Fragmente, dann kannst du evtl. ultra-schnell lesen. Dies ist aber, wie bereits gesagt, dermaßen theoretisch, dass es wohl nie den Zustand der "intelligenten Fragmentierung" geben wird. Oder meinst du was anders? Immerhin, wir sind auch nicht allwissend. 😉 Gruß, noisefloor
|
mythos
Anmeldungsdatum: 14. Juli 2006
Beiträge: 1080
|
Das hat doch nichts mit NCQ zu tun. NCQ verändert doch nur die Reihenfolge der Datenzugriffe, sodass die Plattendrehungen minimiert werden. Also nochmal ganz von Anfang an. Die Daten sind in Nodes organisiert, während ein Node eine max. Größe aufweist. Ist eine Datei größer als dieser Node wird schon einmal zwangsläufig fragmentiert. Jetzt wird aber nicht ein Node mit einer Datei vollgeschrieben und dann darauf der nächste Node gefüllt. Nein, es wird eine die Datei zersplittet (die optimale Größe der Fragmente kann man übrigens errechnen) und auf die Nodes aufgeteilt. Wenn du dir das jetzt weiterdenkst mit allen Dateien, dann ist das Ziel nicht eine _Minimierung_ der Schreib- / Lesekopfbewegungen, sondern eine _möglichst gleichmäßige_ Seektime ohne große Ausreißer. mfg mythos
|
Chrissss
Anmeldungsdatum: 31. August 2005
Beiträge: 37971
|
Hmmmm, die Einleitung empfinde ich ebenfalls nicht ideal. Mein Standardlink zu diesem Thema ist: http://geekblog.oneandoneis2.org/index.php/2006/08/17/why_doesn_t_linux_need_defragmenting Dort wird das Thema deutlich vereinfacht dargelegt. http://www.kdedevelopers.org/node/2270 greift das nochmal nach. Es ist nicht so, dass man am Dateisystem nichts optimieren könnte. Doch Tools oder Umkopiererei etc. sind unnötig. Und wie mythos schon sagte. Die Linux Darteisysteme (und wohl auch NTFS) fragmentieren recht gesund. Der anale Ordnungssinn eines Menschen (jede Datei brav aneinandergereiht) ist performancetechnisch suboptimal. Ein OS liest nicht jede Datei nacheinander und verschiedene Prozesse wollen unterschiedliche Daten zur selben Zeit. Daher interessiert die durchschnittliche Seek-time und nicht die maximale, die das Auslesen einer Datei durch einen Prozess ergäbe.
|