1. Liebe Forumsgemeinde,

    aufgrund der Bestimmungen, die sich aus der DSGVO ergeben, müssten umfangreiche Anpassungen am Forum vorgenommen werden, die sich für uns nicht wirtschaftlich abbilden lassen. Daher haben wir uns entschlossen, das Forum in seiner aktuellen Form zu archivieren und online bereit zu stellen, jedoch keine Neuanmeldungen oder neuen Kommentare mehr zuzulassen. So ist sichergestellt, dass das gesammelte Wissen nicht verloren geht, und wir die Seite dennoch DSGVO-konform zur Verfügung stellen können.
    Dies wird in den nächsten Tagen umgesetzt.

    Wir danken allen, die sich in den letzten Jahren für Hilfesuchende und auch für das Forum selbst engagiert haben.

Mac-OS X + womit defragmentieren ?

Dieses Thema im Forum "Hardware" wurde erstellt von rd, 2. Februar 2002.

  1. rd

    rd New Member

    Mit welchem tool kann ich meine Mac-OS X Platte
    defragmentieren ?
     
  2. hakru

    hakru New Member

    Hi, hast Du diese Diskussion hier schon gelesen?
    http://62.96.227.71/cgi-bin/mac_forum/topic_show.pl?id=18496
    Ansonsten weiss ich, dass DiskWarrior mit PlusOptimizer gut funktioniert. Über Norton + SpeedDisk liest man ab und an Negatives. Könnte aber auch nur daran liegen, dass Norton mehr verbreitet ist?

    hakru
     
  3. baltar

    baltar New Member

  4. rd

    rd New Member

    danke - das ging ja schnell- bin wieder schlauer -
    grüße + schönes wochenende
     
  5. Xboy

    Xboy New Member

    HI!

    Sorry, Aber das ist schwachsinn!

    Die Platte "verschmutzt" unter OS X genauso wie unterm Classischen!

    Das liegt an HFS+.
    Wenn du UFS und dann natürlich mit einem Unix arbeitest mag das funktionieren.
    Schau dir die Platte lieber mal mit DiscWarrior an, der ist zuverlässiger, und du wirst sehen was sich da auf der Platte abspielt!

    Liebe Grüsse, Mario
     
  6. baltar

    baltar New Member

    Ich will nicht Streiten, aber die Optische Verschmutzung sieht man auch bei UFS sowie allen Unix Partitionen.
    Nach einem Defrag wirds auch nicht schneller. Hier nochmal der Text von SuSE:

    Es bringt nix, denn nach der Fragmentierung wird das Dateisystem sehr schnell wieder einen fuer die Nutzungsweise des Dateisystems charakteristischen Fragmentierungslevel anstreben und dann dort verweilen.

    Ausserdem spielt die Laenge der Fragmente eine Rolle. Linux verwendet kernelintern ein Readahead von 16 Blocks. Das bedeutet: Wenn eine Datei sequentiell durchgelesen wird (weit ueber 95% alle Lesezugriffe!), liest Linux bis zu 16 Bloecks am Stueck voraus, um den kernelinternen Cache vorzugluehen, in der Hoffnung, dass diese Bloecke gleich von dem betreffenden Programm verlangt werden.

    Wenn die Fragmente also groesser als 16 Bloecke sind (die meisten sind das, siehe unten), dann ist es letztendlich egal, ob die Datei fragmentiert ist oder nicht, weil der Seek in den Readaheads untergeht. Nur Fragmente, die kleiner sind als 16 Bloecke wirken sich wirklich schaedlich auf die Leseperformance aus.

    Das ext2-Dateisystem schreibt Dateien nun auch mit einer Art writeahead, aeh, mit Preallocation. Wenn Du in einem ext2-Dateisystem einen Block schreibst, belegt das Dateisystem gleich bis zu 7 weitere Bloecke in Folge fuer diese Datei. Zwei konkurrierende Schreibzugriffe in einem Verzeichnis wuerden also nicht Bloecke der Form

    121212121212

    anordnen, sondern eine Blockfolge

    1ppppppp2qqqqqqq

    erzeugen, wobei jeweils 1 und 2 geschriebene Bloecke der Dateien 1 und 2 sind und p und q fuer 1 bzw. 2 vorbestellte Bloecke sind. Werden 1 und 2 konkurrierend verlaengert, entsteht so

    11111111222222221ppppppp2qqqqqqqq

    und so weiter. Auf diese Weise wird die schaedliche (kleine) Fragmentierung weitestgehend vermieden. Das ganze Verfahren ist eine Verallgemeinerung des Fragment/Block-Verfahrens des BSD Fast Filing Systems.

    Ausserdem muss man als Anwender auf einem Multitaskingsystem auch noch zwischen Performance und Durchsatz unterscheiden: Performance ist das, was ein Anwender mit einem einzelnen Prozess maximal aus der Platte an MB/sec rauslutschen kann. Durchsatz ist das, was die Platte ueber alle Anwender und Prozesse gerechnet an MB/sec ausspuckt.

    In Multitasking-Systemen ist der Durchsatz oft sehr viel groesser als die Performance. Linux hat Algorithmen, die den Durchsatz, nicht die Performance des System erhoehen. Zum Beispiel werden Zugriffe auf die Festplatte, die in der Wait Queue der Disk stehen, nach Blocknummern aufsteigend sortiert. Mit einem Saegezahn-Algorithmus klettert der Kopf der Platte zu den hohen Blocknummern und serviced die Requests, um dann in einem long seek nach unten zu zucken und die naechste Runde zu drehen. (Nein, das ist nicht ganz der Fahrstuhl-Algorithmus: Mit dem waren die Latenzen/Service Times zu hoch und der Algorithmus ist nicht fair). Ausserdem werden aufeinanderfolgende Requests fuer denselben Prozess von Linux zu einem Request groesserer Groesse zusammengefasst (geclustert).

    Durch eine solche Sortierung erfolgen die Lesezugriffe nicht in der Reihenfolge und mit der Groesse, die der Prozess ausgegeben hat, sondern in der Reihenfolge und mit einer Groesse, die der Platte genehm ist. Auf diese Weise werden die Effekte von grosser Fragmentierung weitgehend ueberdeckt - nur kleine Fragmente wirken sich schaedlich auf den Durchsatz auf.

    Und zum Schluss liegt ueber all diesem auch noch der Buffer Cache des Betriebssystems, d.h. beim zweiten Leseversuch kommt sowieso alles aus dem Ram und die Anordnung der Daten auf der Platte ist vollkommen schnurz.

    Defragmentierung ist Zeitverschwendung,

    (Quelle SuSE)

    MfG

    Pers. Anmerkung: Auch unter WindowsXP ist die Swap Datei Defragmentiert auf einer eigenen Partition nicht schneller als auf dem Laufwerk C Fragmentiert! (Neue Rechner, bei alten Teilen unter Win95 gabs noch etwas mehr Leistung)
     
  7. Thomas Treyer

    Thomas Treyer New Member

    Danke für diesen Beitrag. Er ist klar geschrieben und zeigt, was Sache ist. Leider gibt es ja immer mehr Placebo-Software. Man beginnt an der Mac-Gemeinde schon zu zweifeln, wenn man liest, was allein in diesem Forum an angeblich notwendiger Software aufgelistet ist.
    .
    Ich persönlich komme ganz gut klar ohne:
    -1- Ram-Doubler (hoffentlich gibt es da noch keine OS X Version)
    -2- Tuning-Werkzeuge für die Festplatte (so ein Schwachsinn)
    -3- Defragmentierer (siehe dein Beitrag)
    -4- Tuning Werkzeuge für den Netzwerkzugriff (wer glaubt, die Paketgröße bestimmt den Durchsatz, ist selber schuld)
    -5- Personal Firewalls (dazu sage ich nichts mehr)
    -6- Programme zum Löschen von Logfiles (angeblich ganz wichtig)

    Diese Liste erhebt nicht den Anspruch auf Vollständigkeit, es gibt noch beliebig viel Schwachsinn für den Mac.

    Thomas, der Ungläubige

    P.S. Hatte ich schon erwähnt, dass ich sehr preisgünstig Zauber-Amulette verkaufe, die man an den Monitor (seitlich) kleben kann und die die Zahl der Computerabstürze um 56% verringern?
     
  8. McMichael

    McMichael New Member

    Hi!

    War (bin) selber Opfer des Plattesaubermachfimmels ...

    Wenn man einen Blick auf das Norton Utils für X wirft, erkennt man, das Speeddisk gar nicht mehr das ist .....

    lg iMike, das auch ohne ganz gut leben kann ...
     
  9. DonRene

    DonRene New Member

    kannst du mir mal ne testversion mailen? die sache interessiert mich, hört sich viel versprechend an. ;-)
     
  10. baltar

    baltar New Member

    Von jedem dieser Tools gibt es natürlich eine Normale, Lite u. Pro Version!

    Testurteil in den Fachzeitschriften: Sehr gut!

    MfG
     
  11. kegon

    kegon New Member

    A Linux hat ein eigenes Kernel, hat mit freeBSD Version 3.2 nichts zu tun.
    B Wer glaubt die Platten fragmentieren nicht, der glaubt wohl auch noch an den Weihnachtsmann. Unter UFS geht es ja aber bei HFS+ sieht die Welt doch noch etwas anders aus. Fragmentierung im engeren Sinn ist sicherlich noch erträglich, aber die belegten Speicherblöcke am Ende der HD tragen nicht gerade zu einem performanten System bei. Insbesondere die Bearbeitung von Filmen wird immer langwieriger. Ausserdem möchte ich gerne mal wissen, was der Diskwarrior die ganze letzte Nacht gemacht hat? Vielleicht nur so zum Spass 12,5 h defragmentiert, weil gerade nichts zu tun war?
    C So nen Amulett nehme ich auch, hilft vielleicht gegen Apple;)
     
  12. kegon

    kegon New Member

    kleine Ergänzung:
    Die Fürsten, die vor nicht all zu langer Zeit nicht müde wurden zu behaupten unter NT träte keinerlei Fragmentierung auf sind mittlerweile auch verstummt.
     
  13. hakru

    hakru New Member

    aber auch einen Bericht gelesen,
    http://forums.osxhints.com/showthre...796910e3cb5aaa67&threadid=66&highlight=defrag
    worin jemand berichtet, dass benchmarking der HD Performance vor und nach defrag keine Unterschiede erbracht hat. Was dennoch in gewisser weise (mir jedenfalls) fehlt, ist eine "authoritative" Antwort auf diese Frage ... Fest scheint aber zu stehen, daß DiskWarrior 2.1 das Defragmentieren - egal jetzt mal ob nötig oder nicht - kann. Ich hab' da bislang nur einen Problembericht (link siehe oben) gelesen, der mit der Verwendung von Unicode-Dateien zu tun hatte ...

    hakru
     
  14. baltar

    baltar New Member

    A: Das Grundprinzip ist das selbe, Linux u. NetBSD sind Kinder von Unix.

    B: Die Fragmentierung Opitsch Angezeigt läßt nach einem Defrag Schreien. In Zeiten von MSDOS wo ein Program geladen worden ist, würde das eine Menge Zeit Sparen, aber wie oben zu lesen haben wir mit OSX Multitasking wo viele Programme ab u. zu auf die HD zugreifen, welche wiederum einen 512 kb - 2,4 oder sogar 8 MB Cache hat. Da bringt ein Defrag nichts. (Außer eben Optisch im Defragprogram :) ) Ob OSX selbst auch noch einen HD Cache hat weiß ich jetzt nicht!

    C: Gekauft!
     
  15. kegon

    kegon New Member

    klasse Link, habe die Beiträge gerade gelesen. Was mir hier fehlt, ist eine etwas längerfristige Betrachtung:
    A Das die Platten defragmentieren scheint anerkannt zu werden;
    B Keine Performanceverluste, von mir aus, es gibt jedoch Berichte, dass das der Fall sei;
    C Ein Punkt der mir noch nicht untergekommen ist, ist ein fragmentiertes Verzeichnis. Das ist erstmal kein Problem, wenn diese wichtige (man könnte auch wichtigste sagen) Datei jedoch sukkzessive weiter fragmentiert, könnte es dem System irgendwann unmöglich sein, diese wieder zusammenzusetzen. Wer sich dann keinen teuren Datenrettungsdienst leisten kann wird dann wohl seine Daten verlieren... Die Höhe dieses -wahrscheinlich sehr geringen- Risikos vermag ich jedoch nicht zu beurteilen... Lasse mich gerne eines Besseren belehren
     
  16. Thomas Treyer

    Thomas Treyer New Member

    Ich habe eine ganz naive Meinung zur Defragmentierung:
    UNIX ist ein sehr altes Betriebssystem, und sehr viele haben daran herumgebastelt und in Open-Source-Kreisen endlose Diskussionen geführt. Firmen wie IBM, SUN, HP und Apple haben eigene Kernel entwickelt oder vorhandene Kernel optimiert. Ich halte es für sehr unwahrscheinlich, dass gerade im File-System ein Bug steckt, der von kleinen Winzfirmen wie Norton oder Disk Warrior entdeckt und behoben wurde.
    Aber so ist das nun mal, vor zwanzig Jahren war es der Opel Manta, der getunt wurde, heute ist es eben die Blechkiste auf dem Schreibtisch. Damals war es eine Anzeige der Öltemperatur auf dem Armaturenbrett, heute ist es die Fragmentierung. Sicher, die Öltemperatur gibt interessante Hinweise auf den Zustand des Motors, aber Millionen Autofahrer kommen ohne aus (und schneller wurde die Kiste nicht mit diesem Dings, gilt auch für die Defragmentierer).

    Thomas
     
  17. McMuehleck

    McMuehleck New Member

    Wann fragmentiert denn eine Platte?
    Sicher nicht mit den vorhandenen Daten sondern i.d.R. doch nur mit neuen Daten! Auf den Swap-Berech des Betriebssystems hat man sowieso keinen Einfluss! Wenn man natürlich ohne Ende neue Dateien hinzufügt fragmentiert die Platte natürlich stärker - das läßt sich nicht verhindern. Aber: diesen Effekt merken wir sicherlich nicht nach ein paar Monaten sondern wohl eher nach meheren Jahren!! Bis dahin wird es das HFS+-System wohl nur noch auf alten Rechnern mit OS 9.x geben. Ich denke mal das wir bald einheitlich auf UFS umsteigen können!
    Insofern ist das auch jetzt sicherlich noch nicht relevant!
     
  18. hakru

    hakru New Member

    ich mich da aber mit ein paar (recht unpräzisen) Statements nicht zufrieden. Man kann das auch für Sturheit halten, so ist es aber nicht gemeint - eher als auf Erfahrung beruhende, gesunde Skepsis. Na ja, die Zeit wird's klären.

    Norton/DiskWarrior sind natürlich keine "Wunder-tools", haben vermutlich für OSX nichts Besonderes dazugelernt - ausser vielleicht den einen oder andern File "in Ruhe zu lassen", und spoolen halt eine Defrag-Prozedur für ein HFS+-Volume runter. Ganz überflüssig sind sie aber auch nicht, da wohl beide (ich bevorzuge DiskWarrior) halt HFS+-typische Disk/Verzeichnis-Fehler reparieren können, bei denen derzeit die UNIX-tools des Terminals und die Apple-Erste-Hilfe die Waffen strecken.

    hakru
     
  19. user

    user New Member

    was mich dabei interessiert ist warum hier noch keiner mit UFS Arbeitet - kann man nicht X auf UFS laufen lassen und Classik auf HFS+ ???
     
  20. McMuehleck

    McMuehleck New Member

    Ein klares Jein!

    Classic arbeitet nur mit HFS. Wenn Du jetzt also in Classic auf Daten auf deiner OsX-Platte (mit UFS) zugreifen willst geht das nicht. Andersherum macht es nichts aus.
     

Diese Seite empfehlen