Frage Warum beschleunigt das Leeren von Speicherplatz die Computer?


Ich habe mir eine Reihe von Videos angeschaut und verstehe jetzt ein bisschen besser, wie Computer funktionieren. Ich verstehe besser, was RAM ist, flüchtigen und nicht flüchtigen Speicher und den Prozess des Tauschens. Ich verstehe auch, warum die Erhöhung von RAM einen Computer beschleunigt.

Ich verstehe nicht, warum das Bereinigen von Festplattenspeicher einen Computer beschleunigt. Macht es? Warum geht das? Hat es mit der Suche nach verfügbarem Speicherplatz zu tun, um Dinge zu speichern? Oder indem man Dinge bewegt, um einen ausreichend langen, kontinuierlichen Raum zu schaffen, um etwas zu sparen? Wie viel freien Platz auf der Festplatte sollte ich frei lassen?


188
2018-04-19 23:06


Ursprung


Es beschleunigt die PCs nicht wirklich, es verringert nur die Gefahr von Dateifragmentierungen, die Festplatten langsamer machen. Dies ist einer der größten PC-Mythen, die jeder wiederholt. Um Bootlenecks auf dem PC zu finden, verfolgen Sie sie mit xperf / WPA. - magicandre1981
FWIW es speeds up the experience of using a PC. - edthethird
@ magicandre1981: Da ist ein sehr klein Juwel der Wahrheit. Je mehr Dinge in jedem Ordner sind, desto langsamer wird die Datei durchlaufen, was sich auf alles auswirkt, was einen Dateipfad verwendet, also ... alles. Aber das ist sehr klein. - Mooing Duck
@MooingDuck Das stimmt zwar mit der Anzahl der Dateien in einem Ordner zusammen, nicht mit der Größe der Dateien oder dem verbleibenden Speicherplatz auf dem Laufwerk. Dieser Effekt hängt nicht mit dem verbleibenden Speicherplatz zusammen. Der Effekt beschränkt sich auch auf den Ordner selbst, er wird den gesamten Computer nicht "verlangsamen". Einige Dateisysteme, zum Beispiel ext3 / 4, verwenden Hash-Verzeichnisbäume zu machen Nachschlagewerke (einschließlich des Zugriffs auf Unterordner) schnell, wodurch der Umfang des Effekts noch mehr eingeschränkt wird, z. nur wenn Auflistung Inhalt eines Verzeichnisses. - Jason C
Welche Videos hast du genau angesehen? - Loko


Antworten:


Hier habe ich versehentlich ein Buch geschrieben. Holen Sie sich zuerst einen Kaffee.

Warum beschleunigt das Leeren von Speicherplatz die Computer?

Es ist nicht, zumindest nicht für sich allein. Das ist ein sehr verbreiteter Mythos. Der Grund dafür, dass es ein häufiger Mythos ist, besteht darin, dass das Auffüllen der Festplatte oft gleichzeitig mit anderen Dingen geschieht, die traditionell verwendet werden könnte langsamer dein Computer. SSD-Leistung tendiert dazu degradieren, wenn das Laufwerk gefüllt wirdDies ist jedoch ein relativ neues Problem, das nur bei SSDs auftritt und bei Gelegenheitsbenutzern nicht wirklich auffällt. Im Allgemeinen ist ein niedriger freier Speicherplatz nur ein Ablenkungsmanöver.

Zum Beispiel Dinge wie:

  • Dateifragmentierung Dateifragmentierung ist ein Problem††, aber Mangel an freiem Speicherplatz, während auf jeden Fall einer von viele beitragende Faktoren, ist nicht das einzige Ursache dafür. Einige wichtige Punkte hier:

    • Die Wahrscheinlichkeit, dass eine Datei fragmentiert wird, ist nicht bezogen auf die Menge an freiem Speicherplatz auf dem Laufwerk. Sie beziehen sich auf die Größe des größten zusammenhängenden Blocks von freiem Speicherplatz auf dem Laufwerk (z. B. "Löcher" des freien Speicherplatzes), der die Größe des freien Speicherplatzes angibt passiert, eine Obergrenze zu setzen. Sie beziehen sich auch darauf, wie das Dateisystem die Dateizuordnung behandelt (mehr dazu im Folgenden). Erwägen: Ein Laufwerk, das zu 95% mit freiem Speicherplatz in einem einzelnen zusammenhängenden Block voll ist, hat eine Wahrscheinlichkeit von 0%, eine neue Datei zu fragmentieren ††† (und die Möglichkeit, eine angehängte Datei zu fragmentieren, ist unabhängig vom freien Speicherplatz). Ein Laufwerk, das zu 5% voll ist, aber die Daten gleichmäßig über das Laufwerk verteilt, weist eine sehr hohe Fragmentierung auf.

    • Beachten Sie diese Dateifragmentierung wirkt sich nur auf die Leistung aus, wenn auf die fragmentierten Dateien zugegriffen wird. Erwägen: Sie haben ein nettes, defragmentiertes Laufwerk, das noch viele freie "Löcher" enthält. Ein häufiges Szenario. Alles läuft reibungslos. Irgendwann kommen Sie jedoch zu einem Punkt, an dem keine großen freien Blöcke mehr übrig sind. Sie laden einen riesigen Film herunter, die Datei wird stark fragmentiert. Dies wird Ihren Computer nicht verlangsamen. Alle Ihre Anwendungsdateien und solche, die vorher gut waren, werden nicht plötzlich fragmentiert. Dies kann die machen Film dauert länger, um zu laden (obwohl die typischen Bitraten für Filme im Vergleich zu Festplattenleseraten so niedrig sind, dass sie höchstwahrscheinlich nicht wahrgenommen werden), und dies kann Auswirkungen auf die I / O-gebundene Leistung haben, während Filmlädt, aber ansonsten ändert sich nichts.

    • Während die Dateifragmentierung sicherlich ein Problem darstellt, werden die Auswirkungen oft durch Pufferung und Zwischenspeicherung auf Betriebssystem- und Hardwareebene gemildert. Verzögerte Schreibvorgänge, Read-ahead, Strategien wie die Vorfetcher in Windows usw. helfen alle, die Auswirkungen der Fragmentierung zu reduzieren. Das tust du normalerweise nicht tatsächlich Erleben Sie signifikante Auswirkungen, bis die Fragmentierung schwerwiegend wird (ich würde sogar sagen, solange Ihre Auslagerungsdatei nicht fragmentiert ist, werden Sie wahrscheinlich nie bemerken).

  • Suchindexierung ist ein anderes Beispiel. Angenommen, Sie haben die automatische Indizierung aktiviert und ein Betriebssystem, das dies nicht ordnungsgemäß verarbeitet. Wenn Sie mehr und mehr indexierbaren Inhalt auf Ihrem Computer speichern (Dokumente usw.), kann die Indizierung länger dauern und sich möglicherweise auf die wahrgenommene Geschwindigkeit Ihres Computers während der Ausführung auswirken, sowohl bei der E / A- als auch bei der CPU-Nutzung . Dies bezieht sich nicht auf den freien Speicherplatz, sondern auf die Menge an indexierbarem Inhalt, die Sie haben. Das Freigeben von freiem Speicherplatz geht jedoch einher mit dem Speichern von mehr Inhalt, daher wird eine falsche Verbindung erstellt.

  • Antiviren Software. Ähnlich dem Beispiel für die Suchindexierung. Nehmen wir an, Sie haben eine Antivirus-Software eingerichtet, um den Hintergrund des Laufwerks zu scannen. Da Sie mehr und mehr scanbare Inhalte haben, benötigt die Suche mehr E / A- und CPU-Ressourcen, was möglicherweise Ihre Arbeit beeinträchtigt. Dies hängt wiederum mit der Menge an scanbarem Inhalt zusammen, den Sie haben. Mehr Inhalt bedeutet oft weniger freien Speicherplatz, aber der Mangel an freiem Speicherplatz ist nicht die Ursache.

  • Installierte Software. Nehmen wir an, Sie haben eine Menge Software installiert, die beim Booten Ihres Computers geladen wird, was die Startzeiten verlangsamt. Diese Verlangsamung tritt auf, weil viel Software geladen wird. Die installierte Software benötigt jedoch Speicherplatz auf der Festplatte. Daher nimmt der freie Speicherplatz der Festplatte zur gleichen Zeit ab, zu dem dies geschieht, und wieder kann eine falsche Verbindung leicht hergestellt werden.

  • Viele andere Beispiele in dieser Richtung, die zusammengenommen erscheinen den Mangel an freiem Speicherplatz mit geringerer Leistung in Verbindung zu bringen.

Die obigen Beispiele illustrieren einen weiteren Grund dafür, dass dies ein weit verbreiteter Mythos ist: Während fehlender freier Speicherplatz keine direkte Ursache für die Verlangsamung, das Deinstallieren verschiedener Anwendungen, das Entfernen indizierter oder gescannter Inhalte usw. ist (aber nicht immer; außerhalb des Rahmens dieser Antworten) erhöht sich Leistung aus Gründen, die nicht mit dem verbleibenden freien Speicherplatz zusammenhängen. Das gibt natürlich auch Festplattenspeicher frei. Daher kann wiederum eine scheinbare (aber falsche) Verbindung zwischen "mehr freiem Speicherplatz" und "schnellerem Computer" hergestellt werden.

Erwägen: Wenn Sie eine Maschine aufgrund vieler installierter Software usw. langsam laufen lassen und Ihre Festplatte genau auf eine größere Festplatte klonen und dann Ihre Partitionen erweitern, um mehr freien Speicherplatz zu erhalten, beschleunigt sich die Maschine nicht magisch. Die gleiche Software wird geladen, dieselben Dateien werden immer noch auf die gleiche Art und Weise fragmentiert, derselbe Suchindex läuft noch, nichts ändert sich, obwohl mehr freier Speicherplatz vorhanden ist.

Hat es damit zu tun, nach einem Speicherplatz zu suchen, wo man Dinge speichern kann?

Nein, tut es nicht. Es gibt zwei wichtige Dinge, die es wert sind, hier erwähnt zu werden:

  1. Ihre Festplatte sucht nicht nach Orten, an die Sie Dinge legen können. Deine Festplatte ist dumm. Es ist nichts. Es ist ein großer Block adressierten Speichers, der blindlings die Dinge dorthin bringt, wo Ihr Betriebssystem es sagt und liest, was auch immer von ihm verlangt wird. Moderne Laufwerke haben ausgeklügelte Caching- und Puffermechanismen, die darauf ausgelegt sind, basierend auf der Erfahrung, die wir im Laufe der Zeit erhalten haben, zu prognostizieren, was das Betriebssystem erwartet (einige Laufwerke kennen sogar das Dateisystem), aber denken Sie im Wesentlichen daran Ihre Festplatte ist nur ein großer Speicher mit gelegentlichen Bonus-Leistungsmerkmalen.

  2. Ihr Betriebssystem sucht auch nicht nach Orten, an denen Dinge abgelegt werden können. Es gibt kein "Suchen". Es wurde viel Mühe in die Lösung dieses Problems investiert, da dies für die Dateisystem-Performance von entscheidender Bedeutung ist. Die Art und Weise, wie Daten auf Ihrem Laufwerk gespeichert werden, wird von Ihrem System bestimmt Dateisystem. Zum Beispiel FAT32 (alte DOS und Windows PCs), NTFS (später Windows), HFS + (Mac), ext4 (einige Linuxes) und viele andere. Selbst das Konzept einer "Datei" und eines "Verzeichnisses" sind lediglich Produkte typischer Dateisysteme - Festplatten wissen nichts über die mysteriösen Biester, die man "Dateien" nennt. Details liegen außerhalb des Rahmens dieser Antwort. Aber im Wesentlichen haben alle gängigen Dateisysteme Möglichkeiten zu verfolgen, wo der verfügbare Platz auf einem Laufwerk ist, so dass eine Suche nach freiem Speicherplatz unter normalen Umständen (d. H. Dateisystem in gutem Zustand) unnötig ist. Beispiele:

    • NTFS hat ein Hauptdateitabelle, die die speziellen Dateien enthält $Bitmapusw. und viele Metadaten, die das Laufwerk beschreiben. Im Wesentlichen verfolgt es, wo die nächsten freien Blöcke sind, so dass neue Dateien direkt in freie Blöcke geschrieben werden können, ohne dass das Laufwerk jedes Mal gescannt werden muss.

    • Ein anderes Beispiel, ext4 hat was heißt das "Bitmap-Zuweiser", eine Verbesserung gegenüber ext2 und ext3, die es im Grunde hilft, direkt zu bestimmen, wo freie Blöcke sind, anstatt die Liste der freien Blöcke zu scannen. Ext4 unterstützt auch "Delayed Allocation", dh das Zwischenspeichern von Daten im RAM durch das Betriebssystem, bevor es auf das Laufwerk geschrieben wird, um bessere Entscheidungen darüber zu treffen, wo es platziert werden soll, um die Fragmentierung zu reduzieren.

    • Viele andere Beispiele.

oder Dinge bewegen, um einen genügend langen, kontinuierlichen Raum zu schaffen, um etwas zu sparen?

Nein. Das passiert nicht, zumindest nicht mit irgendeinem mir bekannten Dateisystem. Dateien werden nur fragmentiert.

Es wird der Prozess "Dinge bewegen, um einen ausreichend langen zusammenhängenden Raum zum Speichern von etwas zu bilden" genannt defragmentieren. Dies passiert nicht, wenn Dateien geschrieben werden. Dies passiert, wenn Sie Ihren Festplatten-Defragmentierer ausführen. Bei neueren Windows geschieht dies zumindest automatisch nach einem Zeitplan, aber es wird niemals durch das Schreiben einer Datei ausgelöst.

Fähig sein zu vermeiden Das Verschieben von Dingen wie dieser ist der Schlüssel für die Performance des Dateisystems. Deshalb kommt es zu Fragmentierung und warum Defragmentierung als separater Schritt existiert.

Wie viel freien Platz auf der Festplatte sollte ich frei lassen?

Das ist eine kniffligere Frage, und diese Antwort ist bereits zu einem kleinen Buch geworden.

Faustregeln:

  • Für alle Arten von Laufwerken:

    • Am wichtigsten, lassen Sie genügend freien Platz für Sie können Ihren Computer effektiv nutzen. Wenn Ihnen der Platz zum Arbeiten knapp wird, benötigen Sie eine größere Festplatte.
    • Viele Disk-Defragmentierungstools benötigen ein Minimum an freiem Speicherplatz (ich denke, der mit Windows benötigt 15% Worst-Case), um darin zu arbeiten. Sie nutzen diesen freien Platz, um fragmentierte Dateien temporär zu halten, während andere Dinge neu angeordnet werden.
    • Lassen Sie Platz für andere Betriebssystemfunktionen. Wenn Ihr Computer beispielsweise nicht über viel physischen Arbeitsspeicher verfügt und Sie virtuellen Speicher mit einer dynamisch bemessenen Auslagerungsdatei aktiviert haben, sollten Sie genügend Speicherplatz für die maximale Größe der Auslagerungsdatei reservieren. Wenn Sie einen Laptop in den Ruhezustand versetzen, benötigen Sie genügend freien Speicherplatz für die Ruhezustandsdatei. Sachen wie diese.
  • SSD-spezifisch:

    • Für eine optimale Zuverlässigkeit (und in geringerem Maße für die Performance) benötigen SSDs etwas freien Speicherplatz, den sie, um nicht zu sehr ins Detail zu gehen, für die Verbreitung von Daten rund um das Laufwerk verwenden, um nicht ständig an dieselbe Stelle zu schreiben. Dieses Konzept des Freiraums wird genannt Überversorgung. Es ist wichtig, Bei vielen SSDs gibt es jedoch bereits einen obligatorischen, überprovisionierten Speicherplatz. Das heißt, die Laufwerke haben oft ein paar Dutzend mehr GB als sie an das Betriebssystem melden. Bei untergeordneten Laufwerken müssen Sie oft manuell gehen unpartitioniert Platz, aber für Laufwerke mit obligatorischen OP, Sie müssen keinen freien Platz lassen. Eine wichtige Sache, die hier zu beachten ist, ist dass Überprovisionierter Speicherplatz wird oft nur aus nicht partitioniertem Speicherplatz bezogen. Wenn also Ihre Partition Ihr gesamtes Laufwerk belegt und Sie etwas freien Speicherplatz darauf lassen, ist das nicht der Fall immer Anzahl. Häufig müssen Sie bei einer manuellen Überprovisionierung Ihre Partition verkleinern, damit sie kleiner als die Größe des Laufwerks ist. Weitere Informationen finden Sie im Benutzerhandbuch Ihrer SSD. TRIM und Garbage Collection und solche Effekte haben ebenfalls Auswirkungen, aber diese liegen außerhalb des Rahmens dieser Antwort.

Persönlich ergreife ich normalerweise eine größere Festplatte, wenn ich noch 20-25% freien Platz habe. Das hängt nicht mit der Leistung zusammen, es ist nur so, dass ich, wenn ich an diesen Punkt komme, erwarte, dass mir bald der Speicherplatz für Daten ausgehen wird, und es ist Zeit, eine größere Festplatte zu bekommen.

Wichtiger als Freiraum zu betrachten, ist sicherzustellen, dass die geplante Defragmentierung gegebenenfalls aktiviert ist (nicht auf SSDs), so dass Sie nie zu dem Punkt kommen, an dem es so schlimm wird, dass es Sie betrifft. Genauso wichtig ist es, Fehlsteuerungen zu vermeiden und Ihr Betriebssystem dazu zu bringen, z. Deaktivieren Sie nicht den Windows-Vorablesefehler (außer für SSDs), etc.


Es gibt noch eine letzte erwähnenswerte Sache. Eine der anderen Antworten hier erwähnt, dass der Halbduplex-Modus von SATA das Lesen und Schreiben zur gleichen Zeit verhindert. Dies ist zwar stark vereinfacht und steht in keinem Zusammenhang mit den hier erörterten Leistungsproblemen. Das bedeutet einfach, dass Daten nicht in beide Richtungen übertragen werden können auf dem Draht gleichzeitig. SATA hat jedoch ein ziemlich komplexe Spezifikation mit winzigen maximalen Blockgrößen (ungefähr 8kB pro Block auf der Leitung, denke ich), Lese- und Schreib-Warteschlangen usw. und schließt Schreibvorgänge in Puffern, die während Lesevorgängen, verschachtelten Operationen usw. auftreten, nicht aus.

Jegliche Blockierung, die auftritt, würde darauf zurückzuführen sein, dass sie um physische Ressourcen konkurrieren, die normalerweise durch viel Cache gemildert werden. Der Duplex-Modus von SATA ist hier fast völlig irrelevant.


 "Verlangsamen" ist ein weiter Begriff. Hier verwende ich es, um Dinge zu bezeichnen, die entweder I / O-gebunden sind (zB wenn dein Computer dort knirschende Zahlen hat, der Inhalt der Festplatte keinen Einfluss hat), oder CPU-gebunden und mit tangential verwandten Dingen konkurriert hohe CPU-Auslastung (z. B. Antivirussoftware, die viele Dateien scannt).

†† SSDs sind von der Fragmentierung betroffen sind sequentielle Zugriffsgeschwindigkeiten in der Regel schneller als Direktzugriff, trotz SSDs nicht die gleichen Einschränkungen wie ein mechanisches Gerät (selbst dann, Mangel an Fragmentierung garantiert nicht sequentiellen Zugriff, aufgrund der Verschleiß-Leveling, etc., wie James Snell Anmerkungen in Kommentaren). In praktisch jedem allgemeinen Anwendungsszenario ist dies jedoch kein Problem. Leistungsunterschiede aufgrund von Fragmentierung auf SSDs sind in der Regel vernachlässigbar, beispielsweise beim Laden von Anwendungen, beim Booten des Computers usw.

††† Ein normales Dateisystem vorausgesetzt, das Dateien nicht absichtlich fragmentiert.


310
2018-04-20 10:08



Sehr umfassende Antwort, danke. Auch danke für die Erinnerung an einen Kaffee, es wurde sehr geschätzt. - Hashim


Zusätzlich zu Nathaniel Meeks Erklärung Für HDDs gibt es ein anderes Szenario für SSDs.

SSDs sind nicht anfällig für verstreute Daten, da die Zugriffszeit auf einen beliebigen Ort auf der SSD gleich ist. Die typische SSD-Zugriffszeit beträgt 0,1 ms im Vergleich zu einer typischen HDD-Zugriffszeit von 10 bis 15 ms. Es ist jedoch empfindlich für Daten, die bereits auf der SSD geschrieben sind

Im Gegensatz zu herkömmlichen Festplatten, die vorhandene Daten überschreiben können, benötigt eine SSD vollständig freien Speicherplatz zum Schreiben von Daten. Dies geschieht durch Funktionen namens Trim und Garbage Collection, die Daten löschen, die als gelöscht markiert wurden. Garbage Collection funktioniert am besten in Kombination mit einer bestimmten Menge an freiem Speicherplatz auf der SSD. Normalerweise werden 15% bis 25% des freien Speicherplatzes empfohlen.

Wenn die Speicherbereinigung ihren Job nicht rechtzeitig abschließen kann, wird jeder Schreiboperation eine Bereinigung des Speicherplatzes vorangestellt, an den die Daten geschrieben werden sollen. Das verdoppelt die Zeit für jede Schreiboperation und verschlechtert die Gesamtleistung.

Hier ist ein ausgezeichneter ArtikelDas erklärt die Funktionsweise von Trim und Garbage Collection


22
2018-04-19 23:37



Beachten Sie, dass SSDs in teilweise gefüllte Zellen schreiben können, indem sie die Teildaten lesen und mit mehr geschriebenen Daten zurückschreiben, aber das tendiert dazu, dies nur zu tun, wenn es unvermeidlich ist. Dies ist natürlich auch ziemlich langsam und zeigt normalerweise an, dass das Laufwerk so stark fragmentiert ist, dass es ziemlich viel Zeit in Anspruch nimmt, um es jemals wieder schnell schreiben zu lassen. - fluffy
Das hängt auch vom Controller ab. Und da es so viele Variationen gibt, wollte ich nicht in diese Detailebene gehen. - whs
Die 15-25%, von denen Sie sprechen, werden als "Überversorgung" bezeichnet. Auf einigen Laufwerken ist bereits Speicherplatz dafür reserviert (z. B. hat der 1 TB EVO 840 9% reserviert und wird dem Betriebssystem nicht als frei gemeldet), für die Sie keinen freien Speicherplatz freilassen müssen. Ich glaube, dass in einigen Fällen der überprovisionierte Speicherplatz auch nicht partitioniert sein muss, und wenn Sie einfach freien Speicherplatz auf Ihrem Dateisystem lassen, wird er nicht geschnitten, und Sie müssen tatsächlich nicht zugewiesenen Speicherplatz freilassen. - Jason C
Over-Provisioning ist etwas anderes. Das sind Nands im Stand-by, um defekte Nands zu ersetzen. Die 15-25% werden benötigt, um Blöcke (Seiten) und Wear Leveling freizugeben. Vielleicht möchten Sie hier lesen für Details ==> thessdreview.com/daily-news/latest-buzz/... - whs
@whs Es ist nicht, und der Artikel, den Sie verlinken, impliziert nicht, dass es ist. Überprovisionierter Speicherplatz (Siehe auch Quellen in diesem Abschnitt, oder Google) ist der Pool von freien Blöcken, Blöcke in diesem Pool werden für Garbage Collection / Fast Writes, Wear Leveling und Ersatz defekter Zellen verwendet. Was defekte Zellen betrifft, ist alles im selben Pool; Sobald es voll mit defekten Zellen ist, sehen Sie die konsistenten Fehler. Siehe auch Folie 12 in diese Präsentation von LSI; Das Ganze ist es wert, durchgegangen zu werden, es spricht das Thema direkt an. - Jason C


Irgendwo in einer traditionellen Festplatte ist eine sich drehende Metallplatte, wo die einzelnen Bits und Bytes tatsächlich codiert sind. Wenn Daten zur Platte hinzugefügt werden, speichert der Plattencontroller sie zuerst auf der Außenseite der Platte. Wenn neue Daten hinzugefügt werden, wird Speicherplatz verwendet, der sich zuletzt zur Innenseite der Platte bewegt.

In Anbetracht dessen gibt es zwei Effekte, die dazu führen, dass die Festplattenleistung abnimmt, wenn die Festplatte voll ist: Sucht Zeiten und Rotationsgeschwindigkeit.

Sucht Zeiten

Um auf Daten zugreifen zu können, muss eine herkömmliche Festplatte einen Lese- / Schreibkopf physisch an die richtige Position bewegen. Dies braucht Zeit, die "Suchzeit" genannt wird. Hersteller veröffentlichen die Suchzeiten für ihre Festplatten, und es ist in der Regel nur ein paar Millisekunden. Das klingt vielleicht nicht viel, aber für einen Computer ist es eine Ewigkeit. Wenn Sie lesen oder schreiben müssen Menge von verschiedenen Plattenstandorten, um eine Aufgabe zu erledigen (was üblich ist), können diese Suchzeiten zu einer merklichen Verzögerung oder Latenz führen.

Ein Laufwerk, das fast leer ist, hat die meisten Daten in oder nahe der gleichen Position, typischerweise am äußeren Rand nahe der Ruheposition des Schreib- / Lesekopfs. Dies verringert die Notwendigkeit, über die Festplatte zu suchen, was die Suchzeit erheblich reduziert. Ein Laufwerk, das fast voll ist, muss nicht nur häufiger und mit größeren / längeren Suchbewegungen über die Festplatte suchen, sondern kann auch Schwierigkeiten haben, verwandte Daten in demselben Sektor zu halten, was die Festplattensuche weiter erhöht. Das nennt man fragmentiert Daten.

Das Freigeben von Speicherplatz kann die Suchzeiten verbessern, da der Defragmentierungsdienst nicht nur fragmentierte Dateien schneller bereinigen, sondern auch Dateien nach außerhalb der Festplatte verschieben kann, so dass die durchschnittliche Suchzeit kürzer ist.

Rotationsgeschwindigkeit

Festplatten rotieren mit einer festen Rate (normalerweise 5400 U / min oder 7200 U / min für Ihren Computer und 10000 U / min oder sogar 15000 U / min auf einem Server). Es benötigt auch einen festen Speicherplatz auf dem Laufwerk (mehr oder weniger), um ein einzelnes Bit zu speichern. Bei einer Festplatte, die sich mit einer festen Rotationsgeschwindigkeit dreht, hat die Außenseite der Festplatte eine höhere lineare Geschwindigkeit als das Innere der Festplatte. Dies bedeutet, dass Bits in der Nähe des äußeren Randes der Platte sich mit einer höheren Geschwindigkeit als die Bits in der Nähe der Mitte der Platte am Lesekopf vorbeibewegen, und somit kann der Lese- / Schreibkopf Bits in der Nähe des äußeren Randes der Platte schneller lesen oder schreiben innere.

Ein Laufwerk, das fast leer ist, wird die meiste Zeit damit verbringen, auf Bits in der Nähe der schnelleren äußeren Kante der Disc zuzugreifen. Ein Laufwerk, das fast voll ist, benötigt mehr Zeit für den Zugriff auf Bits in der Nähe des langsameren inneren Teils der Disc.

Auch hier kann das Leeren von Festplattenspeicher den Computer schneller machen, indem der Defrag-Service Daten nach außerhalb der Festplatte verschieben kann, wo Lese- und Schreibvorgänge schneller sind.

Manchmal bewegt sich eine Disk tatsächlich zu schnell für den Lesekopf, und dieser Effekt wird reduziert, da Sektoren nahe der äußeren Kante gestaffelt sind ... geschrieben außerhalb der Reihenfolge, so dass der Lesekopf mithalten kann. Aber insgesamt gilt das.

Beide dieser Effekte kommen zu einem Festplattencontroller, der zuerst Daten in dem schnelleren Teil des Datenträgers gruppiert und die langsameren Teile des Datenträgers nicht verwendet, bis es erforderlich ist. Wenn die Festplatte voll ist, wird mehr und mehr Zeit im langsameren Teil der Festplatte verbraucht.

Die Auswirkungen gelten auch für neue Laufwerke. Bei sonst gleichen Verhältnissen ist ein neues 1-TB-Laufwerk schneller als ein neues 200-GB-Laufwerk, weil das 1-TB-Gerät Bits näher beieinander speichert und die inneren Spuren nicht so schnell füllt. Der Versuch, dies zu verwenden, um Kaufentscheidungen zu treffen, ist jedoch selten hilfreich, da Hersteller mehrere Platten verwenden können, um die 1 TB Größe zu erreichen, kleinere Platten, um ein 1 TB System auf 200 GB zu begrenzen, Software- / Plattencontrollereinschränkungen, um eine 1 TB Platte auf nur 200 GB zu beschränken Speicherplatz, oder verkaufen Sie eine Festplatte mit unvollständigen / fehlerhaften Platten von einem 1 TB Laufwerk mit vielen schlechten Sektoren als 200 GB Laufwerk.

Andere Faktoren

Es ist erwähnenswert, dass die oben genannten Effekte ziemlich gering sind. Computerhardwareingenieure verbringen viel Zeit damit, diese Probleme zu minimieren, und Dinge wie Festplattenpuffer, Superfetch-Caching und andere Systeme arbeiten alle daran, das Problem zu minimieren. Auf einen gesund System mit viel freiem Speicherplatz, werden Sie wahrscheinlich nicht einmal bemerken. Außerdem haben SSDs völlig andere Leistungsmerkmale. Die Effekte sind jedoch vorhanden, und ein Computer wird langsamer, wenn das Laufwerk voll ist. Auf einem ungesund System, wo der Speicherplatz sehr gering ist, können diese Effekte eine Festplatten-Thrash-Situation erzeugen, in der die Festplatte ständig fragmentierte Daten hin- und herbewegt, und das Freigeben von Speicherplatz kann dies beheben, was zu dramatischeren und merklicheren Verbesserungen führt.

Darüber hinaus bedeutet das Hinzufügen von Daten zum Datenträger, dass bestimmte andere Vorgänge, wie Indizierung oder AV-Scans und Defragmentierungsprozesse, gerade ausgeführt werden Mehr im Hintergrund arbeiten, auch wenn es bei oder in etwa der gleichen Geschwindigkeit wie zuvor läuft.

Schließlich ist die Festplattenleistung enorm Indikator der PC-Gesamtleistung heutzutage ... ein noch größerer Indikator als CPU-Geschwindigkeit. Selbst ein kleiner Abfall des Platten-Durchsatzes wird sehr oft mit einem realen wahrgenommenen Gesamtabfall der PC-Leistung gleichgesetzt. Dies gilt insbesondere, da die Festplattenleistung nicht wirklich mit den CPU- und Speicherverbesserungen Schritt gehalten hat. Die 7200-RPM-Festplatte ist seit über einem Jahrzehnt der Desktop-Standard. Mehr denn je ist diese traditionelle drehende Festplatte der Flaschenhals in Ihrem Computer.


12
2018-04-21 16:54



Die Erhöhung der Suchzeit ist kein Ergebnis des geringen freien Speicherplatzes, sondern eine Folge der Datenorganisation. Das Freigeben von Speicherplatz verringert nicht die Suchzeiten, wenn Ihre Daten bereits auf dem Laufwerk liegen. In ähnlicher Weise wird ein knapper Speicherplatz nicht plötzlich die Suchzeiten für nicht zusammenhängende Daten erhöhen, die bereits gut organisiert waren. Was noch wichtiger ist: Sei vorsichtig, wenn du beides mit "einem langsamen Computer" assoziierst. Zum Beispiel werden Sie nicht schneller im Internet surfen, nur weil die ausführbare Datei Ihres Browsers unfragmentiert ist und sich außerhalb eines mechanischen Laufwerks befindet, und Ihre MP3s werden auch im schlimmsten Fall immer noch flüssig abgespielt. - Jason C
@ JasonC Jeder dieser Punkte gilt als isoliert, aber als Teil des gesamten Systems kann zu echten Verlangsamungen führen. Ein Beispiel ist diese Behauptung: "Freeing disk space won't decrease seek times if your data is already all over the drive."Ich kann das nicht von sich aus bestreiten, aber ich kann darauf hinweisen, dass der Defragendienst diese Daten jetzt in Richtung Laufwerksfront verschieben kann, und jetzt diese Dinge werden Suchzeiten verbessern. Andere Punkte in Ihrem Kommentar weisen ähnliche Leistungsindikatoren auf: Wenn Sie nicht genügend Speicherplatz auf der Festplatte haben, wird die Suche nach gut organisierten Daten nicht erhöht, aber es ist weniger wahrscheinlich, dass Daten organisiert bleiben. - Joel Coehoorn
@JasonC Allerdings habe ich meiner Antwort basierend auf Ihrem Kommentar ein paar Zeilen hinzugefügt, um die Titelfrage direkter anzugehen. - Joel Coehoorn
Na sicher; aber meine Hauptpunkte sind 1), dass die Verlangsamung eine Folge von etwas ist sonstAuch wenn wenig freier Speicherplatz einer von vielen Faktoren sein kann, und 2) Sie müssen wirklich vorsichtig mit diesem Thema sein, es ist einer von denen, auf die Leute sehr schnell zugreifen. Wenn ein gelegentlicher Benutzer bemerkt, dass sein Computer langsam ist, Wirklichkeit es ist sehr ungewöhnlich, dass z. B. Fragmentierung (z. B.) die eigentliche Ursache ist. Aber dann lasen sie eine Menge Sachen im Internet, installierten ccleaner, 50 Festplatten-Defragmentierer, machten ein paar schlechte Registry-Verbesserungen usw. Müssen hier auf die Massen eingehen; Die Klügeren brauchen unsere Antworten nicht. - Jason C
Diese Antwort deutet auf Kurzhub (künstlich begrenzte HD-Größe, um Daten in den schnelleren, äußeren Regionen zu halten) und einige potentielle Probleme damit. Ich mag es auch, weil es nicht bestreitet, dass in den meisten Fällen ein Laufwerk für die meisten Benutzer fragmentierter wird, wenn es voll wird. Es ist zwar erwähnenswert, dass der freie Speicherplatz nicht der ist tatsächlich Problem ist es sinnlos, die allgemeine Benutzererfahrung zu ignorieren, wenn es um eine allgemeine Benutzererfahrung geht. - Smithers


Alle anderen Antworten sind technisch richtig - aber ich habe immer gefunden, dass dieses einfache Beispiel es am besten erklärt.

Dinge sortieren ist wirklich einfach wenn du viel Platz hast ... aber schwer wenn du den Platz nicht hast ... Computer brauchen auch Platz!

Dieser Klassiker "15 Rätsel"ist knifflig / zeitraubend, weil Sie nur 1 freies Feld haben, um die Kacheln herum zu mischen, um sie in die richtige Reihenfolge 1-15 zu bringen.

hard 15 puzzle

Wenn der Platz jedoch viel größer ist, könntest du dieses Rätsel in weniger als 10 Sekunden lösen.

easy 15 puzzle

Für jeden, der jemals mit diesem Puzzle gespielt hat, scheint das Verständnis der Analogie natürlich zu sein. ;-)


6
2018-04-22 17:24



Dies ist jedoch kein analoges Dateisystemverhalten. Es etwas ähnelt dem allgemeinen Prozess der Defragmentierung, ich schätze, obwohl defragmentieren, relativ zu dieser Puzzle-Analogie, können Sie Zahlen aus dem Board entfernen und sie überall wo Sie wollen, wie Sie es lösen. - Jason C
Zusätzlich zu Jasons Kommentar oben möchte ich auf das Offensichtliche hinweisen: diese Antwort bezieht sich auf Sortierung (Defragmentieren), erklärt aber nicht warum zugreifen eine bestimmte zufällige Kachel (z. B. die Kachel "3") wäre im zweiten Fall schneller als im ersten Fall. - Michael Kjörling
Weil Sie nicht nur auf "3" zugreifen. Sie greifen auf "1-15" zu. Während ich gebe zu, dass das im Beispiel nicht kristallklar ist, nahm ich es wie verstanden. Vielleicht lohnt es sich, etwas wie "Dieses Puzzle ist analog zu einer einzelnen fragmentierten Datei" zu erwähnen. Große Antwort, macht die Dinge geistig zugänglich! - Smithers
Um dies zu verdeutlichen: Das Hauptproblem bei der Analogie ist, dass Sie im eigentlichen Puzzle nur Kacheln in angrenzende leere Felder verschieben können. Das heißt, in dem winzigen Beispiel könnten nur 6 oder 13 in den leeren Raum bewegt werden. Das macht das Puzzle herausfordernd; Es ist der Punkt des Spieles. Wenn Sie jedoch eine Festplatte defragmentieren, können Sie z. 4 zu dem leeren Raum, 1 zu seiner korrekten Position und so weiter, ziemlich einfach zu lösen, in genau so vielen Zügen wie der Fall mit viel Platz. Die Analogie bricht wirklich zusammen, da der Kern des Puzzles nicht gilt: Kein Dateisystem funktioniert so. - Jason C
"Weil Sie nicht nur auf" 3 "zugreifen. Sie greifen auf "1-15" zu - das ist Unsinn. Die Antwort erklärt nicht, warum der Zugriff auf eine bestimmte zufällige Kachel im zweiten Fall schneller wäre als im ersten Fall, weil die Antwort völlig falsch ist. Nicht nur das Defragmentieren ist nicht so beschränkt, wie das Puzzle ist, sondern "knifflige / zeitraubende" Defragmentierung hat keinen Einfluss auf die Systemleistung. - Jim Balter


Ein Computer, der auf einer sich drehenden mechanischen Festplatte sehr wenig Speicherplatz hatte, wird im Allgemeinen langsamer, wenn die Dateifragmentierung zunimmt. Erhöhte Fragmentierung bedeutet langsames Lesen - sehr im Extremfall langsam.

Sobald sich ein Computer in diesem Zustand befindet, wird durch das Freigeben von Speicherplatz das Problem nicht behoben. Sie müssten auch die Festplatte defragmentieren. Bevor sich ein Computer in diesem Zustand befindet, wird die Freigabe des Speicherplatzes nicht beschleunigt. es wird einfach die Wahrscheinlichkeit verringern, dass Fragmentierung ein Problem wird.

Dies gilt nur für Computer mit sich drehenden mechanischen Festplatten, da die Fragmentierung einen vernachlässigbaren Einfluss auf die Lesegeschwindigkeit von SSDs hat.


5
2018-04-20 13:46



Eine gute, saubere, einfache Antwort, die auch das Kernproblem anspricht. - Smithers


Flash-Festplatten können definitiv langsamer werden, wenn sie voll oder fragmentiert sind, obwohl die Mechanismen zur Verlangsamung anders sind als bei einer physischen Festplatte. Ein typischer Flash-Speicherchip wird in eine Anzahl von Löschblöcken aufgeteilt, von denen jeder aus einer großen Anzahl (Hunderte, wenn nicht Tausende) von Schreibseiten besteht und drei primäre Operationen unterstützt:

  1. Lesen Sie eine Flash-Seite.
  2. Schreiben Sie auf eine zuvor leere Flash-Seite.
  3. Löschen Sie alle Flash-Seiten in einem Block.

Während es theoretisch möglich wäre, jedes Schreiben auf ein Flash-Laufwerk alle Seiten von einem Block lesen zu lassen, einen im Puffer zu ändern, den Block zu löschen und dann den Puffer zurück auf das Flash-Gerät zu schreiben, wäre ein solcher Ansatz extrem langsam; Es würde auch wahrscheinlich zu Datenverlust führen, wenn zwischen dem Zeitpunkt, an dem der Löschvorgang gestartet und der Rückschreibvorgang beendet wurde, Strom verloren gegangen ist. Außerdem würden sich häufig beschriebene Teile der Platte extrem schnell abnutzen. Wenn die ersten 128 Sektoren der FAT zum Beispiel in einem Flash-Block gespeichert würden, wäre das Laufwerk tot, nachdem die Gesamtzahl der Schreibvorgänge in allen diesen Sektoren etwa 100.000 erreicht hat, was nicht sehr viel ist, insbesondere angesichts dieser 128 Sektoren würde ungefähr 16.384 FAT-Einträge enthalten.

Da der obige Ansatz fürchterlich funktionieren würde, wird das Laufwerk veranlassen, dass es eine leere Seite identifiziert, die Daten dort schreibt und irgendwie die Tatsache aufzeichnet, dass der fragliche logische Sektor an dieser Stelle gespeichert ist. Solange genügend leere Seiten verfügbar sind, kann dieser Vorgang schnell fortgesetzt werden. Wenn leere Seiten jedoch knapp werden, muss das Laufwerk möglicherweise Blöcke suchen, die relativ wenige "Live" -Seiten enthalten, alle aktiven Seiten in diesen Blöcken zu einigen der verbleibenden leeren Seiten verschieben und die alten Kopien als " tot"; Danach kann das Laufwerk Blöcke löschen, die nur "tote" Seiten enthalten.

Wenn ein Laufwerk nur halb voll ist, dann wird es sicherlich mindestens einen Block geben, der höchstens halb voll ist von Live-Seiten (und es wird sehr wahrscheinlich einige Blöcke geben, die wenige oder keine enthalten). Wenn jeder Block 256 Seiten enthält und die am wenigsten vollen Blöcke 64 Live-Seiten enthalten (ein mäßig schlechter Fall), dann muss das Laufwerk für jeden 192 angeforderten Sektor-Schreibvorgang 64 zusätzliche Sektorkopien und einen Blocklöschvorgang durchführen (so die Durchschnittskosten) von jedem Sektor schreiben wäre etwa 1,34 Seitenschreibvorgänge und 0,005 Blocklöschungen). Selbst im schlimmsten Fall würden alle 128 Sektorschreibvorgänge 128 zusätzliche Sektorkopien und eine Blocklöschung erfordern (durchschnittliche Kosten pro Schreibvorgang von 2 Seitenschreibvorgängen und 0,01 Blocklöschungen).

Wenn ein Laufwerk zu 99% voll ist und die Blöcke mit dem niedrigsten Gesamtwert 248/256 Live-Seiten haben, werden für jeden Sektor 8 Schreibvorgänge und ein Blocklöschvorgang benötigt, was zu Kosten pro Schreibvorgang von 32 Seitenschreibvorgängen und 0,125 Block führt löscht - eine sehr ernste Verlangsamung.

Je nachdem, wie viel "extra" Speicher ein Laufwerk hat, können die Dinge nicht so schlecht werden. Nichtsdestoweniger kann die Worst-Case-Leistung sogar dann, wenn eine Festplatte zu 75% voll ist, mehr als doppelt so schlimm sein wie die Worst-Case-Leistung, wenn sie zu 50% belegt ist.


4
2018-04-20 16:10





Du hast es ziemlich gut verstanden. Sie können sich eine SATA-Festplatte als Halbduplex-Kommunikationsmedium vorstellen (dh, sie kann nur Daten gleichzeitig empfangen oder übertragen. Nicht beides.) Wenn das Laufwerk längere Zeit nicht verwendet wird, suchen Sie nach einem freien Speicherort zu, es kann keine Daten für Sie lesen. Als Faustregel sollten Sie Ihre Laufwerke aus diesem Grund nicht über 80% Kapazität aufladen. Je umfangreicher der Wert ist, desto höher ist die Wahrscheinlichkeit, dass Dateien fragmentiert werden, wodurch das Laufwerk während Leseanforderungen gebunden wird (wodurch Schreibanforderungen blockiert werden).

Es gibt eine Reihe von Dingen, die Sie tun können, um mit diesen Problemen zu helfen:

  • Reduzieren Sie die Menge an Daten, die Sie gespeichert haben, und defragmentieren Sie Ihr Laufwerk regelmäßig.
  • Wechseln Sie zu flashbasiertem Speicher.
  • Halten Sie Massendaten auf einem separaten Laufwerk von Ihrem Betriebssystem gespeichert.
  • Und so weiter und so fort...

3
2018-04-19 23:12



Bei der Verwendung von Flash kann das Laufwerk fast augenblicklich lesen oder schreiben (und nicht beides) (9 ms ist eine ziemlich normale Suchzeit auf einer HDD, wo SSDs typischerweise eine "Suchzeit" im Bereich von Piko- und Nanosekunden haben) Speicherort auf der Festplatte. en.wikipedia.org/wiki/... - Nathanial Meek
Fortsetzen poing 2: Dies ist, was z.B. das $Bitmap Datei ist für NTFS oder die Bitmap-Zuweiser in ext4. I.e. Diese Antwort verbreitet einige ernste Fehlinformationen. 3. Es gibt viel Lese- und Schreibpufferung und Zwischenspeichern, was viel von diesem Problem macht. Diese Antwort beschreibt etwas die Auswirkungen der Fragmentierung, und selbst dann, wenn sie auf ältere Dateisysteme beschränkt ist, ist sie auf freiem Speicherplatz sicherlich nicht genau. Das Freigeben von Festplattenspeicher beschleunigt einen Computer nicht. - Jason C
@JasonC, solltest du deine Kommentare in eine Antwort verwandeln. - Celos
Dies passiert nicht: "Wenn das Laufwerk für eine längere Zeit aufgehalten wird und nach einem freien Speicherort für das Schreiben sucht, kann es keine Daten für Sie lesen."- Es tut es einfach nicht. So funktionieren Dateisysteme nicht. Bearbeiten Sie Ihre Antwort, um die Verbreitung von Fehlinformationen zu unterbinden. - RomanSt
@NathanialMeek Sie mischen Ebenen ein wenig. :) Der Halbduplex-Modus von SATA bedeutet, dass nur Daten übertragen werden können auf dem Draht in eine Richtung. Lese- und Schreibvorgänge auf höherer Ebene erfolgen in kleinen Blöcken (FIS genannt) in SATA-spezifizierten Betriebswarteschlangen. Sie können asynchron sein, und schnelle Lese- und Schreibvorgänge können in und aus dem integrierten Cache ausgeführt und über DMA direkt in den Systemspeicher geleitet werden. SATA-Controller können außerdem Befehle neu anordnen, um die Effizienz zu optimieren. Punkt ist: Die Leitung wird nicht besetzt gehalten, während physische Vorgänge abgeschlossen sind, und der Halbduplex-Modus von SATA hat nicht den Effekt, von dem Sie denken, dass er dies tut. - Jason C


Nach dem Short & Sweet-Ansatz lautet meine übermäßig vereinfachte Antwort (streng beschränkt auf Ihre Hauptverwirrung):

So lange wie du

  1. OS hat genug (für Worst-Case-Szenarien) Platz, um seine Aufgaben wie Paging / Swapping / etc zu erfüllen.
  2. Andere Software haben auch genügend Platz für ihre jeweiligen Bedürfnisse.
  3. Die Festplatte ist defragmentiert.

Dann können Sie den Leistungsunterschied zwischen einer 80% leeren und einer 30% leeren Festplatte nicht unterscheiden und sich um nichts anderes kümmern, als immer mehr neue Daten zu speichern.

Alles andere, was mehr Speicherplatz benötigt, wird zu schlechten Leistungen führen, da es jetzt einen Mangel an verfügbarem Platz geben könnte.

Natürlich ist die Scheibenreinigung über ein Werkzeug gut wie:

  1. Temporäre Dateien sollten regelmäßig bereinigt werden, um wertvollen Speicherplatz zu erhalten.
  2. Alte Protokolldateien sind nichts als Platzverschwendung.
  3. Reste der installierten / nicht installierten Software sind sehr unangenehm.
  4. Cookies müssen gelöscht werden, wenn Sie Ihre Online-Privatsphäre schätzen.
  5. Ungültige Verknüpfungen usw.

All diese (und viele weitere) Gründe führen zu der schlechteren Leistung, da all diese Faktoren das Betriebssystem immer wieder verwirren, wenn sie die richtige Menge von Bits finden, mit der sie arbeiten können.


3
2018-04-24 19:11



Eine ordentliche Zusammenfassung, aber nicht so sicher über den Abschnitt "ABER". Im Besonderen: 3) Hat im Allgemeinen keine spürbaren Auswirkungen auf die Leistung, trotz üblicher Ausflüchte. 4) Cookies sind nicht von Natur aus problematisch und unabhängig von der Meinung, Privatsphäre steht nicht im Zusammenhang mit Leistung oder Festplattenplatz, 5) Kaputte Abkürzungen sind hässlich, aber im Allgemeinen inkonsequent sonst. Nichts davon "verwirrt" irgendein gewöhnliches Betriebssystem. Sei vorsichtig mit den "Tipps" und "Tweaks", denen du folgst. Seien Sie vorsichtig mit unnötigen Cleanup-Tools, insbesondere Registry-Reiniger oft Gefahr für Null Nutzen. - Jason C


Eine Auswirkung auf drehende Laufwerke, die ich nicht erwähnt habe: Zugriffsgeschwindigkeit und Datenübertragungsgeschwindigkeit unterscheiden sich auf verschiedenen Teilen einer Festplatte.

Eine Disk rotiert mit fester Geschwindigkeit. Die Spuren an der Außenseite einer Platte sind länger und können daher mehr Daten pro Spur speichern als die Spuren im Inneren. Wenn Ihr Laufwerk 100 MB / s von den äußersten Spuren lesen kann, beträgt die Geschwindigkeit auf den innersten Spuren weniger als 50 MB / s.

Gleichzeitig gibt es weniger Spuren zwischen 1 GB Daten auf den äußeren Spuren der Festplatte als zwischen 1 GB Daten auf den innersten Spuren. Im Durchschnitt wird also für extern gespeicherte Daten weniger Kopfbewegung benötigt als für Daten auf den innersten Spuren.

Das Betriebssystem versucht, wenn möglich, die äußersten Spuren zu verwenden. Natürlich ist es nicht möglich, wenn die Festplatte voll ist. Durch das Löschen von Daten wird Speicherplatz zur Verfügung gestellt, wenn die Übertragungsgeschwindigkeit höher ist und die Vorgänge schneller ausgeführt werden. Aus dem gleichen Grund sollten Sie sich drehende Festplatten kaufen, die größer als benötigt sind, wenn Sie Geschwindigkeit wünschen (solange es erschwinglich ist), da Sie am Ende nur die schnellsten Teile des Laufwerks verwenden.


2
2018-04-20 14:10



Hinzufügen: en.wikipedia.org/wiki/Zone_bit_recording, die mit einigen Details darauf trifft. Bemerkenswert: Vorhandene Daten werden nicht verschoben. Dies kann sich auf das Speichern neuer Daten auswirken (abhängig vom Speicherort auf dem Laufwerk, nicht direkt auf freiem Speicherplatz), aber es "verlangsamt" nicht die vorhandenen Dateien, auf die vor dem Schreiben auf der Innenseite glücklich zugegriffen wurde. Fwiw das billigste 1TB 7200RPM 3,5 "Laufwerk, das ich bei Amazon gefunden habe, hat eine User-Benchmarked durchschnittliche Lesegeschwindigkeit von 144MB / s; selbst wenn Unterschiede auf inneren und äußeren Spuren berücksichtigt werden, kann dies kein Engpass bei der Gelegenheitsnutzung sein. - Jason C
@JasonC I / O-Leistung in Bezug auf sequentiellen Durchsatz ist in der Praxis fast nie ein Problem; Selbst eine langsame 4900 rpm-Festplatte wird für fast jeden einzelnen Benutzer schnell genug sein. Die E / A-Leistung in Bezug auf Lese- / Schreibvorgänge pro Sekunde wird in den meisten Fällen die Leistung beeinträchtigen. Fragen Sie Ihren lokalen bevorzugten Systemadministrator über Rotationsspeicher-IOPS in Mehrbenutzersystemen, wenn Sie dies wünschen. Das ist der Hauptgrund, warum heutzutage praktisch niemand Rotationsspeicher für Mehrbenutzersysteme einsetzt. Sie können einfach niemals die IOPS von SSDs erreichen. - Michael Kjörling