Diskussion:Self-Monitoring, Analysis and Reporting Technology

aus Wikipedia, der freien Enzyklopädie
Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „Self-Monitoring, Analysis and Reporting Technology“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen, und unterschreibe deinen Beitrag bitte mit Icondarstellung des Buttons zur Erzeugung einer Signatur oder --~~~~.
Zum Archiv

Defekte Weblinks

GiftBot (Diskussion) 21:10, 2. Dez. 2015 (CET)

Die korrekte Verknüpfung zum Artikel auf linux-community lautet: https://www.linux-community.de/ausgaben/linuxuser/2004/10/die-zuverlaessigkeit-von-festplatten-ueberwachen-mit-smartmontools/ . -- mema (Diskussion) 10:28, 18. Jul. 2019 (CEST)

"pending Sectors"

Meines Wissens steht bei "schwebenden Sektoren" nicht zwangsläufig ein Mapping auf einen Reservesektor an, sondern zuerst mal ist da die Prüfung "anstehend/bevorstehend/unerledigt", ob ein fehlgeschlagener Leseversuch durch einen tatsächlichen physikalischen Defekt verursacht wurde, oder möglicherweise durch ein - oft nicht exakt zu identifizierendes - von mehreren möglichen Ereignissen verursacht wurde, wie z.B. eine Schwankung in der Spannungsversorgung, eine (mech.) Beschleunigung des Computers (durch einen Ruck, oder jemanden/etwas, der/das den Rechner angestoßen hat, etc.).

So wie jede Festplatte schon bei Auslieferung defekte Sektoren hat (die in der "PList" gespeichert sind), und im laufenden Betrieb neu hinzugekommene defekte Sektoren in der "GList" speichert ([1]), treten auch im normalen Betrieb ständig Fälle auf, wo das Lese-Ergebnis nicht mit der Prüfsumme übereinstimmt, und die Fehlerkorrektur eingesetzt werden muß. Es ist also nicht so, daß die in der Regel nur bei physikalisch beschädigten Sektoren überhaupt aktiv wird, sondern die hat auch im "normalen" Betrieb ständig was zu tun. Damit wird auch plausibler, daß in seltenen Fällen deren Algorithmen mal versagen, und ein erneuter Leseversuch als "anstehend" von der Firmware registriert wird. Oft liegt dann auch tatsächlich ein phys. Schaden vor, aber eben nicht immer. --2A02:8109:92C0:1F08:B82A:262B:E99:B2C5 20:31, 1. Okt. 2018 (CEST)

In deiner Quelle steht nicht dass jede Festplatte schon bei der Auslieferung defekte Sektoren hat, nur dass es eine Liste für bei der Auslieferung defekte Sektoren gibt. Eine Liste kann auch leer sein. --MrBurns (Diskussion) 02:05, 2. Okt. 2018 (CEST)
Wer nur ganz ein kleines bisschen Ahnung vom Fach hat, der weiß, dass es "Stand der Technik" ist und schon immer so war, dass Festplatten in der Regel schon bei der Auslieferung (eigentlich Herstellung) defekte Sektoren haben. Theoretisch könnte es durch Zufall natürlich auch mal eine ohne einen einzigen defekten Sektor geben. Die Wahrscheinlichkeit sollte aber eher gering sein. -- WikiMax - 08:47, 2. Okt. 2018 (CEST)

nun, zufalls ist das nicht, es ist eher das ziel bei der herstellung und es gute praxis, festplatten mit 0 fehlern dann als so genannte "null fehler festplatte" zu verkaufen - und die mit mehr als 15 kaputten sektoren als B-ware. -bubu 2020-09 (nicht signierter Beitrag von 79.218.234.35 (Diskussion) 05:33, 24. Sep. 2020 (CEST))

Ich weiß, dass man früher einmal Festplatten selbst low level formatieren musste und dabei die defekten Sektoren angeben musste, die auf einer (oft handgeschriebenen) Liste vom Hersteller mitgeliefet wurden.[2] Allerdings kann ich nicht ausschließen, dass heute die Herstellung so viel zuverlässiger ist, dass trotz der höheren Datendichte nicht mehr jede Festplatte schon bei der Herstellung defekte Sektoren bekommt. --MrBurns (Diskussion) 09:29, 2. Okt. 2018 (CEST)
Wenn du es gewusst hast, warum hast du dann im Web nachsehen müssen? ;-) Und die Liste stand gerne (logischerweise handgeschrieben, wie sonst?) auf der HDD (bei 5,25" ist schon bisserl Platz, auch zum Nachtragen) und beim Low-Level-Formatieren wurden die defekten Sektoren ausgegeben, angezeigt, nicht an-/eingegeben. Das Low-Level-Formatieren diente eben auch zum Überprüfen auf defekte Sektoren bzw. zum Versuchen, Sektoren wieder nutzbar zu machen. Ist aber ein paar Jahre her, also IIRC.
Warum sollten Hersteller viel Geld in eine absolut fehlerfreie, sehr teure Herstellung stecken, wenn die Fehler so absolut leicht und billig "auszublenden" sind, und dies auch noch ohne echten Nachteil für die Käufer? Es geht um wirtschaftliche Herstellung, nicht um Perfektion. Und wie oben schon erwähnt, natürlich ist nicht garantiert, dass jede HDD bereits mindestens einen Eintrag in der P-List hat, aber Wahrscheinlichkeit und Wirtschaftlichkeit sprechen dagegen. -- WikiMax - 11:08, 2. Okt. 2018 (CEST)
Man konnte mit den Low Level Format Tools für MFM/RLL-Platten durchaus auch defekte Sektoren eintragen. Das passierte aber eigentlich nach der normalen Formatierung, indem der Status des Sektors auf "bad" gesetzt wurde. Der Sinn war, dass der Hersteller die Plattenoberfläche schon sehr genau überprüft hat und man sich die Überprüfung dann selbst sparen konnte und außerdem schon Probleme entdeckt werden konnten, die noch zu keinen Fehler führten, aber die Ausfallswahrscheinlichkeit des Sektors während der Lebensdauer der Festplatte erhöhten. Ich vermute solche gerade noch brauchbaren Sektoren werden auch heute bei HDDs vom Hersteller auf die P-Liste eingetragen. Dass Fehler in der G-Liste auftauchen (was dann der Kunde per S.M.A.R.T.-Attribut angezeigt bekommt) ist bei gut funktionierenden HDDs daher auch selten und oft ein zeichen für einen baldigenm Ausfall, selbst wenns nur ein paar wenige Sektoren sind, siehe S.M.A.R.T. (Parameter 5 Reallocated Sectors Count). --MrBurns (Diskussion) 20:29, 2. Okt. 2018 (CEST)

Ihr müsst anscheinend beide noch älter sein, als ich. Ich kann mich nur erinnern, daß zu Zeiten von 4/60/100Mhz-CPUs Windows mit Scandisk die defekten Sektoren ermitteln musste.
95% der Normaluser werden allerdings noch nie etwas von P/G-Listen und defekten Sektoren schon bei Neuware gehört haben. Und die Platte trägt diese sehr wohl in die G-Liste ein, S.M.A.R.T. meldet allerdings erst defekte Sektoren, wenn die Reserve-Sektoren nahezu aufgebraucht sind.

Ich halte es für eine gute Ergänzung/Erweiterung des Artikels, zumindest für die kritischen SMART-Werte anzugeben, ob die rauf, oder runter gezählt werden und wie man die einzelnen Werte interpretiert. Die Temperatur gibt CrystalDiskInfo für meine 2 Platten + 1 SSD z.B. viel zu hoch an. Da scheint es je nach Hersteller unterschiedl. Umrechnungsfaktoren zu geben, möglicherweise auch je nach HDD-Modell?

Wieviel Prozent (von/bis) der verfügbaren Sektoren/Blöcke bei HDDs/SSDs werden z.B. üblicherweise als Reserve vorgesehen? Ich würde gern den Informationswert des Artikels für "Normalverbraucher" verbessern, so daß er die Werte besser einordnen kann. --2A02:8109:92C0:1F08:B82A:262B:E99:B2C5 02:43, 4. Okt. 2018 (CEST) meines wissens nach gar keine, außer das drive hat overprovisioning. bei SSDs z.b. hast du bei einer "128 gb" gar keine reserve, bei einer "100 gb" hingegen sind 128 drauf, von denen du aber nur 100 nutzen kannst, und der rest ist reserve. -bubu 2020-09 (nicht signierter Beitrag von 79.218.234.35 (Diskussion) 05:38, 24. Sep. 2020 (CEST))

"S.M.A.R.T. meldet allerdings erst defekte Sektoren, wenn die Reserve-Sektoren nahezu aufgebraucht sind." - wie kommst du darauf? Laut dem Standard werden alle wiederzugewiesenen (also defekten) Sektoren angezeigt. Daher sollte man davon ausgehen können, dass die G-Liste leer ist, solange S.M.A.R.T. 0 defekte Sektoren (Parameter 5) meldet. --MrBurns (Diskussion) 09:53, 4. Okt. 2018 (CEST)
OK, falsch ausgedrückt. Was ich meinte, ist daß man anhand des Beispiels sieht, daß 51 defekte Sektoren von der Firmware noch als problemlos angesehen werden, also kein "baldiger Ausfall". Die RAW-Value gibt zwar die defekten Sektoren an, trotzdem bleibt der VALUE-Wert aber lange Zeit noch bei max. .
In dem Zusammenhang wäre halt z.B. interessant zu wissen, wieviel % üblicherweise (bei Desktop-Platten) als Reserve vorgesehen sind. Daraus ließe sich die Anzahl der Reservesektoren abschätzen und ins Verhältnis zu den als ausgefallen gemeldeten setzen. --2A02:8109:92C0:1F08:B82A:262B:E99:B2C5 03:28, 5. Okt. 2018 (CEST)
Ich glaub ich hab mal gelesen, dass die Zahl der Reservesektoren so im Bereich 5-10% ist, das wären bei einer modernen Festplatte im TB-Bereich Millionen Sektoren (obwohl die Festplatten intern heute alle 4KB-Sektoren verwenden). Dennoch ist schon der Ausfall einiger weniger Sektoren schon ein Zeichen eines baldigen Ausfalls. S.M.A.R.T. zeigt da leider oft erst sehr spät eine Warnung (z.B. bei 51 defekten Sektoren), was wohl auch daran liegt, dass defekte Sektoren gelegentlich auch durch nichtkritische Ursachen entstehen können (z.B. durch ein Unterbrechung der Stromzufuhr während dem Schreiben). Der Grund warum schon wenige defekte Sektoren (falls sie nicht durch Stromausfälle o.Ä. verursacht werden) Zeichen eines baldigen Ausfalls sind dürfte sein, dass sie Zeichen einer Alterung/Abnutzung der Platteroberfläche sind, die i.d.R. nicht nur einen kleinen Bereich betrifft. --MrBurns (Diskussion) 07:34, 10. Okt. 2018 (CEST)
Habe aus leidvoller Erfahrung festgestellt, daß eine 2.5" 320GB SATA-Platte von Western Digital (WD3200BMVS) keinen einzigen Reservesektor hatte, vermutlich um die Kapazität zu maximieren. (und trotz mehrerer tausend unlesbarer Sektoren (und abbrechenden Selbsttests) wurde der S.M.A.R.T.-Status als OK eingestuft)--Uhw (Diskussion) 00:34, 18. Nov. 2018 (CET)
Weit du das sicher? Wenn ein Cluster vom Betriebssystem als fehlerhaft erkannt wird, wird er einfach gesperrt und es gibt keinen Ersatz, auch wenn die Festplatte den betroffenen Sektor später reallokiert. Es gibt Programme, die die vom Betriebssystem als fehlerhaft markierten Cluster scannen und wenn sie dann fehlerfrei sind die bad-Markierung entfernen, aber im Fall dass die Platte mehrere tausend fehlerhafte Sektoren hat sowieso das einzige sinnvolle, möglichst schnell ein Backup anzulegen und dann die Platte zu ersetzen. --MrBurns (Diskussion) 04:35, 18. Nov. 2018 (CET)

ich verstehe die beispieldaten (mittlere tabelle) teilweise nicht. warum hat die beispiel-HD, die sich zwischen "old age" und "prefail" bewegt, nur 1770 stunden strom gehabt? das sind 9 wochen. festplatten laufen aber doch eher 4 jahre. -bubu 2020-09

S.M.A.R.T.-Programme im Vergleich

Hard Disk Sentinel Pro wird im Artikel gar nicht erwähnt, dass kann so ziemlich alles. Auch Selbstest starten und alle möglichen Tests, sollte man in dem Vergleich mitaufnehmen. --2003:C4:B70E:7D00:3D7E:7F8C:9B31:701E 19:01, 22. Mär. 2021 (CET)