Discussion:
Suche schnellere Daten-Festplatte >= 8TB als ST8000AS0002
(zu alt für eine Antwort)
Herbert Haberl
2017-12-18 12:59:38 UTC
Permalink
Hallo,

wir haben als Datengrab und Backup-Festplatte für die ganze Familie zwei Seagate ST8000AS0002.
Beide funktionieren tadellos, nur sie sind nahezu voll und werden immer langsamer. Eine davon
ist im externen Gehäuse und die andere im PC meines Enkels verbaut.

Da mein Enkel sich jetzt einen neuen Z370-Gamer-PC zusammenbaut, möchten ich ihm eine zusätzliche
Festplatte spendieren. Die soll auch weiterhin als Datengrab und für Backups herhalten, aber
auch schneller sein, als die ST8000AS0002. Im neuen Rechner ist eine M.2-960 für Betriebssystem,
Spiele und Videoschnitt geplant.

Gibt es eine gute und schnelle Festplatte mit >= 8TB zu einem guten Preis/Leistungsverhältnis
oder werden die Festplatten dann richtig teuer, wenn sie auch schnell sein sollen?

Hab Dank für Eure Antworten
HH
Marcel Mueller
2017-12-18 23:05:43 UTC
Permalink
Post by Herbert Haberl
Da mein Enkel sich jetzt einen neuen Z370-Gamer-PC zusammenbaut, möchten ich ihm eine zusätzliche
Festplatte spendieren. Die soll auch weiterhin als Datengrab und für Backups herhalten, aber
auch schneller sein, als die ST8000AS0002.
Da wirst Du kein Glück haben. Schnell und Groß schließen sich bei HDDs aus.
Bei der hohen Spurdichte ist es reine Glückssache, wo der
Schreib-Lesekopf nach einem Spurwechsel landet. Es braucht daher oft
mehrere Versuche, die richtige Spur zu finden. Das kostet Zeit.
Zudem haben die ganz großen Platten oft SMR, was das Schreiben kleinerer
Blöcke extrem verlangsamt.
Post by Herbert Haberl
Im neuen Rechner ist eine M.2-960 für Betriebssystem,
Spiele und Videoschnitt geplant.
Die sollte schnell genug sein. ;-)
Post by Herbert Haberl
Gibt es eine gute und schnelle Festplatte mit >= 8TB zu einem guten Preis/Leistungsverhältnis
oder werden die Festplatten dann richtig teuer, wenn sie auch schnell sein sollen?
Nein, die werden nicht teuer, es gibt sie einfach nicht. Schnelle
Profi-Platten haben kleinere Kapazitäten, weil man sonst kein Backup
mehr anfertigen kann. Ich meine, es sollte halt schon weniger lang für
das Backup brauchen, als die Zeit bis zum /nächsten/ Backup. Und dabei
sollten idealerweise auch noch ein paar IOPS für den alltäglichen
Betrieb übrig bleiben.
Ein 8TB Grab rückt ihre Daten bei weniger als 30% Last nicht innerhalb
von 24 Stunden raus. Damit ist sie für den professionellen Einsatz
ungeeignet.


Marcel
Thomas Einzel
2017-12-19 22:55:05 UTC
Permalink
Post by Marcel Mueller
Post by Herbert Haberl
Da mein Enkel sich jetzt einen neuen Z370-Gamer-PC zusammenbaut,
möchten ich ihm eine zusätzliche
Festplatte spendieren. Die soll auch weiterhin als Datengrab und für
Backups herhalten, aber
auch schneller sein, als die ST8000AS0002.
Da wirst Du kein Glück haben.
Ein wenig schon. Die aktuellen PMR Platten mit 10TB und 12TB sind schon
schneller als die alte SMR-Archive ST8000AS0002. Und sie brauchen keine
SMR Aufräumrunden.
...
Post by Marcel Mueller
Post by Herbert Haberl
Gibt es eine gute und schnelle Festplatte mit >= 8TB zu einem guten
Preis/Leistungsverhältnis
Mehrere, geizhals.de als Produktfilter kann ich weiterhin empfehlen,
bitte selbst weiter anpassen:
https://geizhals.de/?cat=hde7s&xf=8457_non-SMR~958_8000&asuch=&bpmin=&bpmax=&v=e&hloc=de&plz=&dist=&mail=&fcols=958&bl1_id=30&sort=r

BTW: meine letzte HDD ist eine Seagate Ironwolf mit 10TB. Unauffällig
funktionell.
https://geizhals.de/?cat=hde7s&v=e&hloc=de&fcols=958&sort=r&bl1_id=30&xf=10287_IronWolf%7E8457_non-SMR%7E957_Seagate%7E958_8000
Keine schnelle Bootplatte, aber als "Datengrab" + Backups IMO gut.
Voraussetzung man weiß, dass ein Backup = kein Backup ist.
--
Thomas
Herbert Haberl
2017-12-20 08:28:47 UTC
Permalink
Hallo Thomas!

Hab Dank für Deine Antwort!
Post by Thomas Einzel
Post by Marcel Mueller
Post by Herbert Haberl
Da mein Enkel sich jetzt einen neuen Z370-Gamer-PC zusammenbaut,
möchten ich ihm eine zusätzliche
Festplatte spendieren. Die soll auch weiterhin als Datengrab und für
Backups herhalten, aber
auch schneller sein, als die ST8000AS0002.
Da wirst Du kein Glück haben.
Ein wenig schon. Die aktuellen PMR Platten mit 10TB und 12TB sind schon
schneller als die alte SMR-Archive ST8000AS0002. Und sie brauchen keine
SMR Aufräumrunden.
Dank für diesen Hinweis auch an Dich. SMR vs. PMR. Habe es nachgelesen.
Post by Thomas Einzel
....
Post by Marcel Mueller
Post by Herbert Haberl
Gibt es eine gute und schnelle Festplatte mit >= 8TB zu einem guten
Preis/Leistungsverhältnis
Mehrere, geizhals.de als Produktfilter kann ich weiterhin empfehlen,
https://geizhals.de/?cat=hde7s&xf=8457_non-SMR~958_8000&asuch=&bpmin=&bpmax=&v=e&hloc=de&plz=&dist=&mail=&fcols=958&bl1_id=30&sort=r
Wenn man weiß, wonach mal filtert, ist vieles einfacher. :-) non-SMR
oder PMR, das hilft!
Post by Thomas Einzel
BTW: meine letzte HDD ist eine Seagate Ironwolf mit 10TB. Unauffällig
funktionell.
https://geizhals.de/?cat=hde7s&v=e&hloc=de&fcols=958&sort=r&bl1_id=30&xf=10287_IronWolf%7E8457_non-SMR%7E957_Seagate%7E958_8000
Keine schnelle Bootplatte, aber als "Datengrab" + Backups IMO gut.
Was ist denn der Unterschied zwischen IronWolf und IronWolf Pro?
Die Pro sind für NAS, was ich nicht habe, oder?

"Seagate IronWolf Pro NAS HDD +Rescue 12TB, SATA 6Gb/s (ST12000NE0007)"
Was bedeutet das +Rescue?
Post by Thomas Einzel
Voraussetzung man weiß, dass ein Backup = kein Backup ist.
Wenn Du darauf abzielst, dass man nicht nur einen Backup auf eine Festplatte
haben soll, dann ist es mir bewußt. Daher haben wir zwei ST8000AS0002 und
sichern/duplizieren/spiegeln obendrein noch auf den PCs untereinander die
wichtigsten Daten, also jeweils aktueller Stand.

Hab Dank für Deine Antwort
HH
Shinji Ikari
2017-12-20 10:14:30 UTC
Permalink
Guten TAg
Post by Herbert Haberl
Post by Thomas Einzel
BTW: meine letzte HDD ist eine Seagate Ironwolf mit 10TB. Unauffällig
funktionell.
https://geizhals.de/?cat=hde7s&v=e&hloc=de&fcols=958&sort=r&bl1_id=30&xf=10287_IronWolf%7E8457_non-SMR%7E957_Seagate%7E958_8000
Keine schnelle Bootplatte, aber als "Datengrab" + Backups IMO gut.
Was ist denn der Unterschied zwischen IronWolf und IronWolf Pro?
Die Ironwolf ist fuer kleinere NAS (bis zu 8 Laufwerke) vorgesehen und
hat rund 3 Jahre Herstellergarantie mit max. 180TB pro Jahr.
Die Ironwolf Pro ist fuer groessere NAS (bis zu 16 Laufwerke)
vorgesehen, hat eine dahingehend optimierte Vibrationserkennung und
Gegenmasnahmen incl. Datebrettungsservice (in engen Grenzen) und 5
Jahren Herstellergarantie fuer max rund 300TB pro Jahr.

Sollten beide Platten gleich viel kosten ist es eigentlich egal,
welche man im Privatbereich (bis 8HDDs im selben NAS/PC) nimmt.
Post by Herbert Haberl
Die Pro sind für NAS, was ich nicht habe, oder?
Sie sind geeignet fuer NAS, was aber nicht gegen den EInsatz in einem
stationaeren PC spricht.
https://www.seagate.com/de/de/internal-hard-drives/hdd/ironwolf/
Post by Herbert Haberl
"Seagate IronWolf Pro NAS HDD +Rescue 12TB, SATA 6Gb/s (ST12000NE0007)"
Was bedeutet das +Rescue?
Dass man fuer einen begrenzten Zeitraum (siehe unten) als Promotion
eine Datenrettung mitkauft. IMHO ist ein geeignetes Backupkonzept
sinnvoller.
https://www.seagate.com/de/de/internal-hard-drives/hdd/ironwolf/
"...IronWolf Pro wird einschließlich des Rescue
Datenwiederherstellungsdienstes für fünf Jahre (1)+(2) geliefert.
Für einen begrenzten Zeitraum wurde ein Plan für den Rescue
Datenwiederherstellungsdienst auf die beschränkte 5-Jahres-Garantie
Ihrer IronWolf Pro-Festplatte angepasst.

Ihre Daten sind wichtig und ein Rescue Plan zur Datenwiederherstellung
sorgt für die beruhigende Gewissheit, dass Ihre Daten im Falle
unerwarteter mechanischer Schäden stets sicher sind. Der Rescue Plan
gewährt Ihnen Zugang zu einem weltweit agierenden Team erstklassiger
Datenwiederherstellungs-Experten, die für eine 95-prozentige
Kundenzufriedenheit sorgen.

Erwerben und registrieren Sie die IronWolf Pro, um Ihren kostenlosen
Rescue Plan zu aktivieren. Dieser Plan gilt dann für fünf Jahre.
Informationen zu verlängerten Laufzeiten erhalten Sie bei der
Registrierung.
Weitere Informationen
...
(1) Der Rescue Datenwiederherstellungsdienst für fünf Jahre ist nur
von 1. Oktober bis 31. Dezember 2017 erhältlich.
(2) Wiederherstellungsdienste sind nicht in allen Ländern verfügbar.
Weitere Informationen erhalten Sie bei Ihrem
Seagate-Vertriebsmitarbeiter...."
Herbert Haberl
2017-12-20 12:18:12 UTC
Permalink
Hallo,

vielen Dank für all Deine hilfreichen Antworten!
Post by Shinji Ikari
Guten TAg
Post by Herbert Haberl
Post by Thomas Einzel
BTW: meine letzte HDD ist eine Seagate Ironwolf mit 10TB. Unauffällig
funktionell.
https://geizhals.de/?cat=hde7s&v=e&hloc=de&fcols=958&sort=r&bl1_id=30&xf=10287_IronWolf%7E8457_non-SMR%7E957_Seagate%7E958_8000
Keine schnelle Bootplatte, aber als "Datengrab" + Backups IMO gut.
Was ist denn der Unterschied zwischen IronWolf und IronWolf Pro?
Die Ironwolf ist fuer kleinere NAS (bis zu 8 Laufwerke) vorgesehen und
hat rund 3 Jahre Herstellergarantie mit max. 180TB pro Jahr.
Die Ironwolf Pro ist fuer groessere NAS (bis zu 16 Laufwerke)
vorgesehen, hat eine dahingehend optimierte Vibrationserkennung und
Gegenmasnahmen incl. Datebrettungsservice (in engen Grenzen) und 5
Jahren Herstellergarantie fuer max rund 300TB pro Jahr.
Ja, das habe ich auch herausgefunden.
Post by Shinji Ikari
Sollten beide Platten gleich viel kosten ist es eigentlich egal,
welche man im Privatbereich (bis 8HDDs im selben NAS/PC) nimmt.
Da ist schon ein Preisunterschied von gut 60 Euro bei der 10 TB.
Post by Shinji Ikari
Post by Herbert Haberl
Die Pro sind für NAS, was ich nicht habe, oder?
Sie sind geeignet fuer NAS, was aber nicht gegen den EInsatz in einem
stationaeren PC spricht.
https://www.seagate.com/de/de/internal-hard-drives/hdd/ironwolf/
Es ist halt die Frage, ob sich der Geschwindigkeitsunterschied bemerkbar
macht und die zusätzlichen 2 Jahre längere Garantie die 60 Euro Wert sind.
Post by Shinji Ikari
Post by Herbert Haberl
"Seagate IronWolf Pro NAS HDD +Rescue 12TB, SATA 6Gb/s (ST12000NE0007)"
Was bedeutet das +Rescue?
Dass man fuer einen begrenzten Zeitraum (siehe unten) als Promotion
eine Datenrettung mitkauft. IMHO ist ein geeignetes Backupkonzept
sinnvoller.
https://www.seagate.com/de/de/internal-hard-drives/hdd/ironwolf/
"...IronWolf Pro wird einschließlich des Rescue
Datenwiederherstellungsdienstes für fünf Jahre (1)+(2) geliefert.
Für einen begrenzten Zeitraum wurde ein Plan für den Rescue
Datenwiederherstellungsdienst auf die beschränkte 5-Jahres-Garantie
Ihrer IronWolf Pro-Festplatte angepasst.
Ihre Daten sind wichtig und ein Rescue Plan zur Datenwiederherstellung
sorgt für die beruhigende Gewissheit, dass Ihre Daten im Falle
unerwarteter mechanischer Schäden stets sicher sind. Der Rescue Plan
gewährt Ihnen Zugang zu einem weltweit agierenden Team erstklassiger
Datenwiederherstellungs-Experten, die für eine 95-prozentige
Kundenzufriedenheit sorgen.
Erwerben und registrieren Sie die IronWolf Pro, um Ihren kostenlosen
Rescue Plan zu aktivieren. Dieser Plan gilt dann für fünf Jahre.
Informationen zu verlängerten Laufzeiten erhalten Sie bei der
Registrierung.
Weitere Informationen
....
(1) Der Rescue Datenwiederherstellungsdienst für fünf Jahre ist nur
von 1. Oktober bis 31. Dezember 2017 erhältlich.
(2) Wiederherstellungsdienste sind nicht in allen Ländern verfügbar.
Weitere Informationen erhalten Sie bei Ihrem
Seagate-Vertriebsmitarbeiter...."
Das brauche ich nicht.

Hab Dank für Deine Antwort
HH
Herbert Haberl
2017-12-20 10:17:55 UTC
Permalink
Post by Herbert Haberl
Post by Thomas Einzel
BTW: meine letzte HDD ist eine Seagate Ironwolf mit 10TB. Unauffällig
funktionell.
https://geizhals.de/?cat=hde7s&v=e&hloc=de&fcols=958&sort=r&bl1_id=30&xf=10287_IronWolf%7E8457_non-SMR%7E957_Seagate%7E958_8000
Keine schnelle Bootplatte, aber als "Datengrab" + Backups IMO gut.
Was ist denn der Unterschied zwischen IronWolf und IronWolf Pro?
Die Pro sind für NAS, was ich nicht habe, oder?
Aus https://www.computerbase.de/2017-10/seagate-barracuda-pro-ironwolf-pro-12-tb/

BarraCuda Pro 12 TB - 250 MB/s - 300 TByte/Jahr - 5 Jahre - Desktop
IronWolf 12 TB - 210 MB/s - 180 TByte(Jahr - 3 Jahre - kleinere NAS bis 8 Festplatten
IronWolf Pro 12 TB - 250 MB/s - 300 TByte/Jahr - 3 Jahre - NAS bis 16 Festplatten

Merkt man den Unterschied zwischen 210 MB/s und 250 MB/s? 2 Jahre mehr
Herstellergarantie hätte ich bisher einmal gebrauchen können.
Post by Herbert Haberl
"Seagate IronWolf Pro NAS HDD +Rescue 12TB, SATA 6Gb/s (ST12000NE0007)"
Was bedeutet das +Rescue?
Meinen die Damit Datenrettung im Fehlerfalle?

Hab Dank für Eure Antworten
HH
Shinji Ikari
2017-12-20 11:23:56 UTC
Permalink
Guten Tag
Post by Herbert Haberl
Aus https://www.computerbase.de/2017-10/seagate-barracuda-pro-ironwolf-pro-12-tb/
BarraCuda Pro 12 TB - 250 MB/s - 300 TByte/Jahr - 5 Jahre - Desktop
IronWolf 12 TB - 210 MB/s - 180 TByte(Jahr - 3 Jahre - kleinere NAS bis 8 Festplatten
IronWolf Pro 12 TB - 250 MB/s - 300 TByte/Jahr - 3 Jahre - NAS bis 16 Festplatten
Merkt man den Unterschied zwischen 210 MB/s und 250 MB/s?
Bei sequentiellem Transfer grosser Dateien: ja.
Beim wahlfreien Transfer kleiner Dateien: nicht wirklich.
Post by Herbert Haberl
2 Jahre mehr
Herstellergarantie hätte ich bisher einmal gebrauchen können.
Wenn es Dir der (meist etwas hoeherer) Preis wert ist, kannst DU die
ja kaufen.
Post by Herbert Haberl
Post by Herbert Haberl
"Seagate IronWolf Pro NAS HDD +Rescue 12TB, SATA 6Gb/s (ST12000NE0007)"
Was bedeutet das +Rescue?
Meinen die Damit Datenrettung im Fehlerfalle?
Siehe mein vorheriges Posting mit dem enthaltenen Link: ja.
Herbert Haberl
2017-12-20 12:21:57 UTC
Permalink
Hallo!
Post by Shinji Ikari
Post by Herbert Haberl
Aus https://www.computerbase.de/2017-10/seagate-barracuda-pro-ironwolf-pro-12-tb/
BarraCuda Pro 12 TB - 250 MB/s - 300 TByte/Jahr - 5 Jahre - Desktop
IronWolf 12 TB - 210 MB/s - 180 TByte(Jahr - 3 Jahre - kleinere NAS bis 8 Festplatten
IronWolf Pro 12 TB - 250 MB/s - 300 TByte/Jahr - 3 Jahre - NAS bis 16 Festplatten
Merkt man den Unterschied zwischen 210 MB/s und 250 MB/s?
Bei sequentiellem Transfer grosser Dateien: ja.
Beim wahlfreien Transfer kleiner Dateien: nicht wirklich.
Ok, das war eine sehr hilfreiche Aussage!
Post by Shinji Ikari
Post by Herbert Haberl
2 Jahre mehr
Herstellergarantie hätte ich bisher einmal gebrauchen können.
Wenn es Dir der (meist etwas hoeherer) Preis wert ist, kannst DU die
ja kaufen.
Das Thema Geschwindigkeitsunterschied ist es mir nicht wert. Wie ist Deine
Erfahrung? Lohnen sich die zusätzlichen 2 Jahre längere Garantie? Bei mir
sterben die Festplatten entweder innerhalb der ersten 12 Monate oder nie :-)

Hab Dank für Deine Antwort
HH
Shinji Ikari
2017-12-20 17:32:51 UTC
Permalink
Guten Tag
Post by Herbert Haberl
Post by Shinji Ikari
Wenn es Dir der (meist etwas hoeherer) Preis wert ist, kannst DU die
ja kaufen.
Das Thema Geschwindigkeitsunterschied ist es mir nicht wert. Wie ist Deine
Erfahrung?
Aus Preisgruenden habe ich mir keien Ironwolf Pro gekauft.
Mir reichen die weitaus guenstigeren normalen Ironwolf.
Und Geschwindigkeit stelle ich anfangs nur beim Test fest. Danach sind
die Platten fuer Raid vorgesehen und da erreiche ich schon mir den
Archive-Platten Schreibgeschwindigkeiten (im Raidverbund) mit
Spitzenwerden oberhalb von 400MByte/s.
Post by Herbert Haberl
Lohnen sich die zusätzlichen 2 Jahre längere Garantie?
Fuer mich nach aktueller Lage nicht.
Ich habe bisher selbst bei den 8TB Platten eine ueberraschend geringe
Ausfallrate erlebt. Die 10TB habe ich dahingehend zu kurz in Betrieb,
als das sich dazu bisher eine wirklich fundierte Aussage treffen kann,
gehe aber davon aus, dass die erstmal weiter problemlos laufen werden.
wenn ich 2-3 Jahren die Garantie um ist und evtl. viele Platten
ausgefallen sind, koennte ich das eher beantworten, aber das hilft Dir
jetzt leider nichts.
Herbert Haberl
2018-01-05 09:39:49 UTC
Permalink
Hallo!
Post by Shinji Ikari
Post by Herbert Haberl
Post by Shinji Ikari
Wenn es Dir der (meist etwas hoeherer) Preis wert ist, kannst DU die
ja kaufen.
Das Thema Geschwindigkeitsunterschied ist es mir nicht wert. Wie ist Deine
Erfahrung?
Aus Preisgruenden habe ich mir keien Ironwolf Pro gekauft.
Mir reichen die weitaus guenstigeren normalen Ironwolf.
Ok, danke, diese Antwort war sehr hilfreich.
Post by Shinji Ikari
Und Geschwindigkeit stelle ich anfangs nur beim Test fest. Danach sind
die Platten fuer Raid vorgesehen und da erreiche ich schon mir den
Archive-Platten Schreibgeschwindigkeiten (im Raidverbund) mit
Spitzenwerden oberhalb von 400MByte/s.
Gut, das schafft eine einzelne HDD nicht :-)
Post by Shinji Ikari
Post by Herbert Haberl
Lohnen sich die zusätzlichen 2 Jahre längere Garantie?
Fuer mich nach aktueller Lage nicht.
Ich habe bisher selbst bei den 8TB Platten eine ueberraschend geringe
Ausfallrate erlebt. Die 10TB habe ich dahingehend zu kurz in Betrieb,
als das sich dazu bisher eine wirklich fundierte Aussage treffen kann,
gehe aber davon aus, dass die erstmal weiter problemlos laufen werden.
Genau das wollte ich hören.

Hab Dank für Deine Antwort
HH
Thomas Einzel
2017-12-20 20:01:33 UTC
Permalink
Post by Herbert Haberl
Hallo Thomas!
...
Post by Herbert Haberl
Post by Thomas Einzel
BTW: meine letzte HDD ist eine Seagate Ironwolf mit 10TB. Unauffällig
funktionell.
https://geizhals.de/?cat=hde7s&v=e&hloc=de&fcols=958&sort=r&bl1_id=30&xf=10287_IronWolf%7E8457_non-SMR%7E957_Seagate%7E958_8000
Keine schnelle Bootplatte, aber als "Datengrab" + Backups IMO gut.
Was ist denn der Unterschied zwischen IronWolf und IronWolf Pro?
Die Pro sind für NAS, was ich nicht habe, oder?
Die Herstellerlinks mit den Spezifikationen findet man bei geizhals im
Produktlink oben mitte-rechts.

Ich habe die Platte ausgewählt die in der Kompatibilitätsliste meines
NAS stand.
Post by Herbert Haberl
"Seagate IronWolf Pro NAS HDD +Rescue 12TB, SATA 6Gb/s (ST12000NE0007)"
Was bedeutet das +Rescue?
(Daten)Rettung.

Wenn man das braucht, hat man schon (zu viel) falsch gemacht.
Post by Herbert Haberl
Post by Thomas Einzel
Voraussetzung man weiß, dass ein Backup = kein Backup ist.
Wenn Du darauf abzielst, dass man nicht nur einen Backup auf eine Festplatte
haben soll, dann ist es mir bewußt. Daher haben wir zwei ST8000AS0002 und
sichern/duplizieren/spiegeln obendrein noch auf den PCs untereinander die
wichtigsten Daten, also jeweils aktueller Stand.
Das ist besser als nichts, aber in vielen Backupkonzepten steht aus
gutem Grund, steht dass die Backupmedien/Backupsätze bis auf den
Zeitpunkt der Sicherung offline sein müssen und das minimal 2
Backupsätze nötig sind. Dass kann man im Heimbereich sehr einfach mit
minimal 2 großen externen Festplatten erreichen, auf die abwechselnd
gesichert wird.
Raid2 (Spiegelung) ist kein Backup, sondern hohe Verfügbarkeit.

Stell dir vor der Blitz schlägt ein und alle in Betrieb befindlichen
Rechner haben einen Überspannungsschaden, was bleibt an Backupdaten übrig?
--
Thomas
Frank Möller
2017-12-20 20:34:44 UTC
Permalink
Post by Thomas Einzel
Post by Herbert Haberl
Hallo Thomas!
Post by Thomas Einzel
Voraussetzung man weiß, dass ein Backup = kein Backup ist.
Wenn Du darauf abzielst, dass man nicht nur einen Backup auf eine Festplatte
haben soll, dann ist es mir bewußt. Daher haben wir zwei ST8000AS0002 und
sichern/duplizieren/spiegeln obendrein noch auf den PCs untereinander die
wichtigsten Daten, also jeweils aktueller Stand.
Das ist besser als nichts, aber in vielen Backupkonzepten steht aus
gutem Grund, steht dass die Backupmedien/Backupsätze bis auf den
Zeitpunkt der Sicherung offline sein müssen und das minimal 2
Backupsätze nötig sind. Dass kann man im Heimbereich sehr einfach mit
minimal 2 großen externen Festplatten erreichen, auf die abwechselnd
gesichert wird.
Na ja, ist IMO auch noch zuwenig, siehe unten.
Post by Thomas Einzel
Raid2 (Spiegelung) ist kein Backup, sondern hohe Verfügbarkeit.
Jep.
Post by Thomas Einzel
Stell dir vor der Blitz schlägt ein und alle in Betrieb befindlichen
Rechner haben einen Überspannungsschaden, was bleibt an Backupdaten übrig?
Laut Murphy schlägt der Blitz natürlich während eines Backup-Laufs ein und
grillt alle angeschlossenen Datenträger, inkl. dem gerade angestöpselten
externen Laufwerk. Darüber erschrickt die eine nun ganz allein verbleibende
externe Platte so sehr, daß ihr einfällt, daß sie für den ganzen Sch***
eigentlich schon viel zu alt ist und jetzt auch nicht mehr mag...

--
Marcel Mueller
2017-12-20 20:41:51 UTC
Permalink
Post by Frank Möller
Laut Murphy schlägt der Blitz natürlich während eines Backup-Laufs ein und
grillt alle angeschlossenen Datenträger, inkl. dem gerade angestöpselten
externen Laufwerk. Darüber erschrickt die eine nun ganz allein verbleibende
externe Platte so sehr, daß ihr einfällt, daß sie für den ganzen Sch***
eigentlich schon viel zu alt ist und jetzt auch nicht mehr mag...
Deshalb habe ich mir für den Preis einer externen Platte eine
LTO-Library geschossen. Das kostet mich jedes weitere Tera nur etwa 10€
für die (gebrauchten) Tapes.
Aber so luxuriös wie mit einer Platte ist Backup/Restore damit natürlich
nicht.


Marcel
Frank Möller
2017-12-20 21:35:04 UTC
Permalink
Post by Marcel Mueller
Post by Frank Möller
Laut Murphy schlägt der Blitz natürlich während eines Backup-Laufs ein und
grillt alle angeschlossenen Datenträger, inkl. dem gerade angestöpselten
externen Laufwerk. Darüber erschrickt die eine nun ganz allein verbleibende
externe Platte so sehr, daß ihr einfällt, daß sie für den ganzen Sch***
eigentlich schon viel zu alt ist und jetzt auch nicht mehr mag...
Deshalb habe ich mir für den Preis einer externen Platte eine
LTO-Library geschossen. Das kostet mich jedes weitere Tera nur etwa 10€
für die (gebrauchten) Tapes.
Aber so luxuriös wie mit einer Platte ist Backup/Restore damit natürlich
nicht.
Hat halt alles seine Vor- und Nachteile. Ich nehme lieber eine
USB-Dockingstation und externe Platten. Paßt für mich.

Für gesicherte Systeme, Korrespondenz, Mails usw. sind's 2 interne und 3
externe Sicherungen, wobei es für jeden Systemdatenträger auch noch je
einen Klon im (abschaltbaren) Wechselrahmen gibt. Für Videos hab ich nur
eine interne Sicherung und 2 externe Platten, da kommt gelegentlich auch
noch 'ne dritte externe dazu.

Für privat ist das gerade genug Redundanz, da hat Murphy sich bislang
zurückgehalten, zumal ich nicht gerade bei Gewitter unbedingt ein Backup
fahren muß und ansonsten auch nicht glaube, daß mein Seasonic-Netzteil
explodiert.

--
Marcel Mueller
2017-12-21 09:41:41 UTC
Permalink
Post by Frank Möller
Für gesicherte Systeme, Korrespondenz, Mails usw. sind's 2 interne und 3
externe Sicherungen, wobei es für jeden Systemdatenträger auch noch je
einen Klon im (abschaltbaren) Wechselrahmen gibt. Für Videos hab ich nur
eine interne Sicherung und 2 externe Platten, da kommt gelegentlich auch
noch 'ne dritte externe dazu.
Für privat ist das gerade genug Redundanz, da hat Murphy sich bislang
zurückgehalten, zumal ich nicht gerade bei Gewitter unbedingt ein Backup
fahren muß und ansonsten auch nicht glaube, daß mein Seasonic-Netzteil
explodiert.
Tatsächlich sind technische Ausfälle, die mehrere /interne/ Komponenten
eines PCs mit ins Grab reißen, außerordentlich selten. Bei externen
sieht es wegen des fehlenden Faraday-Schutzes etwas schlechter aus, aber
mehr auch nicht.

Allerdings sind Fehler während des Backups dennoch gar nicht so selten.
Das Szenario ist allerdings i.A. ein anderes:
Viele Daten werden ziemlich selten benutzt. Daher ist es wahrscheinlich,
dass defekte Sektoren erst nach Jahren bemerkt werden. Das einzige, was
diesen Vorgang üblicherweise beschleunigt, ist ein Vollbackup. Da wird
auf alle (noch benötigten) Sektoren zugegriffen. Wenn man dann mit einem
normalen Kopiervorgang sichert, wird aber zuerst die Zieldatei gelöscht,
um anschließend festzustellen, dass das Original nicht mehr lesbar ist. :-o
Wenn man ein versionierendes Backup-System nutzt, ist es nicht so
schlimm, da es auch die ältere, noch funktionierende Dateiversion auf
dem Zieldatenträger hält. Rsync kann das z.B. Dummerweise wird dies auch
oft in einem (wesentlich schnelleren) Modus genutzt, der nur Dateien
anfasst, deren Metadaten sich geändert haben (inkrementelle Sicherung).
Damit bleiben die latenten Festplattenfehler möglicherweise wieder über
Jahre unbemerkt. Da das für den Zieldatenträger gleichermaßen gilt, ist
es schon möglich, dass auf beiden dieselbe Datei einen Hau abbekommt;
üblicherweise gehen zwar nicht dieselben Dateiblöcke kaputt, aber das
gibt zumindest eine ziemliche Puzzlearbeit.

Etwas subtiler sind unbemerkte Datenveränderungen. Da hilft dann auch
das versionierte Backup nicht mehr, da es dies entweder gar nicht
bemerkt (konstante Metadaten) oder aber die alten Versionen nicht lange
genug gehalten werden. Festplatten liefern zwar fast nie falsche Daten
aus - zumindest nicht aufgrund von Lesefehlern, aber Software- oder
RAM-Fehler können zu solchen Datenveränderungen führen. Ein großer
Disk-Cache lange laufender Systeme begünstigt dieses Szenario deutlich.
Deshalb wird bei modernen, Cache-lastigen Dateisystemen ECC-RAM empfohlen.
Ich musste vor ca. 10 Jahren schon mal mehrere Jahre in den Backups
zurück, weil ein Fehler in Samba bei bestimmten Zugriffsmustern (mp3gain
über LANMAN2) mal ein Fehler war, der immer das sounsovielte Byte der
Datei zerschossen hat.


Marcel
Frank Möller
2017-12-21 10:22:37 UTC
Permalink
Post by Marcel Mueller
Post by Frank Möller
Für gesicherte Systeme, Korrespondenz, Mails usw. sind's 2 interne und 3
externe Sicherungen, wobei es für jeden Systemdatenträger auch noch je
einen Klon im (abschaltbaren) Wechselrahmen gibt. Für Videos hab ich nur
eine interne Sicherung und 2 externe Platten, da kommt gelegentlich auch
noch 'ne dritte externe dazu.
Für privat ist das gerade genug Redundanz, da hat Murphy sich bislang
zurückgehalten, zumal ich nicht gerade bei Gewitter unbedingt ein Backup
fahren muß und ansonsten auch nicht glaube, daß mein Seasonic-Netzteil
explodiert.
Tatsächlich sind technische Ausfälle, die mehrere /interne/ Komponenten
eines PCs mit ins Grab reißen, außerordentlich selten. Bei externen
sieht es wegen des fehlenden Faraday-Schutzes etwas schlechter aus, aber
mehr auch nicht.
Allerdings sind Fehler während des Backups dennoch gar nicht so selten.
Viele Daten werden ziemlich selten benutzt. Daher ist es wahrscheinlich,
dass defekte Sektoren erst nach Jahren bemerkt werden.
Dem kann man ja vorbeugen, indem man sich regelmäßig die SMART-Werte seiner
Platten/SSDs anschaut.

Z. B. Hard Disk Sentinel sieht auch die SMART-Werte von Platten an
RAID-Controllern und externen USB-Geräten, dafür reicht schon die günstige
Standard-Version. Das übliche Gemüse wie HD Tune und Crystal Disk Info usw.
kommt da nicht mit.

Daß eine Platte/SSD aber auch mal "einfach so plötzlich tot ist", kann man
damit natürlich nicht verhindern, aber genau _deswegen_ hat man ja auch
mehrere Kopien, die für die Redundanz sorgen.
Post by Marcel Mueller
Das einzige, was
diesen Vorgang üblicherweise beschleunigt, ist ein Vollbackup. Da wird
auf alle (noch benötigten) Sektoren zugegriffen. Wenn man dann mit einem
normalen Kopiervorgang sichert, wird aber zuerst die Zieldatei gelöscht,
um anschließend festzustellen, dass das Original nicht mehr lesbar ist. :-o
Wenn man ein versionierendes Backup-System nutzt, ist es nicht so
schlimm, da es auch die ältere, noch funktionierende Dateiversion auf
dem Zieldatenträger hält. Rsync kann das z.B. Dummerweise wird dies auch
oft in einem (wesentlich schnelleren) Modus genutzt, der nur Dateien
anfasst, deren Metadaten sich geändert haben (inkrementelle Sicherung).
Damit bleiben die latenten Festplattenfehler möglicherweise wieder über
Jahre unbemerkt. Da das für den Zieldatenträger gleichermaßen gilt, ist
es schon möglich, dass auf beiden dieselbe Datei einen Hau abbekommt;
üblicherweise gehen zwar nicht dieselben Dateiblöcke kaputt, aber das
gibt zumindest eine ziemliche Puzzlearbeit.
Etwas subtiler sind unbemerkte Datenveränderungen. Da hilft dann auch
das versionierte Backup nicht mehr, da es dies entweder gar nicht
bemerkt (konstante Metadaten) oder aber die alten Versionen nicht lange
genug gehalten werden. Festplatten liefern zwar fast nie falsche Daten
aus - zumindest nicht aufgrund von Lesefehlern, aber Software- oder
RAM-Fehler können zu solchen Datenveränderungen führen. Ein großer
Disk-Cache lange laufender Systeme begünstigt dieses Szenario deutlich.
Man könnte noch mit Prüfsummen-Verfahren arbeiten. Das habe ich auch mal
angefangen, aber wegen des (Zeit-)Aufwandes dann doch wieder sein lassen,
da bei mir einfach keine solchen "sich heimlich einschleichenden
Gemeinheiten" mehr vorkommen. Ich sorge inzwischen vor, aus Schaden wird
man klug (zumindest ich).

Wenn man von Anfang an Wert auf vernünftige, robuste, sauber
funktionierende Hardware legt (Netzteil, Board, ECC-RAM, dazu passende CPUs
mit ECC-Unterstützung, robuste Laufwerke usw. usf.), dann minimieren sich
solche Probleme ganz automagisch quasi von selber _sehr_ deutlich.
Natürlich steht das in einem diametralen Verhältnis zum üblichen
Geiz-ist-geil-Kistenschieberglump. Ist eben so.

Man darf halt nicht knausern und muß diszipliniert sein, z. B. Platten mit
Reallocated Sectors fliegen hier rigoros raus. Und auch andere sind früher
oder später dankbar, wenn ich ihnen selbst für Daddel-Kisten ECC-RAM
verordne (oder sie ansonsten zum Kistenschieber weiterschicke).
Post by Marcel Mueller
Deshalb wird bei modernen, Cache-lastigen Dateisystemen ECC-RAM empfohlen.
Natürlich, man kann es gar nicht oft genug sagen.

--
Marcel Mueller
2017-12-21 16:05:46 UTC
Permalink
Post by Frank Möller
Post by Marcel Mueller
Allerdings sind Fehler während des Backups dennoch gar nicht so selten.
Viele Daten werden ziemlich selten benutzt. Daher ist es wahrscheinlich,
dass defekte Sektoren erst nach Jahren bemerkt werden.
Dem kann man ja vorbeugen, indem man sich regelmäßig die SMART-Werte seiner
Platten/SSDs anschaut.
Nein, da steht das auch nicht drin. Wie auch, wenn ein modernes
Terabytegrab ~15 Stunden für die gewünschte Aussage braucht. Also 15
Stunden, in denen die Platte sonst nichts anderes macht - sonst dauert
es noch deutlich länger.
Post by Frank Möller
Z. B. Hard Disk Sentinel sieht auch die SMART-Werte von Platten an
RAID-Controllern und externen USB-Geräten, dafür reicht schon die günstige
Standard-Version. Das übliche Gemüse wie HD Tune und Crystal Disk Info usw.
kommt da nicht mit.
Schön. Bringt aber (in dem Zusammenhang) aber nichts.
Post by Frank Möller
Daß eine Platte/SSD aber auch mal "einfach so plötzlich tot ist", kann man
damit natürlich nicht verhindern, aber genau _deswegen_ hat man ja auch
mehrere Kopien, die für die Redundanz sorgen.
Den Fall meinte ich auch nicht. Ich meine nur die heute häufigste
Fehlerursache: nichtkorrigierbare Lesefehler.
Post by Frank Möller
Post by Marcel Mueller
Etwas subtiler sind unbemerkte Datenveränderungen. Da hilft dann auch
das versionierte Backup nicht mehr, da es dies entweder gar nicht
bemerkt (konstante Metadaten) oder aber die alten Versionen nicht lange
genug gehalten werden. Festplatten liefern zwar fast nie falsche Daten
aus - zumindest nicht aufgrund von Lesefehlern, aber Software- oder
RAM-Fehler können zu solchen Datenveränderungen führen. Ein großer
Disk-Cache lange laufender Systeme begünstigt dieses Szenario deutlich.
Man könnte noch mit Prüfsummen-Verfahren arbeiten. Das habe ich auch mal
Ja, das hilft genau dagegen. Aber die Kontrolle dauert eben mindestens
genauso lange wie ein Vollbackup. Nach einer Lösung mit einer guten
Usability suche ich allerdings noch.
Post by Frank Möller
angefangen, aber wegen des (Zeit-)Aufwandes dann doch wieder sein lassen,
Und genau das dürfte der Regelfall sein.
Post by Frank Möller
Wenn man von Anfang an Wert auf vernünftige, robuste, sauber
funktionierende Hardware legt (Netzteil, Board, ECC-RAM, dazu passende CPUs
mit ECC-Unterstützung, robuste Laufwerke usw. usf.), dann minimieren sich
solche Probleme ganz automagisch quasi von selber _sehr_ deutlich.
Ack, habe ich, deshalb ist Intel auch raus (ECC bei bezahlbaren CPUs
kastriert). Und Platten nehme ich üblicherweise wenigstens aus der
Entry-Server-Klasse.
Post by Frank Möller
Natürlich steht das in einem diametralen Verhältnis zum üblichen
Geiz-ist-geil-Kistenschieberglump. Ist eben so.
So schaut es. Nur die allerwenigsten dürften solche Komponenten kaufen,
zumal sie deren Wert gar nicht schätzen können.
Post by Frank Möller
Man darf halt nicht knausern und muß diszipliniert sein, z. B. Platten mit
Reallocated Sectors fliegen hier rigoros raus.
Ich meine, es gibt Baureihen, wo das nicht funktioniert, weil der Wert
selten auf 0 bleibt, ohne dass es über Jahre zu irgendwelchen Symptomen
kommt. Nur Pending Sectors sollte tunlichst auf 0 bleiben.
Post by Frank Möller
Und auch andere sind früher
oder später dankbar, wenn ich ihnen selbst für Daddel-Kisten ECC-RAM
verordne (oder sie ansonsten zum Kistenschieber weiterschicke).
Bei Intel - fürs Daddeln wohl erst wahl - musst Du dafür aber kräftig in
die Tasche greifen und einen Xeon nebst passendem Server-Board kaufen.
Selbst bei AMD schränkt das die Wahl auf ASUS-Board und die alten FX
ein. Wie es bei Ryzen Boards aussieht, weiß ich noch nicht.
Post by Frank Möller
Post by Marcel Mueller
Deshalb wird bei modernen, Cache-lastigen Dateisystemen ECC-RAM empfohlen.
Natürlich, man kann es gar nicht oft genug sagen.
Ehrlich gesagt hatte ich bisher erst einen (korrigierten) ECC-Fehler
(über alle Systeme hinweg), und den habe ich selbst herbeigeführt
(Rowhammer).
Der Hauptnutzen dürfte darin bestehen, dass sich praktisch kein
RAM-Hersteller bzw. -Händler traut, RAMsch mit ECC zu verkaufen; läge
das Modul doch nahezu sicher postwendend wieder auf dem Tisch.


Marcel
Frank Möller
2017-12-21 18:13:01 UTC
Permalink
Post by Marcel Mueller
Post by Frank Möller
Post by Marcel Mueller
Allerdings sind Fehler während des Backups dennoch gar nicht so selten.
Viele Daten werden ziemlich selten benutzt. Daher ist es wahrscheinlich,
dass defekte Sektoren erst nach Jahren bemerkt werden.
Dem kann man ja vorbeugen, indem man sich regelmäßig die SMART-Werte seiner
Platten/SSDs anschaut.
Nein, da steht das auch nicht drin. Wie auch, wenn ein modernes
Terabytegrab ~15 Stunden für die gewünschte Aussage braucht. Also 15
Stunden, in denen die Platte sonst nichts anderes macht - sonst dauert
es noch deutlich länger.
Äh, wie? Ich dachte, über das IMO etwas seltsame Ansinnen, ein
Multi-Terabyte-Grab tatsächlich täglich komplett kopieren zu wollen, wären
wir inzwischen hinaus?
Post by Marcel Mueller
Post by Frank Möller
Z. B. Hard Disk Sentinel sieht auch die SMART-Werte von Platten an
RAID-Controllern und externen USB-Geräten, dafür reicht schon die günstige
Standard-Version. Das übliche Gemüse wie HD Tune und Crystal Disk Info usw.
kommt da nicht mit.
Schön. Bringt aber (in dem Zusammenhang) aber nichts.
Post by Frank Möller
Daß eine Platte/SSD aber auch mal "einfach so plötzlich tot ist", kann man
damit natürlich nicht verhindern, aber genau _deswegen_ hat man ja auch
mehrere Kopien, die für die Redundanz sorgen.
Den Fall meinte ich auch nicht. Ich meine nur die heute häufigste
Fehlerursache: nichtkorrigierbare Lesefehler.
Das ist "die heute häufigste Fehlerursache"? Würde mich doch sehr wundern
und stelle ich definitv nicht fest.
Post by Marcel Mueller
Post by Frank Möller
Post by Marcel Mueller
Etwas subtiler sind unbemerkte Datenveränderungen. Da hilft dann auch
das versionierte Backup nicht mehr, da es dies entweder gar nicht
bemerkt (konstante Metadaten) oder aber die alten Versionen nicht lange
genug gehalten werden. Festplatten liefern zwar fast nie falsche Daten
aus - zumindest nicht aufgrund von Lesefehlern, aber Software- oder
RAM-Fehler können zu solchen Datenveränderungen führen. Ein großer
Disk-Cache lange laufender Systeme begünstigt dieses Szenario deutlich.
Man könnte noch mit Prüfsummen-Verfahren arbeiten. Das habe ich auch mal
Ja, das hilft genau dagegen. Aber die Kontrolle dauert eben mindestens
genauso lange wie ein Vollbackup. Nach einer Lösung mit einer guten
Usability suche ich allerdings noch.
Post by Frank Möller
angefangen, aber wegen des (Zeit-)Aufwandes dann doch wieder sein lassen,
Und genau das dürfte der Regelfall sein.
Und dennoch sind "nichtkorrigierbare Lesefehler" sicher nicht "die heute
häufigste Fehlerursache".
Post by Marcel Mueller
Post by Frank Möller
Wenn man von Anfang an Wert auf vernünftige, robuste, sauber
funktionierende Hardware legt (Netzteil, Board, ECC-RAM, dazu passende CPUs
mit ECC-Unterstützung, robuste Laufwerke usw. usf.), dann minimieren sich
solche Probleme ganz automagisch quasi von selber _sehr_ deutlich.
Ack, habe ich, deshalb ist Intel auch raus (ECC bei bezahlbaren CPUs
kastriert). Und Platten nehme ich üblicherweise wenigstens aus der
Entry-Server-Klasse.
Hm, ja, nee. Wieviele zehntausend Stunden läuft denn so'n Teil, bevor's die
Hufe reißt oder aus anderen Gründen ausgetauscht wird? Ob da nun eine MTBF
von nur 1 Mio. Stunden oder von 100 Mio. Stunden angesagt wird, macht da
AFAIS eher einen theoretischen Unterschied (ordentliche Behandlung
natürlich vorausgesetzt).
Post by Marcel Mueller
Post by Frank Möller
Natürlich steht das in einem diametralen Verhältnis zum üblichen
Geiz-ist-geil-Kistenschieberglump. Ist eben so.
So schaut es. Nur die allerwenigsten dürften solche Komponenten kaufen,
zumal sie deren Wert gar nicht schätzen können.
Dann muß ich mich mit deren Krempel nicht abplagen. Wenn sie nicht wollen,
dann lassen sie's halt. Ich liege auch gerne mal auf der Couch und bohre in
der Nase. Ist recht meditativ. ;-)
Post by Marcel Mueller
Post by Frank Möller
Man darf halt nicht knausern und muß diszipliniert sein, z. B. Platten mit
Reallocated Sectors fliegen hier rigoros raus.
Ich meine, es gibt Baureihen, wo das nicht funktioniert, weil der Wert
selten auf 0 bleibt, ohne dass es über Jahre zu irgendwelchen Symptomen
kommt. Nur Pending Sectors sollte tunlichst auf 0 bleiben.
Meinst Du vielleicht die astronomische "Raw Read Error Rate" speziell z. B.
bei der ST4000DM000 und ähnlichen? Da gehört das quasi zum "guten Ton". Der
"Reallocated Sectors Count" und der "Current Pending Sector Count" stehen
aber sehr wohl bei 0.
Post by Marcel Mueller
Post by Frank Möller
Und auch andere sind früher
oder später dankbar, wenn ich ihnen selbst für Daddel-Kisten ECC-RAM
verordne (oder sie ansonsten zum Kistenschieber weiterschicke).
Bei Intel - fürs Daddeln wohl erst wahl - musst Du dafür aber kräftig in
die Tasche greifen und einen Xeon nebst passendem Server-Board kaufen.
Klar, deswegen müssen die Leute bei mir sozusagen "auf eigenen Wunsch" mit
AMD vorliebnehmen, wenn sie keine Xeon-Apothekenware wollen. Das wollen sie
nach kurzer Erklärung (und ggf. kurzer Vorführung) (m)eines gepflegten
AMD-Multicore-Systems auch so haben und meinen dennoch nicht, sie müßten
zwingend gleich einen Ryzen haben wollen.

Ein FX mit echten 8 Kernen skaliert einfach so richtig geschmeidig und von
unten raus, daß es eine Freude ist. Einzig die Single-Core-Performance ist
manchmal etwas verbesserungswürdig, das ist allerdings Jammern auf sehr
hohem Niveau. Doch wer da mehr will, muß dann eben einen Ryzen nehmen.
Post by Marcel Mueller
Selbst bei AMD schränkt das die Wahl auf ASUS-Board und die alten FX
ein. Wie es bei Ryzen Boards aussieht, weiß ich noch nicht.
Ryzen kann natürlich auch ECC, ebenso die ASUS-Boards dafür. Und unter
einem FX will man heute ohnehin nicht mehr anfangen, die gibt's ja auch
schon mit 4 Kernen.

Es gibt allerdings einige wenige Boards für AM4 und mit ECC, die nicht von
ASUS kommen. Da scheinen sich manche doch wieder umbesonnen zu haben. Das
flößt mir aber kein Vertrauen ein, ich bleibe dann dennoch bei ASUS.
Post by Marcel Mueller
Post by Frank Möller
Post by Marcel Mueller
Deshalb wird bei modernen, Cache-lastigen Dateisystemen ECC-RAM empfohlen.
Natürlich, man kann es gar nicht oft genug sagen.
Ehrlich gesagt hatte ich bisher erst einen (korrigierten) ECC-Fehler
(über alle Systeme hinweg), und den habe ich selbst herbeigeführt
(Rowhammer).
Der Hauptnutzen dürfte darin bestehen, dass sich praktisch kein
RAM-Hersteller bzw. -Händler traut, RAMsch mit ECC zu verkaufen; läge
das Modul doch nahezu sicher postwendend wieder auf dem Tisch.
Ja, auch so herum hat ECC dann ja seinen Zweck erfüllt. :-))

--
Marcel Mueller
2017-12-21 21:17:51 UTC
Permalink
Post by Frank Möller
Äh, wie? Ich dachte, über das IMO etwas seltsame Ansinnen, ein
Multi-Terabyte-Grab tatsächlich täglich komplett kopieren zu wollen, wären
wir inzwischen hinaus?
Täglich braucht man das sicher nicht. Aber ab und an muss man halt mal
alle Sektoren lesen, damit man weiß ob sie noch gehen. Das gibt der
Platte des weiteren die Gelegenheit, ihre ECC-Korrekturen anzuwenden und
Sektoren ggf. umzumappen, bevor die Daten nicht mehr korrigierbar sind.
Alle zwei Monate reicht dicke.
Wenn man aber immer nur per rsync auf bereits existierende
Zieldatenträger inkrementell sichert, reicht das eben nicht. Dann kann
es ewig dauern, bis man alles einmal gelesen hat.
Post by Frank Möller
Post by Marcel Mueller
Den Fall meinte ich auch nicht. Ich meine nur die heute häufigste
Fehlerursache: nichtkorrigierbare Lesefehler.
Das ist "die heute häufigste Fehlerursache"? Würde mich doch sehr wundern
und stelle ich definitv nicht fest.
Mir ist mit einer Ausnahme (abgerauchter Servo-Treiber bei einer WD) in
den letzten Jahren nichts anderes unter gekommen. Dazu zählt natürlich
auch der Fall, dass die Platte die eigene Firmware nicht mehr lesen kann
- üblicherweise deutlich zu hören beim Start.

Das ist auch kein Wunder. Ein kurzer Blick auf die Fehlerrate im
Datenblatt offenbart:
90-er Jahre: IBM DCAA 4GB, Fehlerrate = 10^-13
heute: WD Black 4TB, Fehlerrate = 10^-14
Also Kapazität Faktor 1000, Fehlerrate Faktor 10. Anders formuliert, die
alte DCAA hat statistisch gesehen nach 300-mal komplett lesen Daten
verloren, die neue WD Black nach 3-mal lesen. :-o
(Die Fehlerrate beschreibt unkorrigierbare Fehler pro gelesenen Bits.)
Und die zum Vergleich gezogene DCAA war die Holzklasse. Meine 1GB-Platte
von den frühen 90-ern hatte laut Spezifikation schon 1000-mal Lesen ohne
Fehler.

Auch die Physik erklärt das Verhalten. Sobald die Energie, die man zum
ummagnetisieren einer Domäne auf der Platte braucht (1 Bit), auch nur an
die Größenordnung der bei Betriebstemperatur verfügbaren, thermischen
Energie heran reicht, kann diese durch Tunneleffekt spontan ihre
Magnetisierung ändern. Und je höher die Aufzeichnungsdichte desto
kleiner die Domäne und desto kleiner die Energie. Dem kann man in
gewissen Grenzen entgegenwirken, indem man die Anisotropie des
magnetischen Materials erhöht und zusätzliche, antiferromagnetisch
gekoppelte Schichten unterhalb der Oberfläche aufbringt. Aber dieses
Potential ist längst ausgelutscht. Das ist das berüchtigte
Superparamagnetische Limit.
Kurzum, die Daten auf aktuellen Datenträgern sind thermisch nicht mehr
langzeitstabil. Hinzu kommt, dass bei den hohen Aufzeichnungsdichten
auch das Lesesignal immer schwächer und damit verrauschter wird.
Lesefehler sind heute daher an der Tagesordnung. In gewissen Grenzen
sorgen Fehlerkorrekturverfahren für Linderung, aber gegen den
schleichenden Zerfall hilft das nicht dauerhaft. Man darf dabei auch
nicht vergessen, dass es schon seit Jahrzehnten Informationen auf dem
Datenträger gibt, die die Platte niemals wiederherstellen kann, weil der
Schreibkopf dazu physikalisch nicht in der Lage ist. Die
Servoinformationen gehören z.B. dazu.
Post by Frank Möller
Und dennoch sind "nichtkorrigierbare Lesefehler" sicher nicht "die heute
häufigste Fehlerursache".
Das sehe ich wie gesagt anders.
Post by Frank Möller
Post by Marcel Mueller
Und Platten nehme ich üblicherweise wenigstens aus der
Entry-Server-Klasse.
Hm, ja, nee. Wieviele zehntausend Stunden läuft denn so'n Teil, bevor's die
Hufe reißt oder aus anderen Gründen ausgetauscht wird? Ob da nun eine MTBF
von nur 1 Mio. Stunden oder von 100 Mio. Stunden angesagt wird, macht da
AFAIS eher einen theoretischen Unterschied (ordentliche Behandlung
natürlich vorausgesetzt).
So eine hohe MTBF haben die nicht. Vllt 1 Mio. Außerdem fallen
spezifikationgemäße Datenverluste in der Herstellerrechnung nicht unter
das "F".

Da gibt es aber auch noch andere Unterschiede. So hat die Constellation
ES im meinem Server z.B. auch eine Faktor 10 geringere Bitfehlerrate und
das noch bei etwas geringerer Kapazität, wodurch aus 3-mal Lesen bis zum
(spezifikationsgemäßen) Datenverlust 125-mal wird - natürlich immer nur
ein statistischer Wert. In der Profiklasse ergibt sich gar einen Wert
von 2000.

Die MTBF unterscheidet sich übrigens nur geringfügig zu Holzklasse.
Post by Frank Möller
Post by Marcel Mueller
So schaut es. Nur die allerwenigsten dürften solche Komponenten kaufen,
zumal sie deren Wert gar nicht schätzen können.
Dann muß ich mich mit deren Krempel nicht abplagen. Wenn sie nicht wollen,
dann lassen sie's halt. Ich liege auch gerne mal auf der Couch und bohre in
der Nase. Ist recht meditativ. ;-)
Dummerweise stellt sich das selten so dar, wenn es im engeren Umkreis
passiert. Die Betroffenen sind dann erstaunlich impertinent. Und ihnen
ist die Sachelage, dass man sowieso nicht helfen kann, genauso
sch***egal wie dir deren Schicksal beim Nasebohren.
Post by Frank Möller
Post by Marcel Mueller
Post by Frank Möller
Man darf halt nicht knausern und muß diszipliniert sein, z. B. Platten mit
Reallocated Sectors fliegen hier rigoros raus.
Ich meine, es gibt Baureihen, wo das nicht funktioniert, weil der Wert
selten auf 0 bleibt, ohne dass es über Jahre zu irgendwelchen Symptomen
kommt. Nur Pending Sectors sollte tunlichst auf 0 bleiben.
Meinst Du vielleicht die astronomische "Raw Read Error Rate" speziell z. B.
bei der ST4000DM000 und ähnlichen? Da gehört das quasi zum "guten Ton". Der
"Reallocated Sectors Count" und der "Current Pending Sector Count" stehen
aber sehr wohl bei 0.
Äh, ja, du hast recht, es war die ECC rate, nicht Reallocations. Das ist
bei der Constellation ES hier auch so. Möglicherweise hat Seagate sich
entschieden, lieber die rohe Datendichte noch höher zu schrauben und
dafür einen erheblichen Prozentsatz als Fehlerkorrekturinformationen zu
nutzen. Das mag in Summe aufgehen.


[ECC-RAM]
Post by Frank Möller
Post by Marcel Mueller
Bei Intel - fürs Daddeln wohl erst wahl - musst Du dafür aber kräftig in
die Tasche greifen und einen Xeon nebst passendem Server-Board kaufen.
Klar, deswegen müssen die Leute bei mir sozusagen "auf eigenen Wunsch" mit
AMD vorliebnehmen, wenn sie keine Xeon-Apothekenware wollen. Das wollen sie
nach kurzer Erklärung (und ggf. kurzer Vorführung) (m)eines gepflegten
AMD-Multicore-Systems auch so haben und meinen dennoch nicht, sie müßten
zwingend gleich einen Ryzen haben wollen.
Brauche ich auch nicht. Zu teuer und noch zu unausgereift.
Post by Frank Möller
Ein FX mit echten 8 Kernen skaliert einfach so richtig geschmeidig und von
unten raus, daß es eine Freude ist.
Ich bekomme selbst im VM-Server den 4-Zylinder nicht annähernd an die
Wand gefahren. Aktuelle Statistik ist 96-97% auf der niedrigsten
Taktstufe - also weit von Vollast entfernt. Tendenz ist über die Jahre
leicht fallend; ich hatte früher eher 98%. Das ist der Tribut an immer
komplexere und verschwenderischere Software.
Post by Frank Möller
Einzig die Single-Core-Performance ist
manchmal etwas verbesserungswürdig, das ist allerdings Jammern auf sehr
hohem Niveau. Doch wer da mehr will, muß dann eben einen Ryzen nehmen.
Oder dann halt doch besser Intel.
Post by Frank Möller
Post by Marcel Mueller
Selbst bei AMD schränkt das die Wahl auf ASUS-Board und die alten FX
ein. Wie es bei Ryzen Boards aussieht, weiß ich noch nicht.
Ryzen kann natürlich auch ECC, ebenso die ASUS-Boards dafür.
Ah, gut zu wissen. Die FM-Serie zwischendurch haben sie ja nie mit ECC
angeboten. Und die waren auch noch teurer und/oder langsamer als ein FX
+ GraKa.
Post by Frank Möller
Und unter
einem FX will man heute ohnehin nicht mehr anfangen, die gibt's ja auch
schon mit 4 Kernen.
Ja, für einen Appel und ein Ei (ca. 50€). Das ist alle mal preiswert,
zumal die Dinger grundsolide sind. Vor allem, wenn man sie auf dem bald
10 Jahre alten, gusseisernen 760G Chipsatz fährt, der aus gutem Grund
immer noch gefertigt wird.
Post by Frank Möller
Es gibt allerdings einige wenige Boards für AM4 und mit ECC, die nicht von
ASUS kommen. Da scheinen sich manche doch wieder umbesonnen zu haben. Das
flößt mir aber kein Vertrauen ein, ich bleibe dann dennoch bei ASUS.
Bei denen ist auch nicht immer alles Gold was glänzt.


Marcel
Frank Möller
2017-12-23 13:15:18 UTC
Permalink
Post by Marcel Mueller
Post by Frank Möller
Äh, wie? Ich dachte, über das IMO etwas seltsame Ansinnen, ein
Multi-Terabyte-Grab tatsächlich täglich komplett kopieren zu wollen, wären
wir inzwischen hinaus?
Täglich braucht man das sicher nicht. Aber ab und an muss man halt mal
alle Sektoren lesen, damit man weiß ob sie noch gehen. Das gibt der
Platte des weiteren die Gelegenheit, ihre ECC-Korrekturen anzuwenden und
Sektoren ggf. umzumappen, bevor die Daten nicht mehr korrigierbar sind.
Alle zwei Monate reicht dicke.
Dann paßt's ja, wenn man z. B. monatlich mal einen Defragger eine Analyse,
bei der alle belegten Sektoren gelesen werden, vornehmen läßt. BTDT. Ob
dann auch tatsächlich defragmentiert wird, ist eine andere Frage.
Post by Marcel Mueller
Wenn man aber immer nur per rsync auf bereits existierende
Zieldatenträger inkrementell sichert, reicht das eben nicht. Dann kann
es ewig dauern, bis man alles einmal gelesen hat.
Post by Frank Möller
Post by Marcel Mueller
Den Fall meinte ich auch nicht. Ich meine nur die heute häufigste
Fehlerursache: nichtkorrigierbare Lesefehler.
Das ist "die heute häufigste Fehlerursache"? Würde mich doch sehr wundern
und stelle ich definitv nicht fest.
Mir ist mit einer Ausnahme (abgerauchter Servo-Treiber bei einer WD) in
den letzten Jahren nichts anderes unter gekommen. Dazu zählt natürlich
auch der Fall, dass die Platte die eigene Firmware nicht mehr lesen kann
- üblicherweise deutlich zu hören beim Start.
Hm, vielleicht habe ich nur Glück - aber das reicht im Prinzip. ;-)
Post by Marcel Mueller
Das ist auch kein Wunder. Ein kurzer Blick auf die Fehlerrate im
90-er Jahre: IBM DCAA 4GB, Fehlerrate = 10^-13
heute: WD Black 4TB, Fehlerrate = 10^-14
Also Kapazität Faktor 1000, Fehlerrate Faktor 10. Anders formuliert, die
alte DCAA hat statistisch gesehen nach 300-mal komplett lesen Daten
verloren, die neue WD Black nach 3-mal lesen. :-o
(Die Fehlerrate beschreibt unkorrigierbare Fehler pro gelesenen Bits.)
Und die zum Vergleich gezogene DCAA war die Holzklasse. Meine 1GB-Platte
von den frühen 90-ern hatte laut Spezifikation schon 1000-mal Lesen ohne
Fehler.
Gut, dann merkt die Platte, daß der gelesene Sektor nicht zur Prüfsumme
paßt und mappt ihn aus (Reallocated Sectors). Kommt aber selten genug vor.
Und wenn es vorkommt, fliegt so eine Platte hier wie gesagt raus.
Post by Marcel Mueller
Auch die Physik erklärt das Verhalten. Sobald die Energie, die man zum
ummagnetisieren einer Domäne auf der Platte braucht (1 Bit), auch nur an
die Größenordnung der bei Betriebstemperatur verfügbaren, thermischen
Energie heran reicht, kann diese durch Tunneleffekt spontan ihre
Magnetisierung ändern. Und je höher die Aufzeichnungsdichte desto
kleiner die Domäne und desto kleiner die Energie. Dem kann man in
gewissen Grenzen entgegenwirken, indem man die Anisotropie des
magnetischen Materials erhöht und zusätzliche, antiferromagnetisch
gekoppelte Schichten unterhalb der Oberfläche aufbringt. Aber dieses
Potential ist längst ausgelutscht. Das ist das berüchtigte
Superparamagnetische Limit.
Kurzum, die Daten auf aktuellen Datenträgern sind thermisch nicht mehr
langzeitstabil. Hinzu kommt, dass bei den hohen Aufzeichnungsdichten
auch das Lesesignal immer schwächer und damit verrauschter wird.
Lesefehler sind heute daher an der Tagesordnung. In gewissen Grenzen
sorgen Fehlerkorrekturverfahren für Linderung, aber gegen den
schleichenden Zerfall hilft das nicht dauerhaft. Man darf dabei auch
nicht vergessen, dass es schon seit Jahrzehnten Informationen auf dem
Datenträger gibt, die die Platte niemals wiederherstellen kann, weil der
Schreibkopf dazu physikalisch nicht in der Lage ist. Die
Servoinformationen gehören z.B. dazu.
Seltsamerweise sind aktuelle Platten mit >= 1 TB bei mir aber insgesamt
doch weniger fehlerlastig als die Teile mit 120 - 500 GB aus den Jahren
zuvor.
Post by Marcel Mueller
Post by Frank Möller
Post by Marcel Mueller
So schaut es. Nur die allerwenigsten dürften solche Komponenten kaufen,
zumal sie deren Wert gar nicht schätzen können.
Dann muß ich mich mit deren Krempel nicht abplagen. Wenn sie nicht wollen,
dann lassen sie's halt. Ich liege auch gerne mal auf der Couch und bohre in
der Nase. Ist recht meditativ. ;-)
Dummerweise stellt sich das selten so dar, wenn es im engeren Umkreis
passiert. Die Betroffenen sind dann erstaunlich impertinent. Und ihnen
ist die Sachelage, dass man sowieso nicht helfen kann, genauso
sch***egal wie dir deren Schicksal beim Nasebohren.
Jein. Einerseits muß man sich auch privat nicht nötigen lassen,
Billigkrempel zu verbauen, um sich dann bei Problemen eben doch anhören zu
dürfen: "Aber Du hast das Zeug doch trotzdem ausgesucht!" Andererseits kann
man - wenn der Proband mit Kistenschiebergemüse ins Klo griff - dann schon
mal fragen: "Wieso willst Du erst Billigkram, erwartest dann aber
Premiumqualität?"
Post by Marcel Mueller
[ECC-RAM]
Post by Frank Möller
Post by Marcel Mueller
Bei Intel - fürs Daddeln wohl erst wahl - musst Du dafür aber kräftig in
die Tasche greifen und einen Xeon nebst passendem Server-Board kaufen.
Klar, deswegen müssen die Leute bei mir sozusagen "auf eigenen Wunsch" mit
AMD vorliebnehmen, wenn sie keine Xeon-Apothekenware wollen. Das wollen sie
nach kurzer Erklärung (und ggf. kurzer Vorführung) (m)eines gepflegten
AMD-Multicore-Systems auch so haben und meinen dennoch nicht, sie müßten
zwingend gleich einen Ryzen haben wollen.
Brauche ich auch nicht. Zu teuer und noch zu unausgereift.
Post by Frank Möller
Ein FX mit echten 8 Kernen skaliert einfach so richtig geschmeidig und von
unten raus, daß es eine Freude ist.
Ich bekomme selbst im VM-Server den 4-Zylinder nicht annähernd an die
Wand gefahren. Aktuelle Statistik ist 96-97% auf der niedrigsten
Taktstufe - also weit von Vollast entfernt. Tendenz ist über die Jahre
leicht fallend; ich hatte früher eher 98%. Das ist der Tribut an immer
komplexere und verschwenderischere Software.
Wenn anspruchsvolle, performancelastige Aufgaben vielleicht auch nicht
täglich 12 Stunden lang anfallen, so ist es doch mehr als nur "nett", wenn
sie geschmeidig flutschen, wenn sie denn kommen - und dann halt _nichts_
klemmt, während man gleichzeitig noch 1000 andere Kleinigkeiten laufen
lassen kann und alles wunderbar skaliert.
Post by Marcel Mueller
Post by Frank Möller
Einzig die Single-Core-Performance ist
manchmal etwas verbesserungswürdig, das ist allerdings Jammern auf sehr
hohem Niveau. Doch wer da mehr will, muß dann eben einen Ryzen nehmen.
Oder dann halt doch besser Intel.
Die Apothekenpreise für Xeons und die nötigen Boards will dann halt aber
doch keiner zahlen.
Post by Marcel Mueller
Post by Frank Möller
Es gibt allerdings einige wenige Boards für AM4 und mit ECC, die nicht von
ASUS kommen. Da scheinen sich manche doch wieder umbesonnen zu haben. Das
flößt mir aber kein Vertrauen ein, ich bleibe dann dennoch bei ASUS.
Bei denen ist auch nicht immer alles Gold was glänzt.
Es reicht ja, wenn sie funktionieren, und das tun sie im allgemeinen. Ich
hatte nur mal eine seltsame Problemlage mit einem FX-8350 auf einem ASUS
M5A99FX Pro R 2.0. Wenn Videokodierungen liefen und länger als 4 oder 5
Stunden dauerten, ist der gerne mal stehengeblieben, obwohl er nie über 55
°C kam. Die Zeit bis zum Stehenbleiben wurde dann auch allmählich kürzer.

Weiß der Geier, ob das jetzt an einem 7 Jahre alten und nicht mehr
taufrischen Seasonic-Netzteil, dem nicht mehr ganz neuen Board oder der
nicht mehr taufrischen CPU lag - oder dümmstenfalls an einer Kombination
aus diesen Faktoren, die eben nur dann in dieser Situation sich gemeinsam
zum Problem aufschaukelten. Dieselben Komponenten jedenfalls wurden auf
verschiedene andere Rechner verteilt und laufen dort weiter, als hätte es
das Problem nie gegeben.

Für mich habe ich nur die Lehre daraus gezogen, keine CPUs mit mehr als 100
W TDP mehr zu verbauen, zumal die auch nur bis max. 61 °C warm werden
düfren, während die Modelle mit unter 100 W ganz offiziell 70 °C vertragen.

Ist aber auch nicht nötig, ein FX-8370E ist beim Multitasking einem FX-8350
sehr wohl ebenbürtig und nach Einbußen bei der Singe-Thread-Performance muß
man wirklich gezielt suchen. Der bei www.cpubenchmark.net aufgeführte
Unterschied hat mit der Praxis nix zu tun, zumal die FX-8370E auch neuer
sind.

--
Marcel Mueller
2017-12-23 15:04:34 UTC
Permalink
Post by Frank Möller
Post by Marcel Mueller
Täglich braucht man das sicher nicht. Aber ab und an muss man halt mal
alle Sektoren lesen, damit man weiß ob sie noch gehen. Das gibt der
Platte des weiteren die Gelegenheit, ihre ECC-Korrekturen anzuwenden und
Sektoren ggf. umzumappen, bevor die Daten nicht mehr korrigierbar sind.
Alle zwei Monate reicht dicke.
Dann paßt's ja, wenn man z. B. monatlich mal einen Defragger eine Analyse,
bei der alle belegten Sektoren gelesen werden, vornehmen läßt. BTDT. Ob
dann auch tatsächlich defragmentiert wird, ist eine andere Frage.
Ein Defragger liest bei weitem nicht alle Sektoren, auch nicht alle
belegten.
Er liest ausschließlich die Verwaltungsinformationen und die Sektoren,
die verschoben werden sollen. Letzteres können viele sein, aber
definitiv nicht alle. Auch einige Systemdateien werden üblicherweise
übersprungen, weil es sonst Probleme gibt.
Post by Frank Möller
Post by Marcel Mueller
Das ist auch kein Wunder. Ein kurzer Blick auf die Fehlerrate im
90-er Jahre: IBM DCAA 4GB, Fehlerrate = 10^-13
heute: WD Black 4TB, Fehlerrate = 10^-14
Also Kapazität Faktor 1000, Fehlerrate Faktor 10. Anders formuliert, die
alte DCAA hat statistisch gesehen nach 300-mal komplett lesen Daten
verloren, die neue WD Black nach 3-mal lesen. :-o
(Die Fehlerrate beschreibt unkorrigierbare Fehler pro gelesenen Bits.)
Und die zum Vergleich gezogene DCAA war die Holzklasse. Meine 1GB-Platte
von den frühen 90-ern hatte laut Spezifikation schon 1000-mal Lesen ohne
Fehler.
Gut, dann merkt die Platte, daß der gelesene Sektor nicht zur Prüfsumme
paßt und mappt ihn aus (Reallocated Sectors).
Nein, genau das tut sich /nicht/. Wenn die Prüfsumme nicht passt, meldet
die Platte bei jedem Zugriff auf den Sektor einen Prüfsummenfehler an
das OS, und zwar genau so lange, bis irgendjemand diesen Sektor
überschreibt. Erst dann wird evtl. ein Reservesektor gezogen. Vorher
nennt sich das Pending Sector.

Das geht auch gar nicht anders, denn die Platte ist bei einem
nichtkorrigierbaren Prüfsummenfehler vollkommen außer Stande, den
ursprünglichen Sektorinhalt auszuliefern. Und sie kann sich ja nicht
einfach etwas neues ausdenken, nach dem Motto "wird schon keiner
merken". Das wäre fatal, da es zu unbemerkten Datenveränderungen führen
würde, die dann die Backups infizieren. Da könnte man sich die Prüfsumme
gleich sparen (und die HDD auch).
Erst wenn die Daten (ungelesen) überschrieben werden, und man damit
bestätigt, dass man sie nicht mehr braucht, wird der Sektor wieder
fehlerfrei. Ob die Platte dabei einen Reservesektor benutzt oder einfach
nochmal neu an dieselbe Stelle schreibt, bleibt der Firmware überlassen.
Da es heutzutage kaum noch um Defekte bei der Magnetschicht geht, helfen
die Reservesektoren nur bedingt.
Natürlich kann die Platte auch einfach so einen Reservesektor benutzen.
Wenn beispielsweise ein Sektor durch eine hohe Zahl korrigierbarer
Fehler auffällt, ist dafür ein guter Zeitpunkt.
Post by Frank Möller
Kommt aber selten genug vor.
Und wenn es vorkommt, fliegt so eine Platte hier wie gesagt raus.
Das blöde ist, dass man heutzutage nicht mehr weiß, ob es wirklich ein
Defekt mit danach erhöhter Wahrscheinlichkeit für weitere Fehler ist
oder einfach nur ein zufälliges, quantenmechanisches Ereignis. Bei
letzterem wäre die Fehlerwahrscheinlichkeit danach genauso hoch wie
vorher und im Prinzip auch genauso hoch wie bei jedem anderen Exemplar
der Platte.
In der Praxis kommt beides vor. Oft kommen auch mehrere Sachen zusammen.
Beispielsweise sich verschlechternde Köpfe, daher mehr Rauschen und ein
dummer Zufall. Insofern liegt man mit der Vorgehensweise, bei Fehlern zu
tauschen, so schlecht nicht.
Post by Frank Möller
Seltsamerweise sind aktuelle Platten mit >= 1 TB bei mir aber insgesamt
doch weniger fehlerlastig als die Teile mit 120 - 500 GB aus den Jahren
zuvor.
Sind sie schon vergleichbar lange im Einsatz?


[Privater Service bei Billigkram]
Post by Frank Möller
Post by Marcel Mueller
Dummerweise stellt sich das selten so dar, wenn es im engeren Umkreis
passiert. Die Betroffenen sind dann erstaunlich impertinent. Und ihnen
ist die Sachelage, dass man sowieso nicht helfen kann, genauso
sch***egal wie dir deren Schicksal beim Nasebohren.
Jein. Einerseits muß man sich auch privat nicht nötigen lassen,
Billigkrempel zu verbauen, um sich dann bei Problemen eben doch anhören zu
dürfen: "Aber Du hast das Zeug doch trotzdem ausgesucht!"
Das nicht. Aber wer /vor dem Kauf/ den Experten fragt ist sowas von ein
Warmduscher... Üblicherweise wird erst mal der letzte Dreck gekauft und
nachher geheult.
Post by Frank Möller
Andererseits kann
man - wenn der Proband mit Kistenschiebergemüse ins Klo griff - dann schon
mal fragen: "Wieso willst Du erst Billigkram, erwartest dann aber
Premiumqualität?"
Das interessiert die Leute nach meiner Erfahrung in dem Moment nicht.
Das wird nur als arrogant wahrgenommen. Die Urlaubsfotos sind futsch, da
ist Anspannung angesagt. Und bekanntermaßen kann niemand einen
Besserwisser leiden - und schon gar nicht, wenn er es besser weiß. ;-)


[CPU-Kerne]
Post by Frank Möller
Wenn anspruchsvolle, performancelastige Aufgaben vielleicht auch nicht
täglich 12 Stunden lang anfallen, so ist es doch mehr als nur "nett", wenn
sie geschmeidig flutschen, wenn sie denn kommen - und dann halt _nichts_
klemmt, während man gleichzeitig noch 1000 andere Kleinigkeiten laufen
lassen kann und alles wunderbar skaliert.
Das kommt bei Einzelplatz-PCs gelegentlich vor. Aber wenn man die
Ressourcen im VM-Server zusammen legt, sinkt die Wahrscheinlichkeit,
dass mehrere VMs /gleichzeitig/ Lastspitzen erzeugen exponentiell mit
der Anzahl der VMs. Das ist reine Mathematik. Deshalb kann man auf
ordentlich ausgestatteten Servern auch problemlos 50 VMs laufen lassen,
ohne dass die CPUs knapp werden. Ich glaube mittlerweile geht auch mehr.
Mein Wissen ist da ein wenig veraltet.

[...]
Post by Frank Möller
Für mich habe ich nur die Lehre daraus gezogen, keine CPUs mit mehr als 100
W TDP mehr zu verbauen, zumal die auch nur bis max. 61 °C warm werden
düfren, während die Modelle mit unter 100 W ganz offiziell 70 °C vertragen.
70°C ist schon ganz schön heiß. Da geht vielleicht nicht die CPU kaputt,
aber ganz bestimmt das Zeug in ihrer Umgebung, zumindest mit der Zeit.
Kurzum, so heiß will man nicht.
Post by Frank Möller
Ist aber auch nicht nötig, ein FX-8370E ist beim Multitasking einem FX-8350
sehr wohl ebenbürtig und nach Einbußen bei der Singe-Thread-Performance muß
man wirklich gezielt suchen. Der bei www.cpubenchmark.net aufgeführte
Unterschied hat mit der Praxis nix zu tun, zumal die FX-8370E auch neuer
sind.
Sehe ich ähnlich. Vorteile unter 30% Netto - also beim Endbenutzer
ankommend - bemerkt man i.a. gar nicht.


Marcel
Frank Möller
2017-12-23 16:54:22 UTC
Permalink
Post by Marcel Mueller
Post by Frank Möller
Post by Marcel Mueller
Täglich braucht man das sicher nicht. Aber ab und an muss man halt mal
alle Sektoren lesen, damit man weiß ob sie noch gehen. Das gibt der
Platte des weiteren die Gelegenheit, ihre ECC-Korrekturen anzuwenden und
Sektoren ggf. umzumappen, bevor die Daten nicht mehr korrigierbar sind.
Alle zwei Monate reicht dicke.
Dann paßt's ja, wenn man z. B. monatlich mal einen Defragger eine Analyse,
bei der alle belegten Sektoren gelesen werden, vornehmen läßt. BTDT. Ob
dann auch tatsächlich defragmentiert wird, ist eine andere Frage.
Ein Defragger liest bei weitem nicht alle Sektoren, auch nicht alle
belegten.
Er liest ausschließlich die Verwaltungsinformationen und die Sektoren,
die verschoben werden sollen. Letzteres können viele sein, aber
definitiv nicht alle. Auch einige Systemdateien werden üblicherweise
übersprungen, weil es sonst Probleme gibt.
Kommt drauf an. Bei O&O Defrag kann ich jedenfalls zuschauen, wie er bei
der Analyse die belegten Sektoren einliest. Jetzt magst Du sagen, der tut
das nicht, der tut nur so als ob - allerdings sagt die Platten-LED was
anderes und im Endergebnis habe ich auch gar nicht massenhaft sterbende
Platten oder kaputte Daten. Das war ja der Punkt.
Post by Marcel Mueller
Post by Frank Möller
Post by Marcel Mueller
Das ist auch kein Wunder. Ein kurzer Blick auf die Fehlerrate im
90-er Jahre: IBM DCAA 4GB, Fehlerrate = 10^-13
heute: WD Black 4TB, Fehlerrate = 10^-14
Also Kapazität Faktor 1000, Fehlerrate Faktor 10. Anders formuliert, die
alte DCAA hat statistisch gesehen nach 300-mal komplett lesen Daten
verloren, die neue WD Black nach 3-mal lesen. :-o
(Die Fehlerrate beschreibt unkorrigierbare Fehler pro gelesenen Bits.)
Und die zum Vergleich gezogene DCAA war die Holzklasse. Meine 1GB-Platte
von den frühen 90-ern hatte laut Spezifikation schon 1000-mal Lesen ohne
Fehler.
Gut, dann merkt die Platte, daß der gelesene Sektor nicht zur Prüfsumme
paßt und mappt ihn aus (Reallocated Sectors).
Nein, genau das tut sich /nicht/. Wenn die Prüfsumme nicht passt, meldet
die Platte bei jedem Zugriff auf den Sektor einen Prüfsummenfehler an
das OS, und zwar genau so lange, bis irgendjemand diesen Sektor
überschreibt. Erst dann wird evtl. ein Reservesektor gezogen. Vorher
nennt sich das Pending Sector.
Ja, gut, aber hier gibt es keine Einträge im Log und auch keine Pending
Sectors. Und wenn doch mal, dann ist die betreffende Platte eh raus, da
gibt's kein Erbarmen.
Post by Marcel Mueller
Das geht auch gar nicht anders, denn die Platte ist bei einem
nichtkorrigierbaren Prüfsummenfehler vollkommen außer Stande, den
ursprünglichen Sektorinhalt auszuliefern. Und sie kann sich ja nicht
einfach etwas neues ausdenken, nach dem Motto "wird schon keiner
merken". Das wäre fatal, da es zu unbemerkten Datenveränderungen führen
würde, die dann die Backups infizieren. Da könnte man sich die Prüfsumme
gleich sparen (und die HDD auch).
Erst wenn die Daten (ungelesen) überschrieben werden, und man damit
bestätigt, dass man sie nicht mehr braucht, wird der Sektor wieder
fehlerfrei. Ob die Platte dabei einen Reservesektor benutzt oder einfach
nochmal neu an dieselbe Stelle schreibt, bleibt der Firmware überlassen.
Da es heutzutage kaum noch um Defekte bei der Magnetschicht geht, helfen
die Reservesektoren nur bedingt.
Natürlich kann die Platte auch einfach so einen Reservesektor benutzen.
Wenn beispielsweise ein Sektor durch eine hohe Zahl korrigierbarer
Fehler auffällt, ist dafür ein guter Zeitpunkt.
Post by Frank Möller
Kommt aber selten genug vor.
Und wenn es vorkommt, fliegt so eine Platte hier wie gesagt raus.
Das blöde ist, dass man heutzutage nicht mehr weiß, ob es wirklich ein
Defekt mit danach erhöhter Wahrscheinlichkeit für weitere Fehler ist
oder einfach nur ein zufälliges, quantenmechanisches Ereignis. Bei
letzterem wäre die Fehlerwahrscheinlichkeit danach genauso hoch wie
vorher und im Prinzip auch genauso hoch wie bei jedem anderen Exemplar
der Platte.
In der Praxis kommt beides vor. Oft kommen auch mehrere Sachen zusammen.
Beispielsweise sich verschlechternde Köpfe, daher mehr Rauschen und ein
dummer Zufall. Insofern liegt man mit der Vorgehensweise, bei Fehlern zu
tauschen, so schlecht nicht.
Eben. Und ansonsten habe ich bislang keine kaputten Daten durch obskure
unerkannte Platten-Lesefehler.
Post by Marcel Mueller
Post by Frank Möller
Seltsamerweise sind aktuelle Platten mit >= 1 TB bei mir aber insgesamt
doch weniger fehlerlastig als die Teile mit 120 - 500 GB aus den Jahren
zuvor.
Sind sie schon vergleichbar lange im Einsatz?
Teilweise an die 30000 Stunden. Die Fehler bei den alten, kleineren Platten
traten da schon viel früher auf. Aber OK, die mit den 30000 Stunden sind
auch VelociRaptoren mit je 1 TB, also "Enterprise Storage". Feiner Stoff,
das.

Schade, daß sie nicht mehr gebaut werden. Versteh ich nicht, denn SSDs in
der Größe sind noch immer deutlich teurer und die Preise für gebrauchte
VelociRaptoren sind ja auch "ausgesprochen gesund". Keine Ahnung, wieso WD
diesen Markt plötzlich nicht mehr bedienen will. Wollen die kein Geld
verdienen?
Post by Marcel Mueller
[Privater Service bei Billigkram]
Post by Frank Möller
Post by Marcel Mueller
Dummerweise stellt sich das selten so dar, wenn es im engeren Umkreis
passiert. Die Betroffenen sind dann erstaunlich impertinent. Und ihnen
ist die Sachelage, dass man sowieso nicht helfen kann, genauso
sch***egal wie dir deren Schicksal beim Nasebohren.
Jein. Einerseits muß man sich auch privat nicht nötigen lassen,
Billigkrempel zu verbauen, um sich dann bei Problemen eben doch anhören zu
dürfen: "Aber Du hast das Zeug doch trotzdem ausgesucht!"
Das nicht. Aber wer /vor dem Kauf/ den Experten fragt ist sowas von ein
Warmduscher... Üblicherweise wird erst mal der letzte Dreck gekauft und
nachher geheult.
Na ja, ich werde schon gefragt. Allerdings ist die Motivation zumeist, um
was es denn noch billiger als beim Kistenschieber ginge. Ist natürlich
Quark und geht nicht, denn deren Gewinn kommt aus den Einsparungen beim
Einkauf von palettenweise -zigtausend Komponenten. Aber manche lassen sich
dann auch was sagen.
Post by Marcel Mueller
Post by Frank Möller
Andererseits kann
man - wenn der Proband mit Kistenschiebergemüse ins Klo griff - dann schon
mal fragen: "Wieso willst Du erst Billigkram, erwartest dann aber
Premiumqualität?"
Das interessiert die Leute nach meiner Erfahrung in dem Moment nicht.
Das wird nur als arrogant wahrgenommen. Die Urlaubsfotos sind futsch, da
ist Anspannung angesagt.
Ja, durchaus, ist aber halt dann Pech. Anders wollten sie's ja nicht
lernen.
Post by Marcel Mueller
Und bekanntermaßen kann niemand einen Besserwisser leiden - und schon gar
nicht, wenn er es besser weiß. ;-)
Tja, bei sowas wiegt der Besserwisser schulterzuckend mit dem Kopf und
lächelt still in sich hinein. ;->>
Post by Marcel Mueller
[CPU-Kerne]
Post by Frank Möller
Wenn anspruchsvolle, performancelastige Aufgaben vielleicht auch nicht
täglich 12 Stunden lang anfallen, so ist es doch mehr als nur "nett", wenn
sie geschmeidig flutschen, wenn sie denn kommen - und dann halt _nichts_
klemmt, während man gleichzeitig noch 1000 andere Kleinigkeiten laufen
lassen kann und alles wunderbar skaliert.
Das kommt bei Einzelplatz-PCs gelegentlich vor. Aber wenn man die
Ressourcen im VM-Server zusammen legt, sinkt die Wahrscheinlichkeit,
dass mehrere VMs /gleichzeitig/ Lastspitzen erzeugen exponentiell mit
der Anzahl der VMs. Das ist reine Mathematik. Deshalb kann man auf
ordentlich ausgestatteten Servern auch problemlos 50 VMs laufen lassen,
ohne dass die CPUs knapp werden. ...
Für Bürokram und so stimmt das ganz sicher. Aber bei VMs, auf denen z. B.
kompiliert wird, ist das dann vielleicht schon eine andere Sache.
Post by Marcel Mueller
[...]
Post by Frank Möller
Für mich habe ich nur die Lehre daraus gezogen, keine CPUs mit mehr als 100
W TDP mehr zu verbauen, zumal die auch nur bis max. 61 °C warm werden
düfren, während die Modelle mit unter 100 W ganz offiziell 70 °C vertragen.
70°C ist schon ganz schön heiß. Da geht vielleicht nicht die CPU kaputt,
aber ganz bestimmt das Zeug in ihrer Umgebung, zumindest mit der Zeit.
Kurzum, so heiß will man nicht.
Natürlich will man das nicht. Anders wird ein Schuh draus: Eine CPU mit
hoher Leistung und niedriger Grenztemp. ist ein Hinweis darauf, daß da
ziemlich mit der "heißen Nadel gestrickt" wurde und keine oder kaum
Reserven bleiben. Außerdem sind die Anforderungen an die umgebende Hardware
(Spannungswandler auf dem Board, Netzteil) höher, und für diese Teile wird
es bei höherer Last schwieriger, genauso stabile und schnell skalierende
Leistungen bereitszustellen.

Im Ergenis habe ich den FX-8350 mit fettem Noctua-Kühler auch im Hochsommer
unter 55 °C halten können, der FX-8370E kommt aber mit einem etwas
schwächeren Kühler nicht über 49 °C. Er ist also sowieso kühler und hat
gleichzeitig noch einen viel größeren Abstand zu den erlaubten Max.-Werten.
Darüber hinaus streßt er die anderen Komponenten nicht so arg.
Post by Marcel Mueller
Post by Frank Möller
Ist aber auch nicht nötig, ein FX-8370E ist beim Multitasking einem FX-8350
sehr wohl ebenbürtig und nach Einbußen bei der Singe-Thread-Performance muß
man wirklich gezielt suchen. Der bei www.cpubenchmark.net aufgeführte
Unterschied hat mit der Praxis nix zu tun, zumal die FX-8370E auch neuer
sind.
Sehe ich ähnlich. Vorteile unter 30% Netto - also beim Endbenutzer
ankommend - bemerkt man i.a. gar nicht.
Jep. Kommt halt noch drauf an, wie empfindlich man ist. Aber allgemein ist
es heutzutage schon Jammern auf sehr hohem Niveau.

--
Christian Potzinger
2017-12-23 17:27:18 UTC
Permalink
Post by Frank Möller
Im Ergenis habe ich den FX-8350 mit fettem Noctua-Kühler auch
im Hochsommer unter 55 °C halten können, der FX-8370E kommt
aber mit einem etwas schwächeren Kühler nicht über 49 °C.
Er ist also sowieso kühler und hat gleichzeitig noch einen
viel größeren Abstand zu den erlaubten Max.-Werten.
Darüber hinaus streßt er die anderen Komponenten nicht so arg.
Wie darf man diesen letzten Satz verstehen..?
--
ryl: G'Kar
Frank Möller
2017-12-23 17:36:24 UTC
Permalink
Post by Christian Potzinger
Post by Frank Möller
Im Ergenis habe ich den FX-8350 mit fettem Noctua-Kühler auch
im Hochsommer unter 55 °C halten können, der FX-8370E kommt
aber mit einem etwas schwächeren Kühler nicht über 49 °C.
Er ist also sowieso kühler und hat gleichzeitig noch einen
viel größeren Abstand zu den erlaubten Max.-Werten.
Darüber hinaus streßt er die anderen Komponenten nicht so arg.
Wie darf man diesen letzten Satz verstehen..?
Das erschließt sich AFAIS eigentlich ganz von selber, wenn Du den
vorherigen Absatz auch im Kontext betrachtest, den Du nur halt gelöscht
hast:

| ... Eine CPU mit hoher Leistung und niedriger Grenztemp. ist ein Hinweis
| darauf, daß da ziemlich mit der "heißen Nadel gestrickt" wurde und keine
| oder kaum Reserven bleiben. Außerdem sind die Anforderungen an die
| umgebende Hardware (Spannungswandler auf dem Board, Netzteil) höher, und
| für diese Teile wird es bei höherer Last schwieriger, genauso stabile
| und schnell skalierende Leistungen bereitszustellen.

Bekanntlich braucht der 8350 bei Last ja 30 W _mehr_ als der 8370E.

--
Christian Potzinger
2017-12-23 18:59:13 UTC
Permalink
Post by Frank Möller
Post by Christian Potzinger
Post by Frank Möller
Darüber hinaus streßt er die anderen Komponenten nicht so arg.
Wie darf man diesen letzten Satz verstehen..?
Das erschließt sich AFAIS eigentlich ganz von selber, wenn
Du denvorherigen Absatz auch im Kontext betrachtest, den
OK, aber auch das...
Post by Frank Möller
... Eine CPU mit hoher Leistung und niedriger Grenztemp.
ist ein Hinweis darauf, daß da ziemlich mit der "heißen
Nadel gestrickt" wurde und keine oder kaum Reserven bleiben.
Außerdem sind die Anforderungen an die umgebende Hardware
(Spannungswandler auf dem Board, Netzteil) höher, und
für diese Teile wird es bei höherer Last schwieriger,
genauso stabile und schnell skalierende Leistungen
bereitszustellen.
Bekanntlich braucht der 8350 bei Last ja 30 W _mehr_
als der 8370E.
...sagt nicht aus, dass der 8350 mit heisser Nadel gestrickt
wurde. In einem kleinen Gehäuse mit dem Boxed Kühler lief
der in einer Dachwohnung bei Dauerbelastung unter verschärften
Bedingungen (38-40°C Raum-Temperatur im Sommer) innerhalb
der Spezifikation. Einen Noctua bekam meiner nur wegen der
Lautstärke.

Generell stimmt Deine Aussage natürlich, aber nicht beim 8350.
--
ryl: G'Kar
Frank Möller
2017-12-23 19:32:24 UTC
Permalink
Post by Christian Potzinger
Post by Frank Möller
Post by Christian Potzinger
Post by Frank Möller
Darüber hinaus streßt er die anderen Komponenten nicht so arg.
Wie darf man diesen letzten Satz verstehen..?
Das erschließt sich AFAIS eigentlich ganz von selber, wenn
Du denvorherigen Absatz auch im Kontext betrachtest, den
OK, aber auch das...
Post by Frank Möller
... Eine CPU mit hoher Leistung und niedriger Grenztemp.
ist ein Hinweis darauf, daß da ziemlich mit der "heißen
Nadel gestrickt" wurde und keine oder kaum Reserven bleiben.
Außerdem sind die Anforderungen an die umgebende Hardware
(Spannungswandler auf dem Board, Netzteil) höher, und
für diese Teile wird es bei höherer Last schwieriger,
genauso stabile und schnell skalierende Leistungen
bereitszustellen.
Bekanntlich braucht der 8350 bei Last ja 30 W _mehr_
als der 8370E.
...sagt nicht aus, dass der 8350 mit heisser Nadel gestrickt
wurde.
Du könntest einen (Sub-)Thread dann schon mal bitte im Gesamtkontext sehen.
Bereits vorher in news:231217.141518.462#***@m-id.net.gr.vu hatte ich die
"heiße Nadel" erläutert.

Und ja, einen Prozi, der 125 W ziehen, damit aber nur 61 °C warm werden
darf, den sehe ich ggü. einem vergleichbaren Prozi, der 30 W weniger zieht
und gleichzeitig 10 °C wärmer werden darf, als mit offenbar etwas "heißer
Nadel gestrickt" an.
Post by Christian Potzinger
In einem kleinen Gehäuse mit dem Boxed Kühler lief
der in einer Dachwohnung bei Dauerbelastung unter verschärften
Bedingungen (38-40°C Raum-Temperatur im Sommer) innerhalb
der Spezifikation. Einen Noctua bekam meiner nur wegen der
Lautstärke.
Generell stimmt Deine Aussage natürlich, aber nicht beim 8350.
Du mußt meiner Sichtweise nicht zustimmen, aber meine Sichtweise ist es
halt, und begründet hatte ich das ja durchaus.

Gekauft hatte ich den 8350 natürlich wg. der Leistung, habe ihn aber wg.
seiner knappen Max.-Temp bei dieser TDP schon immer mit etwas gemischten
Gefühlen gesehen. Hätte es den 8370E zu diesem Zeitpunkt schon gegeben,
hätte ich nie einen 8350 gekauft.

--
Christian Potzinger
2017-12-23 23:39:31 UTC
Permalink
Post by Frank Möller
Du könntest einen (Sub-)Thread dann schon mal bitte im
"heiße Nadel" erläutert.
Ja, und gegen diese Erläuterung habe ich ja Einwände.
Post by Frank Möller
Und ja, einen Prozi, der 125 W ziehen, damit aber nur 61 °C
warm werden darf, den sehe ich ggü. einem vergleichbaren
Prozi, der 30 W weniger zieht und gleichzeitig 10 °C wärmer
werden darf, als mit offenbar etwas "heißer Nadel gestrickt" an.
Und ich sehe das als normalen Fortschritt an. Weil andere,
speziell neuere CPUs, oder neuere Modelle bei gleicher Leistung
weniger Watt verbrauchen, ist die alte CPU nicht plötzlich mit
heisser Nadel gestrickt worden.
Post by Frank Möller
Gekauft hatte ich den 8350 natürlich wg. der Leistung, habe
ihn aber wg. seiner knappen Max.-Temp bei dieser TDP schon
immer mit etwas gemischten Gefühlen gesehen.
Da hatte ich nie auch nur die geringsten Bedenken. Wenn eine
CPU unter verschärften Bedingungen /immer/ innerhalb der
Spezifikation arbeitet, dann ist da keine heisse Nadel
verwendet worden.
Post by Frank Möller
Hätte es den 8370E zu diesem Zeitpunkt schon gegeben,
hätte ich nie einen 8350 gekauft.
Ich sicherlich auch. Wenn ich die gleiche Leistung bei
geringerem Stromverbrauch haben kann, dann gerne.
--
ryl: G'Kar
Frank Möller
2017-12-24 14:11:41 UTC
Permalink
Post by Christian Potzinger
Post by Frank Möller
Du könntest einen (Sub-)Thread dann schon mal bitte im
"heiße Nadel" erläutert.
Ja, und gegen diese Erläuterung habe ich ja Einwände.
OK.

Schöne Weihnachten.

--
Christian Potzinger
2017-12-25 07:37:33 UTC
Permalink
Post by Frank Möller
Schöne Weihnachten.
Danke. Wünsche ich Euch allen auch.
--
ryl: G'Kar
Marcel Mueller
2017-12-24 08:36:19 UTC
Permalink
Post by Frank Möller
Kommt drauf an. Bei O&O Defrag kann ich jedenfalls zuschauen, wie er bei
der Analyse die belegten Sektoren einliest.
Meinst Du diese bunten Kästchen bei O&O? Die stehen doch jedes für
hunderte wenn nicht gar tausende von Sektoren und leuchten, sobald
irgendwas in dem Bereich angefasst wird.
Post by Frank Möller
Jetzt magst Du sagen, der tut
das nicht, der tut nur so als ob - allerdings sagt die Platten-LED was
Eigentlich sollte sogar man hören, was er tut. Wenn die Platte dabei
leise ist, liest sie linear. Dann kann man abschätzen, wie lange es
dauern muss um die belegten Sektoren zu lesen - grob 1,5h/TB Daten. Wenn
sie jedoch kräftig rödelt (Kopfbewegungen) - so kenne ich das bei O&O -
dann verzehnfacht sich dieser Wert, denn jede einzelne Kopfbewegung
steht bei großen Platten etwa für 4MB in der Zeit /nicht/ gelesene Daten.
Post by Frank Möller
anderes und im Endergebnis habe ich auch gar nicht massenhaft sterbende
Platten oder kaputte Daten. Das war ja der Punkt.
Massenhaft stirbt da nichts. Aber neue Fehler werden typischerweise bei
solchen, leseintensiven Aktivitäten entdeckt, allen voran Vollbackup.

[...]
Post by Frank Möller
Ja, gut, aber hier gibt es keine Einträge im Log und auch keine Pending
Sectors. Und wenn doch mal, dann ist die betreffende Platte eh raus, da
gibt's kein Erbarmen.
Ich habe ja nicht gesagt, dass alle Platten kaputt gehen. Nur dass sich
die typischen Fehlerszenarien verändert haben.
Post by Frank Möller
Post by Marcel Mueller
Post by Frank Möller
Seltsamerweise sind aktuelle Platten mit >= 1 TB bei mir aber insgesamt
doch weniger fehlerlastig als die Teile mit 120 - 500 GB aus den Jahren
zuvor.
Sind sie schon vergleichbar lange im Einsatz?
Teilweise an die 30000 Stunden. Die Fehler bei den alten, kleineren Platten
traten da schon viel früher auf.
Spielst Du da auf einigen unrühmliche Seagate-Serien an? Die waren
tatsächlich recht früh platt. Obwohl hier eine 160GB von Seagate noch in
einem Alt-PC tut. Allerdings läuft der mittlerweile auch nur noch sehr
selten. Eigentlich nur, wenn ich mal seine Legacy-Ports brauche oder
etwas testen will.
Post by Frank Möller
Aber OK, die mit den 30000 Stunden sind
auch VelociRaptoren mit je 1 TB, also "Enterprise Storage".
Nein, Entry-Level Server, Enterprise hat nie SATA gehabt.

Aber tatsächlich ist das trotzdem nicht repräsentativ. Mit ES-Platten
hatte ich auch noch /nie/ Probleme. Was anderes setze ich für mich auch
nicht mehr ein. Da es dank SSDs nicht mehr so auf die Geschwindigkeit
ankommt, habe ich aber von den Raptoren auf Constellation ES abgerüstet.
Post by Frank Möller
Feiner Stoff, das.
Schade, daß sie nicht mehr gebaut werden. Versteh ich nicht, denn SSDs in
der Größe sind noch immer deutlich teurer und die Preise für gebrauchte
VelociRaptoren sind ja auch "ausgesprochen gesund". Keine Ahnung, wieso WD
diesen Markt plötzlich nicht mehr bedienen will. Wollen die kein Geld
verdienen?
Doch wollen sie, und für ES waren sie eher zu billig. Und echte Admins
wiederum haben nicht sonderlich an WD geglaubt, die sonst ja eher in der
Holzklasse spielen. Ich kenne die Dinger kommerziell nur aus
Mini-Servern. In einem SAN habe ich sie noch nie gesehen.
Post by Frank Möller
Post by Marcel Mueller
[CPU-Kerne]
Das kommt bei Einzelplatz-PCs gelegentlich vor. Aber wenn man die
Ressourcen im VM-Server zusammen legt, sinkt die Wahrscheinlichkeit,
dass mehrere VMs /gleichzeitig/ Lastspitzen erzeugen exponentiell mit
der Anzahl der VMs. Das ist reine Mathematik. Deshalb kann man auf
ordentlich ausgestatteten Servern auch problemlos 50 VMs laufen lassen,
ohne dass die CPUs knapp werden. ...
Für Bürokram und so stimmt das ganz sicher. Aber bei VMs, auf denen z. B.
kompiliert wird, ist das dann vielleicht schon eine andere Sache.
Das wäre bei mir mindestens eine - trotzdem Fehlanzeige. Das ist in der
Statistik schon eingepreist, Eclipse CDT IDE (kein Kostverächter)
inklusive. Ich kompiliere aber natürlich nicht fünfmal am Tag einen
Linux-Kernel from Scratch. Normalerweise sind die Turn-around-Zeiten
Sekunden.
Post by Frank Möller
Post by Marcel Mueller
[...]
Post by Frank Möller
Für mich habe ich nur die Lehre daraus gezogen, keine CPUs mit mehr als 100
W TDP mehr zu verbauen, zumal die auch nur bis max. 61 °C warm werden
düfren, während die Modelle mit unter 100 W ganz offiziell 70 °C vertragen.
70°C ist schon ganz schön heiß. Da geht vielleicht nicht die CPU kaputt,
aber ganz bestimmt das Zeug in ihrer Umgebung, zumindest mit der Zeit.
Kurzum, so heiß will man nicht.
Natürlich will man das nicht. Anders wird ein Schuh draus: Eine CPU mit
hoher Leistung und niedriger Grenztemp. ist ein Hinweis darauf, daß da
ziemlich mit der "heißen Nadel gestrickt" wurde und keine oder kaum
Reserven bleiben.
Ack, herstellerunterstütztes übertakten - gegen Aufpreis versteht sich.
Die AMD-Spitzenmodelle waren schon immer problematisch.


Marcel
Frank Möller
2017-12-24 14:11:40 UTC
Permalink
Post by Marcel Mueller
Post by Frank Möller
[...]
anderes und im Endergebnis habe ich auch gar nicht massenhaft sterbende
Platten oder kaputte Daten. Das war ja der Punkt.
Massenhaft stirbt da nichts. Aber neue Fehler werden typischerweise bei
solchen, leseintensiven Aktivitäten entdeckt, allen voran Vollbackup.
Mache ich schon auch irgendwann immer wieder mal, nur sicher nicht im
Abstand von Wochen oder wenigen Monaten. Und mir fallen dann keine kaputten
Daten auf.
Post by Marcel Mueller
Post by Frank Möller
Ja, gut, aber hier gibt es keine Einträge im Log und auch keine Pending
Sectors. Und wenn doch mal, dann ist die betreffende Platte eh raus, da
gibt's kein Erbarmen.
Ich habe ja nicht gesagt, dass alle Platten kaputt gehen. Nur dass sich
die typischen Fehlerszenarien verändert haben.
Mir scheint halt, daß mit den neuen "typischen Fehlerszenarien" die
Fehlerquoten insgesamt abgenommen haben. Sollte ich mir das nur einbilden,
so müßte ich ja ab und an mal unvermittelt auf kaputte Daten stoßen - das
passiert aber nicht.
Post by Marcel Mueller
Post by Frank Möller
Post by Marcel Mueller
Post by Frank Möller
Seltsamerweise sind aktuelle Platten mit >= 1 TB bei mir aber insgesamt
doch weniger fehlerlastig als die Teile mit 120 - 500 GB aus den Jahren
zuvor.
Sind sie schon vergleichbar lange im Einsatz?
Teilweise an die 30000 Stunden. Die Fehler bei den alten, kleineren Platten
traten da schon viel früher auf.
Spielst Du da auf einigen unrühmliche Seagate-Serien an?
IIRC insgesamt queer Beet, aber vor allem mehrere Hitachi.
Post by Marcel Mueller
Post by Frank Möller
Aber OK, die mit den 30000 Stunden sind
auch VelociRaptoren mit je 1 TB, also "Enterprise Storage".
Nein, Entry-Level Server, Enterprise hat nie SATA gehabt.
Sie nennen es halt "Enterprise Storage", und gerade die VelociRaptoren sind
hier über wirklich jeden Zweifel erhaben.
Post by Marcel Mueller
Aber tatsächlich ist das trotzdem nicht repräsentativ. Mit ES-Platten
hatte ich auch noch /nie/ Probleme. Was anderes setze ich für mich auch
nicht mehr ein. Da es dank SSDs nicht mehr so auf die Geschwindigkeit
ankommt, habe ich aber von den Raptoren auf Constellation ES abgerüstet.
Post by Frank Möller
Feiner Stoff, das.
Schade, daß sie nicht mehr gebaut werden. Versteh ich nicht, denn SSDs in
der Größe sind noch immer deutlich teurer und die Preise für gebrauchte
VelociRaptoren sind ja auch "ausgesprochen gesund". Keine Ahnung, wieso WD
diesen Markt plötzlich nicht mehr bedienen will. Wollen die kein Geld
verdienen?
Doch wollen sie, und für ES waren sie eher zu billig. Und echte Admins
wiederum haben nicht sonderlich an WD geglaubt, die sonst ja eher in der
Holzklasse spielen. Ich kenne die Dinger kommerziell nur aus
Mini-Servern. In einem SAN habe ich sie noch nie gesehen.
Mich wundert halt, daß sie die VelociRaptoren eingestellt haben. Sie würden
sich mit Sicherheit noch verkaufen. Mag sein, daß die Erwartungen höher
waren und die Verkaufszahlen sich nicht ganz erfüllten. Aber diese Schiene
dann gleich ganz einzustellen, kann ich nicht verstehen.
Post by Marcel Mueller
Post by Frank Möller
Post by Marcel Mueller
[CPU-Kerne]
Das kommt bei Einzelplatz-PCs gelegentlich vor. Aber wenn man die
Ressourcen im VM-Server zusammen legt, sinkt die Wahrscheinlichkeit,
dass mehrere VMs /gleichzeitig/ Lastspitzen erzeugen exponentiell mit
der Anzahl der VMs. Das ist reine Mathematik. Deshalb kann man auf
ordentlich ausgestatteten Servern auch problemlos 50 VMs laufen lassen,
ohne dass die CPUs knapp werden. ...
Für Bürokram und so stimmt das ganz sicher. Aber bei VMs, auf denen z. B.
kompiliert wird, ist das dann vielleicht schon eine andere Sache.
Das wäre bei mir mindestens eine - trotzdem Fehlanzeige. Das ist in der
Statistik schon eingepreist, Eclipse CDT IDE (kein Kostverächter)
inklusive. Ich kompiliere aber natürlich nicht fünfmal am Tag einen
Linux-Kernel from Scratch. Normalerweise sind die Turn-around-Zeiten
Sekunden.
Na ja, vielleicht fällt Dir ja noch irgendwas nettes ein, womit Du Deinen
4-Kern-Server etwas mehr beschäftigen kannst. ;-)

Mein 8-Kerner wird jedenfalls durchaus beschäftigt, ich bin
"Multitasking-Fetischist".
Post by Marcel Mueller
Post by Frank Möller
Post by Marcel Mueller
[...]
Post by Frank Möller
Für mich habe ich nur die Lehre daraus gezogen, keine CPUs mit mehr als 100
W TDP mehr zu verbauen, zumal die auch nur bis max. 61 °C warm werden
düfren, während die Modelle mit unter 100 W ganz offiziell 70 °C vertragen.
70°C ist schon ganz schön heiß. Da geht vielleicht nicht die CPU kaputt,
aber ganz bestimmt das Zeug in ihrer Umgebung, zumindest mit der Zeit.
Kurzum, so heiß will man nicht.
Natürlich will man das nicht. Anders wird ein Schuh draus: Eine CPU mit
hoher Leistung und niedriger Grenztemp. ist ein Hinweis darauf, daß da
ziemlich mit der "heißen Nadel gestrickt" wurde und keine oder kaum
Reserven bleiben.
Ack, herstellerunterstütztes übertakten - gegen Aufpreis versteht sich.
Die AMD-Spitzenmodelle waren schon immer problematisch.
Insgesamt haben wir aber schon eine "Zeit des Überflusses". Mit einem
FX-8370E kommt man schon wirklich sehr weit, und das auch noch günstig.
Nach oben ist nun bei AMD aber auch kein "Brachland" mehr, sondern es gibt
die Ryzen-Klopper. Seltsam, daß AMD da nicht fett Werbung macht, da gibt's
nur das Intel-Düdeldü.

Schöne Weihnachten.

--
Christian Potzinger
2017-12-25 07:49:50 UTC
Permalink
Post by Frank Möller
Nach oben ist nun bei AMD aber auch kein "Brachland" mehr,
sondern es gibt die Ryzen-Klopper. Seltsam, daß AMD da
nicht fett Werbung macht, da gibt's nur das Intel-Düdeldü.
Wie du selbst sagst: Für die Masse (die aus einem Überfluß
schöpfen kann) sind diese CPUs zu schnell/teuer/brachial.
Und wer ihn *braucht*, nun, bei dem muss man nicht viel
Werbung machen.

BTW:Wird hier geflissentlich ;) ignoriert, dass es diesmal
AMD ist, der, sagen wir mal "abkupfert"? HT? Numerische
Namensgebung?
--
ryl: G'Kar
Shinji Ikari
2017-12-25 20:57:59 UTC
Permalink
Guten Tag

Christian Potzinger <news-***@gmx.at> schrieb

Ich weiss zwar nicht was das wirklich mit HDD Hardware zu tun hat,
aber...
Post by Christian Potzinger
BTW:Wird hier geflissentlich ;) ignoriert, dass es diesmal
AMD ist, der, sagen wir mal "abkupfert"? HT? Numerische
Namensgebung?
Schon bei den Athlons hat man die Nummern an den damaligen Pentium
'Leistungen' angelehnt.
Und auch davor hatten die AM x86 ihre Namen nicht ganz unabhaengig von
den Intel x86 Prozessoren bekommen.
Herbert Haberl
2018-01-05 10:02:25 UTC
Permalink
Hallo Thomas!
Post by Thomas Einzel
Post by Herbert Haberl
Hallo Thomas!
....
Post by Herbert Haberl
Post by Thomas Einzel
BTW: meine letzte HDD ist eine Seagate Ironwolf mit 10TB. Unauffällig
funktionell.
https://geizhals.de/?cat=hde7s&v=e&hloc=de&fcols=958&sort=r&bl1_id=30&xf=10287_IronWolf%7E8457_non-SMR%7E957_Seagate%7E958_8000
Keine schnelle Bootplatte, aber als "Datengrab" + Backups IMO gut.
Was ist denn der Unterschied zwischen IronWolf und IronWolf Pro?
Die Pro sind für NAS, was ich nicht habe, oder?
Die Herstellerlinks mit den Spezifikationen findet man bei geizhals im
Produktlink oben mitte-rechts.
Danke! Ich übersehe immer wieder solche Sachen :-(
Post by Thomas Einzel
Ich habe die Platte ausgewählt die in der Kompatibilitätsliste meines
NAS stand.
Post by Herbert Haberl
"Seagate IronWolf Pro NAS HDD +Rescue 12TB, SATA 6Gb/s (ST12000NE0007)"
Was bedeutet das +Rescue?
(Daten)Rettung.
Wenn man das braucht, hat man schon (zu viel) falsch gemacht.
So sehe ich das auch :-)
Post by Thomas Einzel
Post by Herbert Haberl
Post by Thomas Einzel
Voraussetzung man weiß, dass ein Backup = kein Backup ist.
Wenn Du darauf abzielst, dass man nicht nur einen Backup auf eine Festplatte
haben soll, dann ist es mir bewußt. Daher haben wir zwei ST8000AS0002 und
sichern/duplizieren/spiegeln obendrein noch auf den PCs untereinander die
wichtigsten Daten, also jeweils aktueller Stand.
Das ist besser als nichts, aber in vielen Backupkonzepten steht aus
gutem Grund, steht dass die Backupmedien/Backupsätze bis auf den
Zeitpunkt der Sicherung offline sein müssen und das minimal 2
Backupsätze nötig sind. Dass kann man im Heimbereich sehr einfach mit
minimal 2 großen externen Festplatten erreichen, auf die abwechselnd
gesichert wird.
Das ist wirklich nett, dass Du Dir Gedanken um mein Backups machst, mußt Du
aber nicht. Meine Großfamilie beherzigt alle nachwievor wichtigen Grundregeln,
wie z.B. mehrere Datensätze, mehrere Medien, unterschiedliche Medien, verteilte
Standorte. Wir haben nur im PC des Enkels die fest eingebaute 8TB-Festplatte.

Wir sichern u.a. auf externe Festplatten, die zu diesem Zweck eingesteckt werden.
Backups liegen obendrein jeweils auf weiteren PCs verteilt, immer einen PC "weiter".
3 Mal in der Woche, oder bei Bedarf, sichern wir in der Nacht zu mir auf die
externen Festplatten. Wichtige Daten haben wir jeweils noch auf DAT, USB-Stick
und DVD zusätzlich. Die liegen neben den Festplatten im 2 brandsicheren Tresor,
natürlich in verschiedenen Standorten.
Post by Thomas Einzel
Raid2 (Spiegelung) ist kein Backup, sondern hohe Verfügbarkeit.
Privat betreibe ich kein Raid.
Post by Thomas Einzel
Stell dir vor der Blitz schlägt ein und alle in Betrieb befindlichen
Rechner haben einen Überspannungsschaden, was bleibt an Backupdaten übrig?
Ich war Jahrzehnte IT-Leiter eines großen Mittelständlers und kenne sämtliche
Horrorszenarien, sowie viele Backupstrategien, was natürlich heute noch Einfluß
auf meine privaten Backups hat.

Hab Dank für Deine Antwort
HH
Thomas Einzel
2018-01-05 10:45:33 UTC
Permalink
Post by Herbert Haberl
Hallo Thomas!
...
Post by Herbert Haberl
Post by Thomas Einzel
Das ist besser als nichts, aber in vielen Backupkonzepten steht aus
gutem Grund, steht dass die Backupmedien/Backupsätze bis auf den
Zeitpunkt der Sicherung offline sein müssen und das minimal 2
Backupsätze nötig sind. Dass kann man im Heimbereich sehr einfach mit
minimal 2 großen externen Festplatten erreichen, auf die abwechselnd
gesichert wird.
Das ist wirklich nett, dass Du Dir Gedanken um mein Backups machst, mußt Du
aber nicht.
Prima, hier lesen aber in der Regel mehr mit als schreiben. Deine
nachfolgenden Ausführungen passen gut!
...
Post by Herbert Haberl
Wir sichern u.a. auf externe Festplatten, die zu diesem Zweck eingesteckt werden.
Backups liegen obendrein jeweils auf weiteren PCs verteilt, immer einen PC "weiter".
3 Mal in der Woche, oder bei Bedarf, sichern wir in der Nacht zu mir auf die
externen Festplatten.
Ich habe das mal bezüglich Standort-übergreifender Replikation
überschlagen und komme leider mit ca. 1TB geänderten Daten pro Monat
nicht den zur Verfügung stehenden Consumer-VPN Lösungen via DSL hin.
Post by Herbert Haberl
Wichtige Daten haben wir jeweils noch auf DAT, USB-Stick
und DVD zusätzlich. Die liegen neben den Festplatten im 2 brandsicheren Tresor,
natürlich in verschiedenen Standorten.
...
Post by Herbert Haberl
Ich war Jahrzehnte IT-Leiter eines großen Mittelständlers und kenne sämtliche
Horrorszenarien, sowie viele Backupstrategien, was natürlich heute noch Einfluß
auf meine privaten Backups hat.
So sieht das aus, leider haben viele andere, die das im professionellem
Umfeld so nicht kennen gelernt haben mitunter andere, eigentümliche
Vorstellungen.
--
Thomas
Herbert Haberl
2017-12-20 08:00:21 UTC
Permalink
Hallo Marcel,

vielen Dank für Deine Antwort!
Post by Marcel Mueller
Post by Herbert Haberl
Da mein Enkel sich jetzt einen neuen Z370-Gamer-PC zusammenbaut, möchten ich ihm eine zusätzliche
Festplatte spendieren. Die soll auch weiterhin als Datengrab und für Backups herhalten, aber
auch schneller sein, als die ST8000AS0002.
Da wirst Du kein Glück haben. Schnell und Groß schließen sich bei HDDs aus.
Bei der hohen Spurdichte ist es reine Glückssache, wo der
Schreib-Lesekopf nach einem Spurwechsel landet. Es braucht daher oft
mehrere Versuche, die richtige Spur zu finden. Das kostet Zeit.
Zudem haben die ganz großen Platten oft SMR, was das Schreiben kleinerer
Blöcke extrem verlangsamt.
Ich habe jetzt gelernt, daß es auch welche mit PMR-Verfahren gibt, welche
deutlich schneller sein sollen als die ST8000AS0002.
Post by Marcel Mueller
Post by Herbert Haberl
Im neuen Rechner ist eine M.2-960 für Betriebssystem,
Spiele und Videoschnitt geplant.
Die sollte schnell genug sein. ;-)
Gell :-)
Post by Marcel Mueller
Post by Herbert Haberl
Gibt es eine gute und schnelle Festplatte mit >= 8TB zu einem guten Preis/Leistungsverhältnis
oder werden die Festplatten dann richtig teuer, wenn sie auch schnell sein sollen?
Nein, die werden nicht teuer, es gibt sie einfach nicht.
Das sehen aber Shinji und Thomas etwas anders wenn ich sie richtig verstanden
habe.

Schnelle
Post by Marcel Mueller
Profi-Platten haben kleinere Kapazitäten, weil man sonst kein Backup
mehr anfertigen kann. Ich meine, es sollte halt schon weniger lang für
das Backup brauchen, als die Zeit bis zum /nächsten/ Backup. Und dabei
sollten idealerweise auch noch ein paar IOPS für den alltäglichen
Betrieb übrig bleiben.
Das habe ich jetzt nicht ganz verstanden. :(
Post by Marcel Mueller
Ein 8TB Grab rückt ihre Daten bei weniger als 30% Last nicht innerhalb
von 24 Stunden raus. Damit ist sie für den professionellen Einsatz
ungeeignet.
Wir sind hier keine Profis, sondern eine ganz normale Familie mit mehreren
Gerätschaften, die u.a. gesichert werden wollen. Und der Enkel schneidet
die Familienvideos zusammen, daher fallen auch hier größere Datenmengen an.

Hab Dank für Deine Antwort
HH
Shinji Ikari
2017-12-20 10:23:25 UTC
Permalink
Guten Tag
Post by Herbert Haberl
Post by Marcel Mueller
Post by Herbert Haberl
Gibt es eine gute und schnelle Festplatte mit >= 8TB zu einem guten Preis/Leistungsverhältnis
oder werden die Festplatten dann richtig teuer, wenn sie auch schnell sein sollen?
Nein, die werden nicht teuer, es gibt sie einfach nicht.
Das sehen aber Shinji und Thomas etwas anders wenn ich sie richtig verstanden
habe.
Korrekt. Schneller als die Seagate ARchive bei laengeren
Schreibvorgaengen: ja, gibt es. Natuerlich ist das immer noch gefuehlt
weitaus langsamer als eine gute SSD, aber bei sequentiellem Transfer
groesserer Dateien (lesen und auch schreiben) sind schon flottere 8-10
TB grosse HDDs als die Archive zu haben.
Post by Herbert Haberl
Post by Marcel Mueller
Schnelle
Profi-Platten haben kleinere Kapazitäten, weil man sonst kein Backup
mehr anfertigen kann. Ich meine, es sollte halt schon weniger lang für
das Backup brauchen, als die Zeit bis zum /nächsten/ Backup. Und dabei
sollten idealerweise auch noch ein paar IOPS für den alltäglichen
Betrieb übrig bleiben.
Das habe ich jetzt nicht ganz verstanden. :(
Seien Aussage ist IMHO nicht unbedingt korrekt. Auch von grossen
Profiplaten kann man ein Backup anfgertigen, es bedarf eben nur mehr
Zeit, als eben eien kleinere Datenmenge. Er geht vermutlich davon aus,
dass man im bezahlten Arbeitstag kein Backup starten will, das so
lange brsahct, dass der naechste Backuplauf nicht starten kann, weil
der erste noch nicht durch ist. Da Backups evtl. nachts (ausserhalb
des Arbeitstages) gestartet werden sollen, macht es keinen Sinn eine
Groesse zu waehlen, die dann bis zum naechsten Morgen (Arbeitsbeginn)
niucht durch ist und die Arbeit(nehmer) dann eben nicht effektiv
arbeiten koennen.
Das ist im Privatumfeld egal.
Post by Herbert Haberl
Post by Marcel Mueller
Ein 8TB Grab rückt ihre Daten bei weniger als 30% Last nicht innerhalb
von 24 Stunden raus. Damit ist sie für den professionellen Einsatz
ungeeignet.
Wir sind hier keine Profis,
Und deswegen sehe ich den Einwurf von MArcel auch als berechtigt, aber
fuer Dein beschriebenes Szenario unguelktig an.
Wenn man wirklich ein Vollbackupo macht und dafuer eben 30h oder so
brauchen wuerde, dann wird der PC eben an gelassen.
Wobei eine 8TB sich dennoch problemlos in weit unter 1 Tag auslesen
laesst und auch meine 10TB dahingehend keine Probleme haben.
Frank Möller
2017-12-20 12:00:50 UTC
Permalink
Post by Shinji Ikari
Post by Herbert Haberl
Post by Marcel Mueller
Schnelle
Profi-Platten haben kleinere Kapazitäten, weil man sonst kein Backup
mehr anfertigen kann. Ich meine, es sollte halt schon weniger lang für
das Backup brauchen, als die Zeit bis zum /nächsten/ Backup. Und dabei
sollten idealerweise auch noch ein paar IOPS für den alltäglichen
Betrieb übrig bleiben.
Das habe ich jetzt nicht ganz verstanden. :(
Seien Aussage ist IMHO nicht unbedingt korrekt. Auch von grossen
Profiplaten kann man ein Backup anfgertigen, es bedarf eben nur mehr
Zeit, als eben eien kleinere Datenmenge. Er geht vermutlich davon aus,
dass man im bezahlten Arbeitstag kein Backup starten will, das so
lange brsahct, dass der naechste Backuplauf nicht starten kann, weil
der erste noch nicht durch ist. Da Backups evtl. nachts (ausserhalb
des Arbeitstages) gestartet werden sollen, macht es keinen Sinn eine
Groesse zu waehlen, die dann bis zum naechsten Morgen (Arbeitsbeginn)
niucht durch ist und die Arbeit(nehmer) dann eben nicht effektiv
arbeiten koennen.
Das ist im Privatumfeld egal.
Post by Herbert Haberl
Post by Marcel Mueller
Ein 8TB Grab rückt ihre Daten bei weniger als 30% Last nicht innerhalb
von 24 Stunden raus. Damit ist sie für den professionellen Einsatz
ungeeignet.
Wir sind hier keine Profis,
Und deswegen sehe ich den Einwurf von MArcel auch als berechtigt, aber
fuer Dein beschriebenes Szenario unguelktig an.
Wenn man wirklich ein Vollbackupo macht und dafuer eben 30h oder so
brauchen wuerde, dann wird der PC eben an gelassen.
Wobei eine 8TB sich dennoch problemlos in weit unter 1 Tag auslesen
laesst und auch meine 10TB dahingehend keine Probleme haben.
... zumal man vernünftigerweise nur geänderte Daten tatsächlich neu ins
Backup schreibt bzw. daraus löscht. Dann ist die reine Größe des
Datenträgers bzw. die Menge der Daten auf der Platte nicht mehr
entscheidend. Die Dauer der Überprüfung, ob sich was geändert hat, hängt
natürlich von der Anzahl der Verzeichnisse/Dateien ab, aber z. B. mit
Robocopy oder LN.exe <http://schinagl.priv.at/nt/ln/ln.html> geht das auch
bei sehr vielen Dateien ziemlich flott.

--
Herbert Haberl
2017-12-20 12:25:58 UTC
Permalink
Hallo!
Post by Shinji Ikari
Post by Herbert Haberl
Post by Marcel Mueller
Post by Herbert Haberl
Gibt es eine gute und schnelle Festplatte mit >= 8TB zu einem guten Preis/Leistungsverhältnis
oder werden die Festplatten dann richtig teuer, wenn sie auch schnell sein sollen?
Nein, die werden nicht teuer, es gibt sie einfach nicht.
Das sehen aber Shinji und Thomas etwas anders wenn ich sie richtig verstanden
habe.
Korrekt. Schneller als die Seagate ARchive bei laengeren
Schreibvorgaengen: ja, gibt es. Natuerlich ist das immer noch gefuehlt
weitaus langsamer als eine gute SSD, aber bei sequentiellem Transfer
groesserer Dateien (lesen und auch schreiben) sind schon flottere 8-10
TB grosse HDDs als die Archive zu haben.
Dann habe ich Dich schon richtig verstanden!
Post by Shinji Ikari
Post by Herbert Haberl
Post by Marcel Mueller
Schnelle
Profi-Platten haben kleinere Kapazitäten, weil man sonst kein Backup
mehr anfertigen kann. Ich meine, es sollte halt schon weniger lang für
das Backup brauchen, als die Zeit bis zum /nächsten/ Backup. Und dabei
sollten idealerweise auch noch ein paar IOPS für den alltäglichen
Betrieb übrig bleiben.
Das habe ich jetzt nicht ganz verstanden. :(
Seien Aussage ist IMHO nicht unbedingt korrekt. Auch von grossen
Profiplaten kann man ein Backup anfgertigen, es bedarf eben nur mehr
Zeit, als eben eien kleinere Datenmenge. Er geht vermutlich davon aus,
dass man im bezahlten Arbeitstag kein Backup starten will, das so
lange brsahct, dass der naechste Backuplauf nicht starten kann, weil
der erste noch nicht durch ist. Da Backups evtl. nachts (ausserhalb
des Arbeitstages) gestartet werden sollen, macht es keinen Sinn eine
Groesse zu waehlen, die dann bis zum naechsten Morgen (Arbeitsbeginn)
niucht durch ist und die Arbeit(nehmer) dann eben nicht effektiv
arbeiten koennen.
Das ist im Privatumfeld egal.
Jetzt verstehe ich Euch beide! Nein, wir sichern mit Robocop und Betriebs-
systeme mit Acronis. Vollbackup ist damit eigentlich nur bei einer Um-
kopieraktion nach Anschaffung einer größeren Austauschplatte notwendig.
Post by Shinji Ikari
Post by Herbert Haberl
Post by Marcel Mueller
Ein 8TB Grab rückt ihre Daten bei weniger als 30% Last nicht innerhalb
von 24 Stunden raus. Damit ist sie für den professionellen Einsatz
ungeeignet.
Wir sind hier keine Profis,
Und deswegen sehe ich den Einwurf von MArcel auch als berechtigt, aber
fuer Dein beschriebenes Szenario unguelktig an.
Wenn man wirklich ein Vollbackupo macht und dafuer eben 30h oder so
brauchen wuerde, dann wird der PC eben an gelassen.
Wobei eine 8TB sich dennoch problemlos in weit unter 1 Tag auslesen
laesst und auch meine 10TB dahingehend keine Probleme haben.
Ok.

Hab Dank für Deine Antwort
HH
Shinji Ikari
2017-12-18 23:22:07 UTC
Permalink
Guten Tag
Post by Herbert Haberl
Die soll auch weiterhin als Datengrab und für Backups herhalten, aber
auch schneller sein, als die ST8000AS0002. Im neuen Rechner ist eine M.2-960 für Betriebssystem,
Spiele und Videoschnitt geplant.
Seagate Ironwolf sind auch in 8 oder sogar 10TB zu haben und wegen PMR
flotter (/aber auch teurere) als die Seagate Archive 8TB Platten.
Post by Herbert Haberl
Gibt es eine gute und schnelle Festplatte mit >= 8TB zu einem guten Preis/Leistungsverhältnis
oder werden die Festplatten dann richtig teuer, wenn sie auch schnell sein sollen?
Richtig schnell (im Sinne einer SSD) ist keine handelsuebliche
aktuelle HDD.
Aber wenn man darauf achtet, dass die HDD mit aktuell PMR aufzeichnet
haben alle Hersteller ganz flotte 8TB-Modelle im Angebot.
Preislich interessant sind davon IMHO oft die Ironwolf und die Hitachi
Deskstar NAS Platten.
Auch Toshiba und WD haben dahingehend gute Platten. Bei Toshiba waere
ich nur wegen der Garantiesituation vorsichtig und WD ist nicht selten
ein bisschen kostenintensiver.
Schreibgeschwindigkeiten von max ca. 250MByte/s sind bei 8-10TB
grossen PMR Platten drin. Aber je volle rund fragmentierter die
Platten werden, desto langsamer werden sie (im Innenbereich der HDDs).
Aber bei PMR Platten sollten sequentiell noch immer 100-150MByt/s
schreidbend moeglich sein.
Herbert Haberl
2017-12-20 08:09:23 UTC
Permalink
Hallo,

habe Dank für Deine Antwort!
Post by Shinji Ikari
Guten Tag
Post by Herbert Haberl
Die soll auch weiterhin als Datengrab und für Backups herhalten, aber
auch schneller sein, als die ST8000AS0002. Im neuen Rechner ist eine M.2-960 für Betriebssystem,
Spiele und Videoschnitt geplant.
Seagate Ironwolf sind auch in 8 oder sogar 10TB zu haben und wegen PMR
flotter (/aber auch teurere) als die Seagate Archive 8TB Platten.
Ich sehe die gibt es auch in 12 TB. Wieviel flotter sind die denn als
die ST8000AS0002? Danke für den Hinweis mit PMR, den ich schon wieder
vergessen hatte.
Post by Shinji Ikari
Post by Herbert Haberl
Gibt es eine gute und schnelle Festplatte mit >= 8TB zu einem guten Preis/Leistungsverhältnis
oder werden die Festplatten dann richtig teuer, wenn sie auch schnell sein sollen?
Richtig schnell (im Sinne einer SSD) ist keine handelsuebliche
aktuelle HDD.
Gut, mit SSDs darf man die auch nicht vergleichen. Das sind andere
Technologien.
Post by Shinji Ikari
Aber wenn man darauf achtet, dass die HDD mit aktuell PMR aufzeichnet
haben alle Hersteller ganz flotte 8TB-Modelle im Angebot.
Gibt es denn einen Geschwindigkeitsunterschied, ob ich dann aus einer
Familie, z.B. Ironwolf, die 8, 10 oder 12 TB-Variante nehme?
Post by Shinji Ikari
Preislich interessant sind davon IMHO oft die Ironwolf und die Hitachi
Deskstar NAS Platten.
Danke für den Tipp, schaue ich mir beide hernach mal an.
Post by Shinji Ikari
Auch Toshiba und WD haben dahingehend gute Platten. Bei Toshiba waere
ich nur wegen der Garantiesituation vorsichtig und WD ist nicht selten
ein bisschen kostenintensiver.
Mit WD hatte ich zuletzt keine guten Erfahrungen, die hätte ich eh
ausgeschlossen.
Post by Shinji Ikari
Schreibgeschwindigkeiten von max ca. 250MByte/s sind bei 8-10TB
grossen PMR Platten drin. Aber je volle rund fragmentierter die
Platten werden, desto langsamer werden sie (im Innenbereich der HDDs).
Kann ich durch Partitionierung beeinflußen, dass die Partition 1
die Außenbahnen benutzt, von mir aus 2 TB, und der Rest ist die
2. Partition?
Post by Shinji Ikari
Aber bei PMR Platten sollten sequentiell noch immer 100-150MByt/s
schreidbend moeglich sein.
Das habe ich bei der > 2/3 gefüllten ST8000AS0002 definitiv nicht mehr
erreicht.

Hab Dank für Deine Antwort
HH
Shinji Ikari
2017-12-20 10:37:35 UTC
Permalink
Guten Tag
Post by Herbert Haberl
Seagate Ironwolf sind auch in 8 oder sogar 10TB zu haben.-..
Ich sehe die gibt es auch in 12 TB.
Ja,m eine sehr neue ENtwicklung. IMHO hat die aber aktuell ein
uninteressantes Preis/Kapazitaetsverhaeltnis.
Post by Herbert Haberl
Wieviel flotter sind die denn als
die ST8000AS0002?
Ich habe noch keine 12TB Ironwolf getestet. Ist mir aktuell zu teuer.
Ich habe mich in den letzten Jahren primaer auf die Seagate Archivev2
gestuerzt und vor einiger Zeit angefangen diverse 10TB HDDs
durchzutesten. Alles nur fuer meinen privaten Einsatzzweck. Da das
Pries/Kapaziotaetsverhaeltnis bei den jeweiligen SPitzenmodellen IMHO
sehr uninteressant ist, habe ich 12TB zwar mal in Preissuchmaschinen
nachgesehen und fuer mich bsiher verworfen.
Post by Herbert Haberl
Aber wenn man darauf achtet, dass die HDD mit aktuell PMR aufzeichnet
haben alle Hersteller ganz flotte 8TB-Modelle im Angebot.
Nur so als Zusatzinfo, die aktuell aber noch unwichtig ist, Aktuell
experimentieren die Hersteller mit diversen neuen Verfahren (HAMR,
PAMR), die die Kapazitaet steugern sollen. Wie sich diese Techniken in
der Praxis auswirken muss nich noch zeigen, wenn die Techniken in den
Markt gedrueckt werden.
Post by Herbert Haberl
Gibt es denn einen Geschwindigkeitsunterschied, ob ich dann aus einer
Familie, z.B. Ironwolf, die 8, 10 oder 12 TB-Variante nehme?
Je enger die Daten beschrieben sind, desto mehr Daten flitzen bei
gleicher Drehzahl und ansonsten gleicher Technologie unter dem
Schreib/Lesekopf entlang.
Somit sind bei rein linearrer Benutzung grosse HDDs generell flotter
als kleinere.
Solange man aber in einer Baureihe bleibt, aendert sich auch an der
Datendichte meist nichts, so dass eien 8TB fast genauso aufgebaut ist,
wie eine 10TB, nur ggf. mehr Platteroberflaechen benutzt werden.
Es ist fuer die reine Nutzgeschwindigkeit also annaeherend egal ob man
eien aktuelle Ironwolf 8TB oder 10TB nimmt. Die
Geschwindigkeitsunterschiede gehen in den Messtoleranzen unter.
Post by Herbert Haberl
Preislich interessant sind davon IMHO oft die Ironwolf und die Hitachi
Deskstar NAS Platten.
Danke für den Tipp, schaue ich mir beide hernach mal an.
Die hItachi NAS sind aber schwer zu bekommen (meist mit langen
Lieferzeiten oder zu teuer im Angebot), so dass ich davon noch keien
gestetet habe.
Post by Herbert Haberl
Auch Toshiba und WD haben dahingehend gute Platten. Bei Toshiba waere
ich nur wegen der Garantiesituation vorsichtig und WD ist nicht selten
ein bisschen kostenintensiver.
Mit WD hatte ich zuletzt keine guten Erfahrungen, die hätte ich eh
ausgeschlossen.
IMHO hat jeder Hersteller (Seagate, WD, Toshiba, Hitachi,... [welche
teilweise zum selben Konzern gehoeren oder damit eng zusammen
arbeiten]) mal gut eund mal schlechtere Modelle im Sortiment.
EInen Hersteller aus der Auswahl generell ausschliessen wuerde ich
nicht (vor allem, weil es nur noch wenige gibt).
Post by Herbert Haberl
Kann ich durch Partitionierung beeinflußen, dass die Partition 1
die Außenbahnen benutzt, von mir aus 2 TB, und der Rest ist die
2. Partition?
Das hanegt von der Plattenfiormware ab. Grundlegend geht das, aber es
sind auch schon Platten mit zusaetzlichem Pufferspeicher auf dem
Markt, welche dahingehend ins Handwerk pfuschen (Seagate Skyhawk mit
'Compute').
Post by Herbert Haberl
Aber bei PMR Platten sollten sequentiell noch immer 100-150MByt/s
schreidbend moeglich sein.
Das habe ich bei der > 2/3 gefüllten ST8000AS0002 definitiv nicht mehr
erreicht.
Dem stimme ich zu. Vor allem, wenn man eben durchgehend grosse Dateien
schreibt. Da ist der Pferdefuss der SMR Technik, die sich signifikant
auswirkt.
Shinji Ikari
2017-12-20 11:52:47 UTC
Permalink
Guten Tag

Korrektur!
Post by Shinji Ikari
Post by Herbert Haberl
Kann ich durch Partitionierung beeinflußen, dass die Partition 1
die Außenbahnen benutzt, von mir aus 2 TB, und der Rest ist die
2. Partition?
Das hanegt von der Plattenfiormware ab. Grundlegend geht das, aber es
sind auch schon Platten mit zusaetzlichem Pufferspeicher auf dem
Markt, welche dahingehend ins Handwerk pfuschen (Seagate Skyhawk mit
'Compute').
Nicht "Skyhawk compute", sondern "Barracuda compute".
Herbert Haberl
2017-12-20 12:35:23 UTC
Permalink
Hallo!
Post by Shinji Ikari
Post by Herbert Haberl
Seagate Ironwolf sind auch in 8 oder sogar 10TB zu haben.-..
Ich sehe die gibt es auch in 12 TB.
Ja,m eine sehr neue ENtwicklung. IMHO hat die aber aktuell ein
uninteressantes Preis/Kapazitaetsverhaeltnis.
Das stimmt. Die 10 TB ist im Preis pro GB günstiger, als die 8 TB,
hingegen die 12 TB hat das schlechteste Verhältnis.
Post by Shinji Ikari
Post by Herbert Haberl
Wieviel flotter sind die denn als
die ST8000AS0002?
Ich habe noch keine 12TB Ironwolf getestet. Ist mir aktuell zu teuer.
Ich habe mich in den letzten Jahren primaer auf die Seagate Archivev2
gestuerzt und vor einiger Zeit angefangen diverse 10TB HDDs
durchzutesten. Alles nur fuer meinen privaten Einsatzzweck. Da das
Pries/Kapaziotaetsverhaeltnis bei den jeweiligen SPitzenmodellen IMHO
sehr uninteressant ist, habe ich 12TB zwar mal in Preissuchmaschinen
nachgesehen und fuer mich bsiher verworfen.
Und welche 10 TB benutzt Du dann? IronWolf ohne Pro und was noch?
Post by Shinji Ikari
Post by Herbert Haberl
Aber wenn man darauf achtet, dass die HDD mit aktuell PMR aufzeichnet
haben alle Hersteller ganz flotte 8TB-Modelle im Angebot.
Nur so als Zusatzinfo, die aktuell aber noch unwichtig ist, Aktuell
experimentieren die Hersteller mit diversen neuen Verfahren (HAMR,
PAMR), die die Kapazitaet steugern sollen. Wie sich diese Techniken in
der Praxis auswirken muss nich noch zeigen, wenn die Techniken in den
Markt gedrueckt werden.
Danke für den Hinweis, werde ich im Hinterkopf behalten.
Post by Shinji Ikari
Post by Herbert Haberl
Gibt es denn einen Geschwindigkeitsunterschied, ob ich dann aus einer
Familie, z.B. Ironwolf, die 8, 10 oder 12 TB-Variante nehme?
Je enger die Daten beschrieben sind, desto mehr Daten flitzen bei
gleicher Drehzahl und ansonsten gleicher Technologie unter dem
Schreib/Lesekopf entlang.
Somit sind bei rein linearrer Benutzung grosse HDDs generell flotter
als kleinere.
Solange man aber in einer Baureihe bleibt, aendert sich auch an der
Datendichte meist nichts, so dass eien 8TB fast genauso aufgebaut ist,
wie eine 10TB, nur ggf. mehr Platteroberflaechen benutzt werden.
Es ist fuer die reine Nutzgeschwindigkeit also annaeherend egal ob man
eien aktuelle Ironwolf 8TB oder 10TB nimmt. Die
Geschwindigkeitsunterschiede gehen in den Messtoleranzen unter.
Ok.
Post by Shinji Ikari
Post by Herbert Haberl
Preislich interessant sind davon IMHO oft die Ironwolf und die Hitachi
Deskstar NAS Platten.
Danke für den Tipp, schaue ich mir beide hernach mal an.
Die hItachi NAS sind aber schwer zu bekommen (meist mit langen
Lieferzeiten oder zu teuer im Angebot), so dass ich davon noch keien
gestetet habe.
Schade.
Post by Shinji Ikari
Post by Herbert Haberl
Auch Toshiba und WD haben dahingehend gute Platten. Bei Toshiba waere
ich nur wegen der Garantiesituation vorsichtig und WD ist nicht selten
ein bisschen kostenintensiver.
Mit WD hatte ich zuletzt keine guten Erfahrungen, die hätte ich eh
ausgeschlossen.
IMHO hat jeder Hersteller (Seagate, WD, Toshiba, Hitachi,... [welche
teilweise zum selben Konzern gehoeren oder damit eng zusammen
arbeiten]) mal gut eund mal schlechtere Modelle im Sortiment.
EInen Hersteller aus der Auswahl generell ausschliessen wuerde ich
nicht (vor allem, weil es nur noch wenige gibt).
Früher hatte ich verschiedene Hersteller im Einsatz, gerne auch Samsungs
und Seagate verbaut. Durch die verschiedenen Firmenzusammenschlüsse habe
ich dann auch WD probiert, hatte aber immer wieder Probleme. Wahrscheinlich
Montagsexemplare erwischt. :(
Post by Shinji Ikari
Post by Herbert Haberl
Kann ich durch Partitionierung beeinflußen, dass die Partition 1
die Außenbahnen benutzt, von mir aus 2 TB, und der Rest ist die
2. Partition?
Das hanegt von der Plattenfiormware ab. Grundlegend geht das, aber es
sind auch schon Platten mit zusaetzlichem Pufferspeicher auf dem
Markt, welche dahingehend ins Handwerk pfuschen (Seagate Skyhawk mit
'Compute').
Ok, hab dein anderes Post gelesen und es soweit verstanden.
Post by Shinji Ikari
Post by Herbert Haberl
Aber bei PMR Platten sollten sequentiell noch immer 100-150MByt/s
schreidbend moeglich sein.
Das habe ich bei der > 2/3 gefüllten ST8000AS0002 definitiv nicht mehr
erreicht.
Dem stimme ich zu. Vor allem, wenn man eben durchgehend grosse Dateien
schreibt. Da ist der Pferdefuss der SMR Technik, die sich signifikant
auswirkt.
Ok.

Hab Dank für Deine Antwort
HH
Shinji Ikari
2017-12-20 18:03:13 UTC
Permalink
Guten Tag
Post by Herbert Haberl
Und welche 10 TB benutzt Du dann? IronWolf ohne Pro und was noch?
Nur bezoigen auf meien 10TB Platten:
Ich habe Ironwolf 10TB ST10000VN0004,
Skyhawk 10TB ST10000VX0004 und
Seagate Enterprise Capacity 10TB ST10000NM0016 (die aktuell auch als
Seagate Exos X X10 10TB, 512e bezeichnet wird)
Frank Möller
2017-12-23 10:18:16 UTC
Permalink
Post by Herbert Haberl
Kann ich durch Partitionierung beeinflußen, dass die Partition 1
die Außenbahnen benutzt, von mir aus 2 TB, und der Rest ist die
2. Partition?
Das ist eigentlich der Normalfall, ja.
Post by Herbert Haberl
Post by Shinji Ikari
Aber bei PMR Platten sollten sequentiell noch immer 100-150MByt/s
schreidbend moeglich sein.
Das habe ich bei der > 2/3 gefüllten ST8000AS0002 definitiv nicht mehr
erreicht.
Auf eine leere Seagate Ironwolf mit 4 TB (5900 U/min) habe ich gerade 1,75
TB in ca. 21000 Dateien draufkopiert, davon ca. 1100 große MPG- und
MP4-Dateien, der Rest Kleinkram (der die Performance drückt). Mit Robocopy
lief das in Summe dann mit 98,9 MB/s durch.

Aber: Die Platte hängt an USB3 und sie ist mit VeraCrypt verschlüsselt,
beides kostet etwas Performance. Außerdem läuft sie da als Wechselmedium,
weshalb bei _jedem_ Abschluß eines Schreibvorgangs einer Datei _immer_ brav
der Puffer geflusht wird.

Direkt an SATA III und unverschlüsselt kannst Du bei großen Dateien also
mit etwas mehr Durchsatz rechnen, zumal die Ironwolf-Modelle ab 6 TB Größe
auch mit 7200 U/min laufen. In Summe dürftest also in der Praxis (!)
durchaus mit 130 - 150 MB/s rechnen können, sofern die Platte nicht
übervoll und nicht heftig fragmentiert ist.

--
Herbert Haberl
2018-01-05 10:05:36 UTC
Permalink
Hallo Frank!
Post by Frank Möller
Post by Herbert Haberl
Kann ich durch Partitionierung beeinflußen, dass die Partition 1
die Außenbahnen benutzt, von mir aus 2 TB, und der Rest ist die
2. Partition?
Das ist eigentlich der Normalfall, ja.
Dann werde ich darauf bei der nächsten Festplatte achten.
Post by Frank Möller
Post by Herbert Haberl
Post by Shinji Ikari
Aber bei PMR Platten sollten sequentiell noch immer 100-150MByt/s
schreidbend moeglich sein.
Das habe ich bei der > 2/3 gefüllten ST8000AS0002 definitiv nicht mehr
erreicht.
Auf eine leere Seagate Ironwolf mit 4 TB (5900 U/min) habe ich gerade 1,75
TB in ca. 21000 Dateien draufkopiert, davon ca. 1100 große MPG- und
MP4-Dateien, der Rest Kleinkram (der die Performance drückt). Mit Robocopy
lief das in Summe dann mit 98,9 MB/s durch.
Aber: Die Platte hängt an USB3 und sie ist mit VeraCrypt verschlüsselt,
beides kostet etwas Performance. Außerdem läuft sie da als Wechselmedium,
weshalb bei _jedem_ Abschluß eines Schreibvorgangs einer Datei _immer_ brav
der Puffer geflusht wird.
Direkt an SATA III und unverschlüsselt kannst Du bei großen Dateien also
mit etwas mehr Durchsatz rechnen, zumal die Ironwolf-Modelle ab 6 TB Größe
auch mit 7200 U/min laufen. In Summe dürftest also in der Praxis (!)
durchaus mit 130 - 150 MB/s rechnen können, sofern die Platte nicht
übervoll und nicht heftig fragmentiert ist.
Danke für Deine Ausführungen! Ich werde das bei der hoffentlich morgen gelieferten
Festplatte testen.

Hab Dank für Deine Antwort
HH
Shinji Ikari
2017-12-29 00:36:38 UTC
Permalink
Guten Tag

Da im Rahmen dieser Diskussion die Geschwindigkeiten von aktuellen
HDDs angesprochen wurde und bei mir gerade ein Testlauf mit 4 HDDs
anstand, hab eich sporadisch ein paar der Werte notiert.

Seagate Ironwolf 8TB ST8000VN0022 Neuware frisch geliefert.
HD Tune Pro 4.61 Test von 4 Stueck HDD gleichzeitig an Asus B150C
OnBoard SATA Kontroller. B105C = Skylake MoBo mit Intel I5-6500.
HDD Firmware version : SC61
Capacity : 8001.6 gB (7452.0 GB)
Sector size : 512 bytes
Standard : ACS-2 - SATA III
Supported mode : UDMA Mode 6
Current mode : UDMA Mode 6
Rotation speed : 7200 RPM

HD Tune Pro 4.61 Erase RandomPattern
00% Geschrieben - Speed 229 MByte/s
17% Geschrieben - Speed 226 MByte/s
26% Geschrieben - Speed 219 MByte/s Zeit 02:26:56 hh:mm:ss
34% Geschrieben - Speed 207 MByte/s Zeit 03:14:24 hh:mm:ss
62% Geschrieben - Speed 179 MByte/s Zeit 06:19:08 hh:mm:ss
72% Geschrieben - Speed 162 MByte/s Zeit 07:35:42 hh:mm:ss
79% Geschrieben - Speed 150 MByte/s Zeit 08:29:55 hh:mm:ss
87% Geschrieben - Speed 135 MByte/s Zeit 09:39:17 hh:mm:ss
100% Geschrieben- Speed ??? MByte/s Zeit 11:47:03 hh:mm:ss

Leider den 100% Punkt verpasst um Geschwindigkeit zu notieren.
Geschwindigkeit sollte aber immer noch oberhalb ca.100MByte/s gelegen
haben.

Ich hoffe das hilft.
Rainer Knaepper
2017-12-29 01:07:00 UTC
Permalink
Post by Shinji Ikari
Guten Tag
Da im Rahmen dieser Diskussion die Geschwindigkeiten von aktuellen
HDDs angesprochen wurde und bei mir gerade ein Testlauf mit 4 HDDs
anstand, hab eich sporadisch ein paar der Werte notiert.
Seagate Ironwolf 8TB ST8000VN0022 Neuware frisch geliefert.
HD Tune Pro 4.61 Test von 4 Stueck HDD gleichzeitig an Asus B150C
OnBoard SATA Kontroller. B105C = Skylake MoBo mit Intel I5-6500.
HDD Firmware version : SC61
Capacity : 8001.6 gB (7452.0 GB)
Sector size : 512 bytes
Standard : ACS-2 - SATA III
Supported mode : UDMA Mode 6
Current mode : UDMA Mode 6
Rotation speed : 7200 RPM
HD Tune Pro 4.61 Erase RandomPattern
00% Geschrieben - Speed 229 MByte/s
17% Geschrieben - Speed 226 MByte/s
26% Geschrieben - Speed 219 MByte/s Zeit 02:26:56 hh:mm:ss
34% Geschrieben - Speed 207 MByte/s Zeit 03:14:24 hh:mm:ss
62% Geschrieben - Speed 179 MByte/s Zeit 06:19:08 hh:mm:ss
72% Geschrieben - Speed 162 MByte/s Zeit 07:35:42 hh:mm:ss
79% Geschrieben - Speed 150 MByte/s Zeit 08:29:55 hh:mm:ss
87% Geschrieben - Speed 135 MByte/s Zeit 09:39:17 hh:mm:ss
100% Geschrieben- Speed ??? MByte/s Zeit 11:47:03 hh:mm:ss
Leider den 100% Punkt verpasst um Geschwindigkeit zu notieren.
Geschwindigkeit sollte aber immer noch oberhalb ca.100MByte/s
gelegen haben.
Ich hoffe das hilft.
Hab zwar nicht gefragt, trotzdem Danke!

Rainer
--
Leider meinen manche Poster,
dass sie einem Bildschirm schreiben
und nicht einem Menschen.
(Herbert Pesendorfer in de.alt.rec.digitalfotografie)
Marcel Mueller
2017-12-29 07:31:07 UTC
Permalink
Post by Shinji Ikari
Da im Rahmen dieser Diskussion die Geschwindigkeiten von aktuellen
HDDs angesprochen wurde und bei mir gerade ein Testlauf mit 4 HDDs
anstand, hab eich sporadisch ein paar der Werte notiert.
Leider den 100% Punkt verpasst um Geschwindigkeit zu notieren.
Geschwindigkeit sollte aber immer noch oberhalb ca.100MByte/s gelegen
haben.
Viel mehr interessiert hätten mich Random-Access Zugriffszeiten, da
immer mehr Hersteller diese nicht mehr angeben bzw. die Angaben nicht
mehr reproduzierbar sind.
Dass die Platte 100-200 MB/s machen ist erwartungsgemäß und eine direkte
Folge der Aufzeichnungsdichte und Drehzahl.


Marcel
Loading...