Discussion:
SSD und Over-Provisioning
(zu alt für eine Antwort)
Leo Baumann
2020-09-06 10:37:43 UTC
Permalink
Hi,

immer wieder lese ich in Newsgroups, dass Over-Provisioning bei modernen
SSDs nicht mehr nötig ist.-

Hier ein Zitat aus einem Interview mit Marcel Binder, Technical Product
Manager bei Samsung zu diesem Thema:

Zitat:"Darunter versteht man die Tatsache, dass eine SSD mehr
Speicherblöcke enthält, als ihre Nettokapazität angibt. Durch dieses
Over-Provisioning kann die SSD Speicherzellen automatisch ersetzen,
falls sie auszufallen drohen. Die Lebensdauer wird dadurch erheblich
erhöht. In der Regel verfügt eine moderne SSD über 5 bis 10 Prozent
dieser Speicherzellen, die als Ersatz für gealterten Speicher zur
Verfügung stehen. Je größer das Over-Provisioning, desto mehr „Reserve“
hat der Benutzer für gealterte oder defekte Speicherzellen. In Zeiten
der Digitalisierung und einem kontinuierlich steigenden Datenaufkommen
durchaus mehr als einen Gedanken wert."

Hier das ganze Interview:
https://www.zdnet.de/88265552/interview-mit-samsungs-ssd-spezialist-marcel-binder/

:)
Marcel Mueller
2020-09-06 19:01:33 UTC
Permalink
Post by Leo Baumann
immer wieder lese ich in Newsgroups, dass Over-Provisioning bei modernen
SSDs nicht mehr nötig ist.-
Hier ein Zitat aus einem Interview mit Marcel Binder, Technical Product
[...]

Es ist nicht nötig, dass /Du/ dich damit befasst. Das hat der Hersteller
schon getan, indem er mehr Speicherzellen verbaut hat, als die SSD
nominell hat. Das hat /jede/ SSD.

Man könnte den Anteil weiter erhöhen, indem man einen Teil der SSD nicht
nutzt. Das ist normalerweise nicht mehr nötig.


Marcel
Leo Baumann
2020-09-06 19:59:54 UTC
Permalink
Post by Marcel Mueller
Es ist nicht nötig, dass /Du/ dich damit befasst.
Ich habe eine alte SATA-SSD, die wurde 2014 gebaut.
Andreas M. Kirchwitz
2020-09-07 01:11:54 UTC
Permalink
Post by Marcel Mueller
Post by Leo Baumann
immer wieder lese ich in Newsgroups, dass Over-Provisioning bei modernen
SSDs nicht mehr nötig ist.-
Es ist nicht nötig, dass /Du/ dich damit befasst. Das hat der Hersteller
schon getan, indem er mehr Speicherzellen verbaut hat, als die SSD
nominell hat. Das hat /jede/ SSD.
Na ja, "jede" ist eine schwierige Aussage. Jahrelang wurde SSDs nur
wenig Kapazität als interner Arbeitsbereich zugestanden, und kaum
war die SSD voll und das Betriebssystem hat freigewordene Bereiche
nicht gemeldet, ist SSDs die Puste ausgegangen.
Post by Marcel Mueller
Man könnte den Anteil weiter erhöhen, indem man einen Teil der SSD nicht
nutzt. Das ist normalerweise nicht mehr nötig.
Woher weiß man als Nutzer, ob eine SSD das nötig hat oder nicht?

Grüße, Andreas
Leo Baumann
2020-09-07 01:53:05 UTC
Permalink
Post by Andreas M. Kirchwitz
Woher weiß man als Nutzer, ob eine SSD das nötig hat oder nicht?
Eben, man weiß es als Nutzer nicht. Aber sowohl Micron als auch Samsung
liefern bei Ihren Modellen entsprechende Software mit.

Gruß
Andreas M. Kirchwitz
2020-09-07 02:43:29 UTC
Permalink
Post by Leo Baumann
Post by Andreas M. Kirchwitz
Woher weiß man als Nutzer, ob eine SSD das nötig hat oder nicht?
Eben, man weiß es als Nutzer nicht. Aber sowohl Micron als auch Samsung
liefern bei Ihren Modellen entsprechende Software mit.
Wie starte ich eine Software, wenn ich die SSD gerade neu im Laden
gekauft habe und es noch kein Betriebssystem gibt? :-) Oder ist die
SSD ab Werk bootfähig vorinstalliert, das wäre ja dann neckisch.

Grüße, Andreas
Leo Baumann
2020-09-07 02:53:55 UTC
Permalink
Post by Andreas M. Kirchwitz
Wie starte ich eine Software, wenn ich die SSD gerade neu im Laden
gekauft habe und es noch kein Betriebssystem gibt?
Samsung liefert für seine SSDs eine Migrationssoftware mit.

Grüße
Takvorian
2020-09-07 09:23:58 UTC
Permalink
Post by Leo Baumann
Post by Andreas M. Kirchwitz
Woher weiß man als Nutzer, ob eine SSD das nötig hat oder nicht?
Eben, man weiß es als Nutzer nicht. Aber sowohl Micron als auch Samsung
liefern bei Ihren Modellen entsprechende Software mit.
Man muss als Nutzer da nichts wissen. Man baut das Ding ein und verwendet
es. Die mitgelieferte Bloatware ignoriert man, wenn man problemlos arbeiten
möchte. Siehe auch:
https://heise.de/-3849412
https://heise.de/-3755009
Leo Baumann
2020-09-07 12:19:30 UTC
Permalink
Post by Takvorian
Post by Leo Baumann
Post by Andreas M. Kirchwitz
Woher weiß man als Nutzer, ob eine SSD das nötig hat oder nicht?
Eben, man weiß es als Nutzer nicht. Aber sowohl Micron als auch Samsung
liefern bei Ihren Modellen entsprechende Software mit.
Man muss als Nutzer da nichts wissen. Man baut das Ding ein und verwendet
es. Die mitgelieferte Bloatware ignoriert man, wenn man problemlos arbeiten
https://heise.de/-3849412
https://heise.de/-3755009
Ich höre da lieber auf den Fachmann, der sagt, das ist besser:

Zitat:"Darunter versteht man die Tatsache, dass eine SSD mehr
Speicherblöcke enthält, als ihre Nettokapazität angibt. Durch dieses
Over-Provisioning kann die SSD Speicherzellen automatisch ersetzen,
falls sie auszufallen drohen. Die Lebensdauer wird dadurch erheblich
erhöht. In der Regel verfügt eine moderne SSD über 5 bis 10 Prozent
dieser Speicherzellen, die als Ersatz für gealterten Speicher zur
Verfügung stehen. Je größer das Over-Provisioning, desto mehr „Reserve“
hat der Benutzer für gealterte oder defekte Speicherzellen. In Zeiten
der Digitalisierung und einem kontinuierlich steigenden Datenaufkommen
durchaus mehr als einen Gedanken wert."

Hier das ganze Interview:
https://www.zdnet.de/88265552/interview-mit-samsungs-ssd-spezialist-marcel-binder/
Takvorian
2020-09-07 12:45:48 UTC
Permalink
Was solche Aussagen wert sind, zeigen ja die Tests. Bei Erreichen von
9,1 Petabyte in ca. 200 Jahren darf meine SSD dann ruhig ihr Leben
aushauchen.
Meine SSDs werden so behandelt wie auch die HDDs schon immer behandelt
wurden und sie werden auch nicht geschont, im Gegenteil, sie werden mehr
genutzt als die HDDs, die nur noch als Datengrab fungieren. Je mehr auf der
SSD gemacht wird, desto performanter läuft das System.
Detlef Wirsing
2020-09-07 17:10:37 UTC
Permalink
Post by Takvorian
Was solche Aussagen wert sind, zeigen ja die Tests. Bei Erreichen von
9,1 Petabyte in ca. 200 Jahren darf meine SSD dann ruhig ihr Leben
aushauchen.
Meine SSDs werden so behandelt wie auch die HDDs schon immer behandelt
wurden und sie werden auch nicht geschont, im Gegenteil, sie werden mehr
genutzt als die HDDs, die nur noch als Datengrab fungieren. Je mehr auf der
SSD gemacht wird, desto performanter läuft das System.
Das sehe ich auch so. Ich kaufe mir den Computerkrempel nicht, um ihn
zu schonen, sondern um ihn möglichst ausgiebig zu nutzen. Außerdem
wird durch Overprovisioning nichts geschont. Es wird nur nicht die
volle Kapazität der SSD zur Verfügung gestellt. Meine HDDs benutze ich
als Endlager für Videos, die darauf typischerweise 1-2 mal geschrieben
werden. Davor sind sie während der Bearbeitung im Schnitt schon 6 mal
auf 2 verschiedene SSDs geschrieben worden, wenn nicht öfter. Wer
seine SSDs schonen möchte, dem empfehle ich, sie originalverpackt mit
Siegel ins Regal zu legen. Der schiebt wahrscheinlich auch sein Auto,
damit es lange hält.

Mit freundlichen Grüßen
Detlef Wirsing
Marc Haber
2020-09-07 14:56:43 UTC
Permalink
Post by Leo Baumann
https://www.zdnet.de/88265552/interview-mit-samsungs-ssd-spezialist-marcel-binder/
Das ist von 2016. Inzwischen dürfte technische Weiterentwicklung
stattgefunden haben.
--
-------------------------------------- !! No courtesy copies, please !! -----
Marc Haber | " Questions are the | Mailadresse im Header
Mannheim, Germany | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 621 72739834
Leo Baumann
2020-09-07 15:42:59 UTC
Permalink
Post by Marc Haber
Das ist von 2016. Inzwischen dürfte technische Weiterentwicklung
stattgefunden haben.
Ich würde gerne wissen wieviel Over-Provisioning eine NVMe SSD Samsung
970 Pro intern von Werk aus hat.
Arno Welzel
2020-09-07 16:48:17 UTC
Permalink
Post by Leo Baumann
Post by Marc Haber
Das ist von 2016. Inzwischen dürfte technische Weiterentwicklung
stattgefunden haben.
Ich würde gerne wissen wieviel Over-Provisioning eine NVMe SSD Samsung
970 Pro intern von Werk aus hat.
Unter Windows kann man das mit den entsprechenden Tools von Samsung
abfragen:

<https://www.samsung.com/de/ssd/magiciansoftware/>
--
Arno Welzel
https://arnowelzel.de
Detlef Wirsing
2020-09-07 17:18:05 UTC
Permalink
Post by Arno Welzel
Post by Leo Baumann
Post by Marc Haber
Das ist von 2016. Inzwischen dürfte technische Weiterentwicklung
stattgefunden haben.
Ich würde gerne wissen wieviel Over-Provisioning eine NVMe SSD Samsung
970 Pro intern von Werk aus hat.
Unter Windows kann man das mit den entsprechenden Tools von Samsung
<https://www.samsung.com/de/ssd/magiciansoftware/>
Ich glaube, ihr verwechselt hier alle was. Over Provisioning ist das,
was man selbst macht, indem man Bereiche der Nennkapazität
unpartitioniert und damit ungenutzt lässt. Was der Hersteller von
vornherein nicht zum Beschreiben freigegeben hat, zeigt auch der
Samsung Magician nicht an.

Mit freundlichen Grüßen
Detlef Wirsing
Arno Welzel
2020-09-08 11:43:43 UTC
Permalink
Post by Detlef Wirsing
Post by Arno Welzel
Post by Leo Baumann
Post by Marc Haber
Das ist von 2016. Inzwischen dürfte technische Weiterentwicklung
stattgefunden haben.
Ich würde gerne wissen wieviel Over-Provisioning eine NVMe SSD Samsung
970 Pro intern von Werk aus hat.
Unter Windows kann man das mit den entsprechenden Tools von Samsung
<https://www.samsung.com/de/ssd/magiciansoftware/>
Ich glaube, ihr verwechselt hier alle was. Over Provisioning ist das,
was man selbst macht, indem man Bereiche der Nennkapazität
unpartitioniert und damit ungenutzt lässt. Was der Hersteller von
vornherein nicht zum Beschreiben freigegeben hat, zeigt auch der
Samsung Magician nicht an.
Siehe dazu hier:

<https://www.samsung.com/de/support/memory-storage/welche-funktionen-hat-magician/>

Zitat:

Welche Funktionen hat das SSD-Tool Samsung Magician?
(...)
Over-Provisioning: Verlängern Sie die Lebensdauer Ihrer SSD, indem
Over-Provisioning freien Speicherplatz reserviert. Weder das
Betriebssystem noch ein Anwender hat Zugriff, so dass dem Controller
dieser Platz als "Arbeitsspeicher" immer zur Verfügung steht.

(Zitat Ende)

Samsung bietet laut diesem White Paper wohl auch ein passende Linux-Tool
dafür an:

<https://www.samsung.com/semiconductor/global.semi.static/S190311-SAMSUNG-Memory-Over-Provisioning-White-paper.pdf>
--
Arno Welzel
https://arnowelzel.de
Andreas M. Kirchwitz
2020-09-08 13:57:55 UTC
Permalink
Post by Arno Welzel
Samsung bietet laut diesem White Paper wohl auch ein passende Linux-Tool
<https://www.samsung.com/semiconductor/global.semi.static/S190311-SAMSUNG-Memory-Over-Provisioning-White-paper.pdf>
Linux hatte ich beim ersten Überfliegen glatt übersehen, danke für
den Hinweis.

Das Linux-Tool ist "hdparm". :-) Sowohl unter Windows als auch unter
Linux verändern sie die Disk-Geometrie und verringern die sichtbare
Gesamtkapazität. Den gleichen Effekt erreicht man freilich, indem man
eine Partition anlegt, die man nie nutzt.

Der allerletzte Absatz weist ehrlicherweise darauf hin, dass dies
am sinnvollsten geschieht, wenn die Platte unbenutzt frisch aus der
Verpackung kommt und als jungfräuliche Zweitplatte am System hängt.

Damit wäre auch die Ausgangsfrage beantwortet, allerdings wohl nicht
im Sinne der meisten SSD-Nutzer. Also weiterhin brav eine ungenutzte
Partition auf SSDs anlegen, etwa 10-20%, je was man entbehren kann.
Das mit der Partition finde ich charmanter als die Geometrie-Fummelei.

Wieder was gelernt ... Andreas
Leo Baumann
2020-09-08 16:30:06 UTC
Permalink
Post by Andreas M. Kirchwitz
Damit wäre auch die Ausgangsfrage beantwortet, allerdings wohl nicht
im Sinne der meisten SSD-Nutzer. Also weiterhin brav eine ungenutzte
Partition auf SSDs anlegen, etwa 10-20%, je was man entbehren kann.
Das mit der Partition finde ich charmanter als die Geometrie-Fummelei.
Wieder was gelernt ...
Das sehe ich auch so. Generell zu sagen, dass Over-Provisoning
Schwachsinn ist, wenn die Fachleute das Gegenteil empfehlen ist
irgendwie dumm.
Takvorian
2020-09-08 17:09:31 UTC
Permalink
Post by Leo Baumann
Post by Andreas M. Kirchwitz
Damit wäre auch die Ausgangsfrage beantwortet, allerdings wohl nicht
im Sinne der meisten SSD-Nutzer. Also weiterhin brav eine ungenutzte
Partition auf SSDs anlegen, etwa 10-20%, je was man entbehren kann.
Das mit der Partition finde ich charmanter als die Geometrie-Fummelei.
Wieder was gelernt ...
Leider Unsinn gelernt. Aber Unsinn ist ja eh nicht tot zu bekommen, dagegen
hilft gar nichts.
Post by Leo Baumann
Das sehe ich auch so. Generell zu sagen, dass Over-Provisoning
Schwachsinn ist, wenn die Fachleute das Gegenteil empfehlen ist
irgendwie dumm.
SSDs werden so hergestellt, dass sie wie ausgeliefert problemlos verwendbar
sind. Das "Over-Provisioning" ist praktisch eingebaut. Wie lange sie ohne
"Geheim-Tricks" und ohne "Schonung" halten, ist in den diversen Tests zu
sehen: sie vertragen mehr Schreibzugriffe als normale User erzeugen können.
Und wenn ein Datenträger zu etwa 90% voll ist, wechselt man ihn gegen ein
größeres Modell aus, das war schon immer so.
Andreas M. Kirchwitz
2020-09-08 23:34:13 UTC
Permalink
Post by Takvorian
Post by Leo Baumann
Post by Andreas M. Kirchwitz
Damit wäre auch die Ausgangsfrage beantwortet, allerdings wohl nicht
im Sinne der meisten SSD-Nutzer. Also weiterhin brav eine ungenutzte
Partition auf SSDs anlegen, etwa 10-20%, je was man entbehren kann.
Das mit der Partition finde ich charmanter als die Geometrie-Fummelei.
Wieder was gelernt ...
Leider Unsinn gelernt. Aber Unsinn ist ja eh nicht tot zu bekommen, dagegen
hilft gar nichts.
Vielleicht möchtest Du genauer lesen, was Samsungs Standpunkt zum
Over-Provisioning ist.
Post by Takvorian
Post by Leo Baumann
Das sehe ich auch so. Generell zu sagen, dass Over-Provisoning
Schwachsinn ist, wenn die Fachleute das Gegenteil empfehlen ist
irgendwie dumm.
SSDs werden so hergestellt, dass sie wie ausgeliefert problemlos verwendbar
sind. Das "Over-Provisioning" ist praktisch eingebaut.
Das ist eine gewagte Behauptung von Dir, dass dies allgemein so sei.
Wie wir nun gelernt haben, macht Samsung heutzutage anscheinend ein
anständiges "Factory" Over-Provisioning. Der Nutzer kann noch was
drauflegen, was die Lebensdauer zusätzlich verlängert, aber er muss
es nicht (mehr) zwingend tun. Es hilft aber trotzdem.

Wie sieht das bei anderen Herstellern aus? In welcher Höhe machen
die "Factory" Over-Provisioning? Bei anderen Herstellern/Modellen
kann ein "User" Over-Provisioning weiterhin höchst ratsam sein.
Post by Takvorian
Wie lange sie ohne
"Geheim-Tricks" und ohne "Schonung" halten, ist in den diversen Tests zu
sehen: sie vertragen mehr Schreibzugriffe als normale User erzeugen können.
Solche Tests stellen keine realistischen Bedingungen nach,
insbesondere in Zeiten von PLC reicht es nicht, einfach nur
stur die SSD von vorn nach hinten zu beschreiben.

Desweiteren wird immer nur gegen die Garantiezeit gerechnet,
aber die meisten Geräte werden sehr viel länger verwendet,
und dann schrumpft die "astronomische" Datenmenge, die täglich
geschrieben werden müsste, deutlich zusammen auf Mengen, die
man heutzutage täglich locker überschreitet.
Post by Takvorian
Und wenn ein Datenträger zu etwa 90% voll ist, wechselt man ihn gegen ein
größeres Modell aus, das war schon immer so.
Warum soll man Datenträger austauschen, wenn er zu 90% voll ist?
"Das war schon immer so"? Also bei mir nicht, die sind auch mal
locker ein oder zwei Jahrzehnte in Betrieb. Wenn ich mehr Platz
brauche, dann meist auf einem externen Massenspeicher, hingegen
der interne Speicherbedarf ändert sich nur langsam.

Mir reicht es nicht, dass eine SSD nur bis zum Ende der Garantie
funktioniert. Das ist verdammt kurz. Ich möchte ein Vielfaches an
Lebenszeit. Und wenn mir der Hersteller nicht ausdrücklich zusagt,
dass sein "Factory" Over-Provisioning mehr als üppig ist, werde
ich weiterhin "User" Over-Provisioning machen, denn auch die
allerneusten Testberichte bringen immer wieder ans Tageslicht,
dass auch manch moderne SSD bei zu hohem Füllstand komplett
einbricht, was nichts anderes bedeutet, dass es eben auch in 2020
nicht überall ausreichendes "Factory" Over-Provisioning gibt.

Grüße, Andreas
Takvorian
2020-09-09 11:50:20 UTC
Permalink
Post by Andreas M. Kirchwitz
Post by Takvorian
Post by Leo Baumann
Post by Andreas M. Kirchwitz
Damit wäre auch die Ausgangsfrage beantwortet, allerdings wohl nicht
im Sinne der meisten SSD-Nutzer. Also weiterhin brav eine ungenutzte
Partition auf SSDs anlegen, etwa 10-20%, je was man entbehren kann.
Das mit der Partition finde ich charmanter als die Geometrie-Fummelei.
Wieder was gelernt ...
Leider Unsinn gelernt. Aber Unsinn ist ja eh nicht tot zu bekommen, dagegen
hilft gar nichts.
Vielleicht möchtest Du genauer lesen, was Samsungs Standpunkt zum
Over-Provisioning ist.
Nein, vielleicht möchtest du die Links, die ich postete, endlich mal genauer
lesen. Noch mal:
| Es ist ein verbreiteter Mythos: Man sollte zehn Prozent der Kapazität frei
| lassen, damit die SSD mehr Platz für interne Aufräumarbeiten hat und ihre
| Lebensdauer erhöht wird. Das ist jedoch nicht wahr: Die SSD nutzt den
| ungenutzten Speicher ohnehin – ob er nun einer Partition zugeordnet ist oder
| nicht.
Post by Andreas M. Kirchwitz
Post by Takvorian
Post by Leo Baumann
Das sehe ich auch so. Generell zu sagen, dass Over-Provisoning
Schwachsinn ist, wenn die Fachleute das Gegenteil empfehlen ist
irgendwie dumm.
SSDs werden so hergestellt, dass sie wie ausgeliefert problemlos verwendbar
sind. Das "Over-Provisioning" ist praktisch eingebaut.
Das ist eine gewagte Behauptung von Dir, dass dies allgemein so sei.
Nein, das ist Realität. Keiner SSD liegt eine Anleitung bei, wie man ein
"Over-Provisioning" einzustellen habe. Sie sind wie HDDs auch einfach
einzubauen und zu verwenden.
Post by Andreas M. Kirchwitz
Post by Takvorian
Wie lange sie ohne
"Geheim-Tricks" und ohne "Schonung" halten, ist in den diversen Tests zu
sehen: sie vertragen mehr Schreibzugriffe als normale User erzeugen können.
Solche Tests stellen keine realistischen Bedingungen nach,
Eben, diese Tests sind unrealistisch, weil sie SSDs weitaus mehr beschreiben
als normale User es jemals schaffen.
Post by Andreas M. Kirchwitz
Post by Takvorian
Und wenn ein Datenträger zu etwa 90% voll ist, wechselt man ihn gegen ein
größeres Modell aus, das war schon immer so.
Warum soll man Datenträger austauschen, wenn er zu 90% voll ist?
"Das war schon immer so"?
Richtig. Weil man Datenträger nicht zu 100% voll schreibt. Das galt schon
immer.
Post by Andreas M. Kirchwitz
Also bei mir nicht, die sind auch mal
locker ein oder zwei Jahrzehnte in Betrieb. Wenn ich mehr Platz
brauche, dann meist auf einem externen Massenspeicher, hingegen
der interne Speicherbedarf ändert sich nur langsam.
Kommt auf den Verwendungszweck an. Ich habe hier eine 120 GB-SSD als
System-Disk. Das System braucht ca. 50 GB, da bleibt also allzeit jede Menge
Speicher frei. Ich wäre also mit dem Klammerbeutel gepudert, würde ich auf
so einer SSD unpartitionierten Speicher frei lassen. Es ist ja eh fast immer
mehr als 50% Speicher frei.
Wird die SSD hingegen als Datengrab verwendet, so wird sie nach und nach
immer voller und man muss sie also irgendwann austauschen oder rechtzeitig
neuen Speicher dazu kaufen, bevor sie voll ist. Es wäre allerdings unschön,
die Daten nun auf mehreren Laufwerken und Buchstaben vorliegen zu haben,
also würde ich lieber auf eine größere SSD umsteigen oder nach Zukauf einer
gleich großen neuen SSD die alte SSD löschen und aus beiden SSDs ein
Stripeset-Volume bilden mit dem Vorteil verdoppelten Speichers und höherer
Performance.
Post by Andreas M. Kirchwitz
Mir reicht es nicht, dass eine SSD nur bis zum Ende der Garantie
funktioniert. Das ist verdammt kurz Ich möchte ein Vielfaches an
Lebenszeit.
Die Lebenszeit erhöht sich dummerweise durch Umsetzung von Mythen um keine
Sekunde.
Andreas M. Kirchwitz
2020-09-09 14:48:48 UTC
Permalink
Post by Takvorian
Post by Andreas M. Kirchwitz
Vielleicht möchtest Du genauer lesen, was Samsungs Standpunkt zum
Over-Provisioning ist.
Nein, vielleicht möchtest du die Links, die ich postete, endlich mal genauer
Samsung hat für mich eine höhere Bedeutung als die c't, aus der Du
zitierst, und die c't unterstützt im übrigen Deinen Standpunkt nur
bedingt, die c't widerspricht sich im Kern sogar selbst.
Post by Takvorian
| Es ist ein verbreiteter Mythos: Man sollte zehn Prozent der Kapazität frei
| lassen, damit die SSD mehr Platz für interne Aufräumarbeiten hat und ihre
| Lebensdauer erhöht wird. Das ist jedoch nicht wahr: Die SSD nutzt den
| ungenutzten Speicher ohnehin – ob er nun einer Partition zugeordnet ist oder
| nicht.
Es ist eben *kein* Mythos, SSDs brauchen signifikanten Platz zum
Arbeiten, sonst bricht die Performance ein. Jede HDD wäre schneller.

Der Platz kann durch "Factory" Over-Provisioning erreicht werden,
das scheint aber selten zu sein, insbesondere bei Consumer-Geräten.
(Und selbst wenn, wie erfährt der Anwender davon?)

Der Platz kann durch "User" Over-Provisioning erreicht werden,
entweder direkt durch eine ungenutzte Partition oder verringerte
Geometrie. Dieser Ansatz ist idiotensicher. Oder indirekt lässt
der Nutzer immer eine signifikante Menge frei und stellt sicher,
dass zwingend TRIM unterstützt wird. Das erfordert Disziplin.
Post by Takvorian
Post by Andreas M. Kirchwitz
Post by Takvorian
SSDs werden so hergestellt, dass sie wie ausgeliefert problemlos verwendbar
sind. Das "Over-Provisioning" ist praktisch eingebaut.
Das ist eine gewagte Behauptung von Dir, dass dies allgemein so sei.
Nein, das ist Realität.
Äh, nein, "Over-Provisioning" ist eben nicht allgemein eingebaut,
sondern in der Regel muss der Anwender dafür sorgen, dass er
weniger nutzt, als möglich wäre.

Das mag in der Praxis bei manchen Anwendern unbewusst so irgendwie
hinhauen, aber bei manchen Anwendern, die den Platz tatsächlich
nutzen, fährt die SSD damit voll gegen die Wand.
Post by Takvorian
Post by Andreas M. Kirchwitz
Solche Tests stellen keine realistischen Bedingungen nach,
Eben, diese Tests sind unrealistisch, weil sie SSDs weitaus mehr beschreiben
als normale User es jemals schaffen.
Äh, nein, so viel schreiben normale User sehr wohl im Alltag,
wenn man nämlich nicht die winzige Garantie-Zeit als Basis nimmt,
sondern die sehr viel längere tatsächliche Dauer der Verwendung.

SSDs erfordern Mitdenken. Man kann SSDs sehr viel schneller an
die Wand fahren als klassischen Harddisks.
Post by Takvorian
Post by Andreas M. Kirchwitz
Warum soll man Datenträger austauschen, wenn er zu 90% voll ist?
"Das war schon immer so"?
Richtig. Weil man Datenträger nicht zu 100% voll schreibt. Das galt schon
immer.
Solch eine Regel ist mir neu, warum soll man das nicht tun?
Ich nutze Datenträger bis kurz vor Anschlag, dafür habe ich
schließlich bezahlt. Mit SSDs geht das freilich nicht.
Post by Takvorian
Kommt auf den Verwendungszweck an. Ich habe hier eine 120 GB-SSD als
System-Disk. Das System braucht ca. 50 GB, da bleibt also allzeit jede Menge
Speicher frei. Ich wäre also mit dem Klammerbeutel gepudert, würde ich auf
so einer SSD unpartitionierten Speicher frei lassen. Es ist ja eh fast immer
mehr als 50% Speicher frei.
Ich arbeite gern mit virtuellen Maschinen. Mein Basissystem ist
überschaubar, den restlichen Speicher bekommen die Images.
Das Filesystem des Hosts hat am Ende vielleicht 1 bis 2 Prozent
frei, das sind absolut betrachtet mehrere Gigabyte, also mehr
als genug Puffer, aber der SSD reicht das nicht, die verreckt
elendig mit so wenig Platz zum Jonglieren. BTDT.

Mit Harddisks alles kein Problem, mit SSDs geht das halt so nicht.

Ist alles lösbar, aber muss man halt mitdenken. Einfach einbauen
und loslegen wie früher, das geht mit SSDs auf Dauer nicht gut.

Harddisks sind deutlich unkomplizierter. Leider auch langsamer.
Post by Takvorian
Post by Andreas M. Kirchwitz
Mir reicht es nicht, dass eine SSD nur bis zum Ende der Garantie
funktioniert. Das ist verdammt kurz Ich möchte ein Vielfaches an
Lebenszeit.
Die Lebenszeit erhöht sich dummerweise durch Umsetzung von Mythen um keine
Sekunde.
Samsung hat ja nun vorgerechnet, dass man der SSD eben sehr
wohl durch "User" Over-Provisioning etwas Gutes tun kann.

Selbst die c't, die Du zitierst, widerspricht dem überhaupt nicht,
sondern weist darauf hin, dass die SSD unbedingt freien Platz für
sich benötigt, bekommt dann aber die Kurve nicht hin, daraus eine
sinnvolle Anweisung für den Leser zu machen. "Das geht schon
irgendwie gut", redet sich die c't raus, aber die Wahrheit ist,
der Anwender sollte entweder von vornherein ein Stück für die SSD
abzweigen oder alternativ bewusst darauf achten, die SSD niemals
über einen bestimmten Schwellwert zu füllen (TRIM nicht vergessen).

Heutige (bezahlbare) SSDs sind zum Glück groß genug geworden,
dass sie im Alltag seltener randvoll werden, aber früher waren
SSDs so winzig, da war es um jedes ungenutzte Bit schade.

Geändert hat sich aber eigentlich nichts. SSDs brauchen einen
Arbeitsbereich. Es gibt viele Wege, wie sie ihn bekommen können,
aber irgendeinen dieser Wege muss man ihnen gewähren.

Grüße, Andreas
Takvorian
2020-09-09 18:36:25 UTC
Permalink
Post by Andreas M. Kirchwitz
Post by Takvorian
Post by Andreas M. Kirchwitz
Vielleicht möchtest Du genauer lesen, was Samsungs Standpunkt zum
Over-Provisioning ist.
Nein, vielleicht möchtest du die Links, die ich postete, endlich mal genauer
Samsung hat für mich eine höhere Bedeutung als die c't, aus der Du
zitierst, und die c't unterstützt im übrigen Deinen Standpunkt nur
bedingt, die c't widerspricht sich im Kern sogar selbst.
Nein, ganz sicher nicht, denn...
Post by Andreas M. Kirchwitz
Post by Takvorian
| Es ist ein verbreiteter Mythos: Man sollte zehn Prozent der Kapazität frei
| lassen, damit die SSD mehr Platz für interne Aufräumarbeiten hat und ihre
| Lebensdauer erhöht wird. Das ist jedoch nicht wahr: Die SSD nutzt den
| ungenutzten Speicher ohnehin – ob er nun einer Partition zugeordnet ist oder
| nicht.
Es ist eben *kein* Mythos, SSDs brauchen signifikanten Platz zum
Arbeiten,
...die c't behauptet nicht, SSDs brauchten für die Verwaltung keinen Platz,
sondern sie behauptet, dass man diesen Platz nicht zusätzlich reservieren
muss, da der freie Speicher ja eh schon für diese Zwecke genutzt wird.
Post by Andreas M. Kirchwitz
sonst bricht die Performance ein. Jede HDD wäre schneller.
Allenfalls würde die Schreib-Performance leiden, die Lese-Performance nicht.
Generell werden Daten bei normaler Nutzung sehr viel häufiger gelesen als
geschrieben.
Post by Andreas M. Kirchwitz
Der Platz kann durch "User" Over-Provisioning erreicht werden,
entweder direkt durch eine ungenutzte Partition oder verringerte
Geometrie. Dieser Ansatz ist idiotensicher. Oder indirekt lässt
der Nutzer immer eine signifikante Menge frei und stellt sicher,
dass zwingend TRIM unterstützt wird. Das erfordert Disziplin.
Erstens unterstützt Windows automatisch TRIM, zweitens erfordert es keine
Disziplin, sondern es ist selbstverständlich, Disks nicht randvoll
zuzuknallen. Damit hat man sein "Over-Provisioning" ohne Einsatz von
Bloatware.
Post by Andreas M. Kirchwitz
Das mag in der Praxis bei manchen Anwendern unbewusst so irgendwie
hinhauen,
Bei halbwegs intelligenten Usern haut das ganz bewusst hin. Ich war auch als
DAU schon immer alarmiert, wenn eine Disk langsam voll wurde. Im Explorer
wird so ein Laufwerk auch alarmierend rot markiert.
Post by Andreas M. Kirchwitz
aber bei manchen Anwendern, die den Platz tatsächlich
nutzen, fährt die SSD damit voll gegen die Wand.
Gerade bei sehr kleinen Disks, die knapp am Limit gekauft wurden,
entscheiden manchmal wenige MB über Erfolg oder Misserfolg eines Upgrades.
Gerade da würde ich auf keinen Fall zusätzlichen Platz durch OP-Blödsinn
verschwenden, sondern lieber das Upgrade gelingen lassen und dafür eine
geringere Schreib-Performance riskieren. Zusätzlich so schnell wie möglich
eine Disk in vernünftiger, ausreichender Größe anschaffen.
Post by Andreas M. Kirchwitz
Post by Takvorian
Post by Andreas M. Kirchwitz
Solche Tests stellen keine realistischen Bedingungen nach,
Eben, diese Tests sind unrealistisch, weil sie SSDs weitaus mehr beschreiben
als normale User es jemals schaffen.
Äh, nein, so viel schreiben normale User sehr wohl im Alltag,
wenn man nämlich nicht die winzige Garantie-Zeit als Basis nimmt,
sondern die sehr viel längere tatsächliche Dauer der Verwendung.
Für User, die ihre Disk mindestens 50 - 100 Jahre nutzen wollen, mag das
evtl. zutreffen. Ich komme jedenfalls nicht auf einen Wert von 9 Petabyte,
auch nicht in 10 Jahren. Ist aber irrelevant, da man eben Disks nicht
randvoll zuknallt. Zudem sind Datenträger Wegwerfware und keine
Wertgegenstände. Eine 120er oder 250er Disk bekommt man für'n Appel und Ei.
Post by Andreas M. Kirchwitz
SSDs erfordern Mitdenken.
Nur so viel Mitdenken, wie man für alle anderen Datenträger ebenfalls
benötigt. IT ist ohne Mitdenken auch eh zum Scheitern verurteilt. Wenn die
Leute z.B. hinsichtlich Sicherheit mitdenken könnten, wäre sehr viel
gewonnen. Was tun sie aber? Sie überlassen es sogenannter
"Sicherheitssoftware".
Post by Andreas M. Kirchwitz
Man kann SSDs sehr viel schneller an die Wand fahren als klassischen Harddisks.
Falsch, HDDs sind da wesentlich empfindlicher. Die sind wirklich im Nu an
die Wand gefahren, wenn man nicht aufpasst.
Post by Andreas M. Kirchwitz
Post by Takvorian
Post by Andreas M. Kirchwitz
Warum soll man Datenträger austauschen, wenn er zu 90% voll ist?
"Das war schon immer so"?
Richtig. Weil man Datenträger nicht zu 100% voll schreibt. Das galt schon
immer.
Solch eine Regel ist mir neu, warum soll man das nicht tun?
Na, weil das System für seine Arbeit freien Speicher benötigt, für Updates
und Upgrades und sonstige Arbeiten wie Defragmentierung usw.
Post by Andreas M. Kirchwitz
Ich nutze Datenträger bis kurz vor Anschlag, dafür habe ich
schließlich bezahlt. Mit SSDs geht das freilich nicht.
Doch, das geht auch da - mit den nahezu gleichen üblen Folgen.
Post by Andreas M. Kirchwitz
Post by Takvorian
Kommt auf den Verwendungszweck an. Ich habe hier eine 120 GB-SSD als
System-Disk. Das System braucht ca. 50 GB, da bleibt also allzeit jede Menge
Speicher frei. Ich wäre also mit dem Klammerbeutel gepudert, würde ich auf
so einer SSD unpartitionierten Speicher frei lassen. Es ist ja eh fast immer
mehr als 50% Speicher frei.
Ich arbeite gern mit virtuellen Maschinen.
Ich auch. Die liegen hier auf einer 1-TB-SSD.
Post by Andreas M. Kirchwitz
Mein Basissystem ist
überschaubar, den restlichen Speicher bekommen die Images.
Hier bekommen sie nicht den restlichen, sondern nur einen kleinen Teil des
restlichen Speichers. Der größte Teil der SSD ist freier Speicher.
Post by Andreas M. Kirchwitz
Das Filesystem des Hosts hat am Ende vielleicht 1 bis 2 Prozent
frei, das sind absolut betrachtet mehrere Gigabyte, also mehr
als genug Puffer, aber der SSD reicht das nicht, die verreckt
elendig mit so wenig Platz zum Jonglieren. BTDT.
Sagte ich schon mal, dass man Datenträger in vernünftiger, ausreichender
Größe kaufen sollte?
Post by Andreas M. Kirchwitz
Mit Harddisks alles kein Problem, mit SSDs geht das halt so nicht.
Mit zu vollen HDDs bekommt man überwiegend die gleichen Probleme, siehe
oben.
Post by Andreas M. Kirchwitz
Ist alles lösbar, aber muss man halt mitdenken. Einfach einbauen
und loslegen wie früher, das geht mit SSDs auf Dauer nicht gut.
Man musste auch die Größe von HDDs schon immer vernünftig planen, sonst geht
das ebenfalls nicht gut.
Post by Andreas M. Kirchwitz
Harddisks sind deutlich unkomplizierter. Leider auch langsamer.
HDDs sind Prinzessinnen auf der Erbse, ein Stoß kann schon das Ende
bedeuten.

[Wiederholungen entsorgt]
Andreas M. Kirchwitz
2020-09-09 19:13:22 UTC
Permalink
Post by Takvorian
Post by Andreas M. Kirchwitz
sonst bricht die Performance ein. Jede HDD wäre schneller.
Allenfalls würde die Schreib-Performance leiden, die Lese-Performance nicht.
Es leidet nicht nur die Schreibperformance, das übersteht man,
sondern es leidet auch die Lebensdauer. Man kann eine SSD auf
diese Weise problemlos in kürzester Zeit zerstören. BTDT.
Post by Takvorian
Ist aber irrelevant, da man eben Disks nicht randvoll zuknallt.
10% wird bei SSDs oft empfohlen. Bei 1 TB sind das 100 GB, die man
nicht nutzen darf. Würde ich normalerweise nicht freilassen ohne Not.
Auch nicht 50 GB, wenn man von nur 5% ausgeht.
Post by Takvorian
Zudem sind Datenträger Wegwerfware und keine Wertgegenstände.
Ich denke, hier trennen sich unsere Wege. Ich lege großen Wert auf
Zuverlässigkeit. Mag sein, dass man sich jeden Monat eine neue SSD
leisten könnte, aber ich ziehe es vor, wenn der PC möglichst lange
funktioniert, ohne mich im Stich zu lassen.
Post by Takvorian
Sagte ich schon mal, dass man Datenträger in vernünftiger, ausreichender
Größe kaufen sollte?
Der Spruch wird durch Wiederholung nicht schlauer. SSDs gibt es
nur bis zu maximalen Größen, die deutlich unter HDDs liegen, und
wenn man zudem eine Balance aus Preis/Kapazität anstrebt, muss
man nochmals Abstriche machen, wo man dann ungern unnötig viel
Platz verschwenden möchte.
Post by Takvorian
Post by Andreas M. Kirchwitz
Mit Harddisks alles kein Problem, mit SSDs geht das halt so nicht.
Mit zu vollen HDDs bekommt man überwiegend die gleichen Probleme, siehe
oben.
Äh, nein, mit vollen HDDs bekommst Du genau gar keine technischen
Probleme, mit SSDs schon, die werden grottenlangsam und gehen kaputt.

Aber wir drehen uns im Kreis. Dir ist es egal, ob und wie lange
Datenspeicher funktionieren. Mir ist das nicht egal. Das ist fair.
Jeder hat andere Ansprüche. Ich lass Dir Deine, lass Du mir meine.

Grüße, Andreas
Takvorian
2020-09-09 20:47:08 UTC
Permalink
Post by Andreas M. Kirchwitz
Post by Takvorian
Post by Andreas M. Kirchwitz
sonst bricht die Performance ein. Jede HDD wäre schneller.
Allenfalls würde die Schreib-Performance leiden, die Lese-Performance nicht.
Es leidet nicht nur die Schreibperformance, das übersteht man,
sondern es leidet auch die Lebensdauer. Man kann eine SSD auf
diese Weise problemlos in kürzester Zeit zerstören. BTDT.
Sagte ich schon mal, dass man Datenträger in vernünftiger Größe kaufen
sollte? Wer weiß, dass er für die SSD 90 GB Daten hat und sich dann eine
100-GB-SSD kaufte, dem müsste man die Narrenkappe aufsetzen. Ergo eine 250er
oder 500er kaufen.
Post by Andreas M. Kirchwitz
Post by Takvorian
Ist aber irrelevant, da man eben Disks nicht randvoll zuknallt.
10% wird bei SSDs oft empfohlen. Bei 1 TB sind das 100 GB, die man
nicht nutzen darf. Würde ich normalerweise nicht freilassen ohne Not.
Auch nicht 50 GB, wenn man von nur 5% ausgeht.
Aha, aber für dein Over-Provisioning würdest du diesen zusätzlichen Platz
reservieren lassen? Welch eine Logik soll das denn sein?
Post by Andreas M. Kirchwitz
Post by Takvorian
Zudem sind Datenträger Wegwerfware und keine Wertgegenstände.
Ich denke, hier trennen sich unsere Wege. Ich lege großen Wert auf
Zuverlässigkeit. Mag sein, dass man sich jeden Monat eine neue SSD
leisten könnte, aber ich ziehe es vor, wenn der PC möglichst lange
funktioniert, ohne mich im Stich zu lassen.
Das tut er bei ONU für viele Jahre. Hier ebenfalls. Da gehen auch ohne
OP-Blödsinn nicht jeden Monat Disks kaputt. Die meisten ONUs wissen von OP
auch gar nichts.
Post by Andreas M. Kirchwitz
Post by Takvorian
Sagte ich schon mal, dass man Datenträger in vernünftiger, ausreichender
Größe kaufen sollte?
Der Spruch wird durch Wiederholung nicht schlauer.
Der Spruch ist maximal schlau, schlauer kann er nimmer werden - und durch
Wiederholung wird er nicht weniger schlau.
Post by Andreas M. Kirchwitz
SSDs gibt es
nur bis zu maximalen Größen, die deutlich unter HDDs liegen, und
wenn man zudem eine Balance aus Preis/Kapazität anstrebt, muss
man nochmals Abstriche machen, wo man dann ungern unnötig viel
Platz verschwenden möchte.
SSDs gibt's derzeit bis 4 TB, das ist also für ONU mehr als ausreichend -
wobei man für reine Datenspeicherung immer noch auf HDDs setzt. Eher niemand
würde für Anwenderdaten in mehrfacher TB-Größe SSD-Speicher hernehmen
wollen. Für Langzeitspeicherung auch denkbar schlecht geeignet.
Post by Andreas M. Kirchwitz
Post by Takvorian
Post by Andreas M. Kirchwitz
Mit Harddisks alles kein Problem, mit SSDs geht das halt so nicht.
Mit zu vollen HDDs bekommt man überwiegend die gleichen Probleme, siehe
oben.
Äh, nein, mit vollen HDDs bekommst Du genau gar keine technischen
Probleme, mit SSDs schon, die werden grottenlangsam und gehen kaputt.
Ich hatte dir die Probleme deutlich beschrieben: Updates, Upgrades, sonstige
Arbeiten des Systems wie Defragmentierung... Mit zu vollen Datenträgern
bekommt man viele Probleme.
Post by Andreas M. Kirchwitz
Aber wir drehen uns im Kreis. Dir ist es egal, ob und wie lange
Datenspeicher funktionieren.
Ist mir nicht egal. Ich weiß nämlich, dass meine SSDs, so wie ich sie
einrichte, ihren geplanten Zweck erfüllen werden. Die älteste ist derzeit
6 Jahre alt und bestens in Form, ganz ohne OP-Quark. Gesamtzustand: gut.
Post by Andreas M. Kirchwitz
Mir ist das nicht egal. Das ist fair.
Jeder hat andere Ansprüche. Ich lass Dir Deine, lass Du mir meine.
Sicher, trotzdem bleibt es dabei, dass eine zusätzliche Reservierung von
Platz nicht erforderlich ist. Man kauft seine Datenträger in vernünftiger
Größe und wenn sie irgendwann mal zu voll werden, besorgt man Ersatz oder
zusätzlichen Speicher. Auf gar keinen Fall knallt man sie sinnlos voll.
Manfred Hamernik
2020-09-10 10:29:25 UTC
Permalink
*Andreas M. Kirchwitz*:

[...]
Post by Andreas M. Kirchwitz
SSDs gibt es
nur bis zu maximalen Größen, die deutlich unter HDDs liegen,
Also hier möchte ich mal kurz widersprechen. Geizhals listet 2,5" SSD's
mit einer Kapazität bis zu 31 TB! Das kriegst du im Jahr 2020 auf keine
HDD. *Natürlich*, so eine SSD will und kann sich kein ONU leisten, aber
rein auf dem Papier hat die SSD die Festplatte platzmäßig schon
überflügelt.

Gruß, Manfred
--
Es ist nicht so schlimm wie's noch wird.
Shinji Ikari
2020-09-10 16:28:47 UTC
Permalink
Guten Tag
Post by Manfred Hamernik
Post by Andreas M. Kirchwitz
SSDs gibt es
nur bis zu maximalen Größen, die deutlich unter HDDs liegen,
Also hier möchte ich mal kurz widersprechen. Geizhals listet 2,5" SSD's
mit einer Kapazität bis zu 31 TB!
Im 3,5Zoll sind schon 100TB verfuegbar, aber eben nicht billig.
https://www.chip.de/news/Eine-Festplatte-fuer-35.000-Euro-Das-ist-die-groesste-SSD-der-Welt_182741150.html

Als Privatperson kaufe ich mir keine 100TB SSD fuer 40.000US Dollar,
sondern, wenn ich die Kapazitaet brauche nehme ich entsprechende
Mengen HDDs (beispielsweise 8 bis 9 Stueck 12TB zu je ca. 260 Euro)
und ggf. 1 bis 2 geeignete Zusatzkontroller (und evtl. einen Expander)
und gebe dafuer dann nur in Summe rund 2600 Euro aus.
Mit Netzteil, Gehaeuse etc... alles zusammen unter 3kEuro. Soviel
Strom kann man damit gar nicht mehr als die SSD (nur 10W)
verschwenden, als dass sich die Preisdifferenz zugunsten dieser SSD
rechnen wuerde.
Post by Manfred Hamernik
Das kriegst du im Jahr 2020 auf keine
einzelne
Post by Manfred Hamernik
HDD.
*Natürlich*, so eine SSD will und kann sich kein ONU leisten, aber
rein auf dem Papier hat die SSD die Festplatte platzmäßig schon
überflügelt.
Da hast Du vollkommen recht.
Gerald E:scher
2020-09-09 14:34:16 UTC
Permalink
Post by Andreas M. Kirchwitz
Das Linux-Tool ist "hdparm". :-)
Den Parameter --trim-sector-ranges sollte man nicht benutzen ;-)
Aus man hdparm:

| --trim-sector-ranges
| For Solid State Drives (SSDs). EXCEPTIONALLY DANGEROUS. DO NOT USE THIS OPTION!! Tells the drive firmware to
| discard unneeded data sectors, destroying any data that may have been present within them. This makes those sec‐
| tors available for immediate use by the firmware's garbage collection mechanism, to improve scheduling for wear-
| leveling of the flash media. This option expects one or more sector range pairs immediately after the option: an
| LBA starting address, a colon, and a sector count (max 65535), with no intervening spaces. EXCEPTIONALLY DANGER‐
| OUS. DO NOT USE THIS OPTION!!
|
| E.g. hdparm --trim-sector-ranges 1000:4 7894:16 /dev/sdz
Post by Andreas M. Kirchwitz
Sowohl unter Windows als auch unter
Linux verändern sie die Disk-Geometrie und verringern die sichtbare
Gesamtkapazität. Den gleichen Effekt erreicht man freilich, indem man
eine Partition anlegt, die man nie nutzt.
Vorausgesetzt, diese Partition wurde entweder nie beschrieben oder
geTRIMt.
Unter Linux geht das TRIMen sämtlicher Blöcke einer Partition am
Einfachsten mit blkdiscard. Hasardeure können latürnich hdparm
verwenden ;-)
--
Gerald
Takvorian
2020-09-08 14:07:17 UTC
Permalink
Post by Arno Welzel
Post by Detlef Wirsing
Ich glaube, ihr verwechselt hier alle was. Over Provisioning ist das,
was man selbst macht, indem man Bereiche der Nennkapazität
unpartitioniert und damit ungenutzt lässt. Was der Hersteller von
vornherein nicht zum Beschreiben freigegeben hat, zeigt auch der
Samsung Magician nicht an.
<https://www.samsung.com/de/support/memory-storage/welche-funktionen-hat-magician/>
Welche Funktionen hat das SSD-Tool Samsung Magician?
(...)
Over-Provisioning: Verlängern Sie die Lebensdauer Ihrer SSD, indem
Over-Provisioning freien Speicherplatz reserviert. Weder das
Betriebssystem noch ein Anwender hat Zugriff, so dass dem Controller
dieser Platz als "Arbeitsspeicher" immer zur Verfügung steht.
Das ist allerdings Werbegeschwafel von Bloatware. Die SSD-Verwaltung nutzt
eh allen freien Speicherplatz, egal, ob der User ihn nun innerhalb einer
Partition frei lässt oder unpartitioniert außerhalb. Und wenn es auf einem
Datenträger mal wirklich eng wird, schafft man einen größeren an, das gilt
nicht nur für SSDs.
Detlef Wirsing
2020-09-08 22:26:00 UTC
Permalink
...
Post by Arno Welzel
Post by Detlef Wirsing
Ich glaube, ihr verwechselt hier alle was. Over Provisioning ist das,
was man selbst macht, indem man Bereiche der Nennkapazität
unpartitioniert und damit ungenutzt lässt. Was der Hersteller von
vornherein nicht zum Beschreiben freigegeben hat, zeigt auch der
Samsung Magician nicht an.
<https://www.samsung.com/de/support/memory-storage/welche-funktionen-hat-magician/>
Welche Funktionen hat das SSD-Tool Samsung Magician?
(...)
Over-Provisioning: Verlängern Sie die Lebensdauer Ihrer SSD, indem
Over-Provisioning freien Speicherplatz reserviert. Weder das
Betriebssystem noch ein Anwender hat Zugriff, so dass dem Controller
dieser Platz als "Arbeitsspeicher" immer zur Verfügung steht.
(Zitat Ende)
...

Ohne Kommentar verstehe ich nicht, warum du diese beiden Passagen
zusammenbebracht hast. Natürlich sind unpartitionierte Bereiche von
Festplatten oder SSDs für Anwender und Betriebssystem nicht
zugreifbar, bis sie partitioniert werden. Das ist banal.

Mit freundlichen Grüßen
Detlef Wirsing
Arno Welzel
2020-09-09 08:53:06 UTC
Permalink
Post by Detlef Wirsing
...
Post by Arno Welzel
Post by Detlef Wirsing
Ich glaube, ihr verwechselt hier alle was. Over Provisioning ist das,
was man selbst macht, indem man Bereiche der Nennkapazität
unpartitioniert und damit ungenutzt lässt. Was der Hersteller von
vornherein nicht zum Beschreiben freigegeben hat, zeigt auch der
Samsung Magician nicht an.
<https://www.samsung.com/de/support/memory-storage/welche-funktionen-hat-magician/>
Welche Funktionen hat das SSD-Tool Samsung Magician?
(...)
Over-Provisioning: Verlängern Sie die Lebensdauer Ihrer SSD, indem
Over-Provisioning freien Speicherplatz reserviert. Weder das
Betriebssystem noch ein Anwender hat Zugriff, so dass dem Controller
dieser Platz als "Arbeitsspeicher" immer zur Verfügung steht.
(Zitat Ende)
...
Ohne Kommentar verstehe ich nicht, warum du diese beiden Passagen
zusammenbebracht hast. Natürlich sind unpartitionierte Bereiche von
Weil die Aussage war, man könnte den vom Hersteller vorgesehenen Bereich
für Over-Provisioning bei Samsung SSDs nicht abfragen. Das geht mit den
Tools von Samsung durchaus.
Post by Detlef Wirsing
Festplatten oder SSDs für Anwender und Betriebssystem nicht
zugreifbar, bis sie partitioniert werden. Das ist banal.
Für das Betriebssystem nicht, aber eben auch nicht für die SSD. Denn der
Controller der SSD weiß nichts von Partitionstabellen und ob das
Betriebssystem die komplette Kapazität nutzt oder nicht. Deshalb gibt es
ja einen Bereich auf der SSD, der so reserviert ist, dass er garantiert
*niemals* durch ein Betriebssystem nutzbar ist und daher auch
*garantiert* für Fehlerkorrekturen verwendet werden kann.
--
Arno Welzel
https://arnowelzel.de
Thorsten Albrecht
2020-09-10 10:55:45 UTC
Permalink
Post by Arno Welzel
Post by Detlef Wirsing
...
Post by Arno Welzel
Post by Detlef Wirsing
Ich glaube, ihr verwechselt hier alle was. Over Provisioning ist das,
was man selbst macht, indem man Bereiche der Nennkapazität
unpartitioniert und damit ungenutzt lässt. Was der Hersteller von
vornherein nicht zum Beschreiben freigegeben hat, zeigt auch der
Samsung Magician nicht an.
<https://www.samsung.com/de/support/memory-storage/welche-funktionen-hat-magician/>
Welche Funktionen hat das SSD-Tool Samsung Magician?
(...)
Over-Provisioning: Verlängern Sie die Lebensdauer Ihrer SSD, indem
Over-Provisioning freien Speicherplatz reserviert. Weder das
Betriebssystem noch ein Anwender hat Zugriff, so dass dem Controller
dieser Platz als "Arbeitsspeicher" immer zur Verfügung steht.
(Zitat Ende)
...
Ohne Kommentar verstehe ich nicht, warum du diese beiden Passagen
zusammenbebracht hast. Natürlich sind unpartitionierte Bereiche von
Weil die Aussage war, man könnte den vom Hersteller vorgesehenen Bereich
für Over-Provisioning bei Samsung SSDs nicht abfragen. Das geht mit den
Tools von Samsung durchaus.
Ich sehe nicht, wie ich in Samsung Magician 6.1 den vom Hersteller
vorgesehenen Bereich für OP auslesen kann. Wo meinst Du, kann man das
sehen? Ich kann hier lediglich den von mir selbst festgelegten
OP-Bereich definieren / anschauen, der letztlich nur unpartitionierter
Bereich am "Ende" der SSD darstellt und somit auch in der normalen
Windows Datenträgerverwaltung definiert werden könnte.

Thorsten
Arno Welzel
2020-09-10 12:40:37 UTC
Permalink
[...]
Post by Thorsten Albrecht
Post by Arno Welzel
Weil die Aussage war, man könnte den vom Hersteller vorgesehenen Bereich
für Over-Provisioning bei Samsung SSDs nicht abfragen. Das geht mit den
Tools von Samsung durchaus.
Ich sehe nicht, wie ich in Samsung Magician 6.1 den vom Hersteller
vorgesehenen Bereich für OP auslesen kann. Wo meinst Du, kann man das
sehen? Ich kann hier lediglich den von mir selbst festgelegten
OP-Bereich definieren / anschauen, der letztlich nur unpartitionierter
Bereich am "Ende" der SSD darstellt und somit auch in der normalen
Windows Datenträgerverwaltung definiert werden könnte.
Der Controller der SSD weiß nichts von Dateisystemen und Partitionen und
davon, welche Blöcke er für OP nutzen darf, weil sie außerhalb einer
Partition des Betriebssystems liegen. Für OP wird generell nur der dafür
vorgesehenen Bereich genutzt, der eben *nicht* für das Betriebssystem
zugänglich ist. Genau deshalb ist es eben *nicht* das selbe, ob man nur
eine Partition kleiner macht, als die maximal nutzbare Kapazität der SSD
oder ob ein Teil durch die Firmware der SSD für OP reserviert ist.

Beispiel aus der Praxis:

Samsung 850 Pro mit nominell 512 GB.

Ich habe nichts an der SSD verändert, sondern sie nur direkt mit einer
einzigen NTFS-Partition versehen, die 100% der verfügbaren Kapazität
nutzt. Das ergibt laut Windows 476,92 GB - weil der Bereich für OP von
Samsung bei diesem Modell herstellerseitig auf 47 GB oder etwas über 9%
der Kapazität festgelgt wurde und Windows die 512 GB nicht vollständig
nutzen kann.

Anzeige laut Windows Datenträgerverwaltung:

<https://nextcloud.0x0c.de/s/NxmG5YWf6XntZ4Q/preview>

Ausgabe von diskpart (gekürzt):

DISKPART> list disk

Datenträger ### Status Größe Frei Dyn GPT
--------------- ------------- ------- ------- --- ---
...
Datenträger 1 Online 476 GB 1024 KB *
...

Wenn man sich nun in Samsung Magician die Einstellungen für OP ansieht,
sieht man auch, dass der Hersteller 47 GB dafür vorgegeben hat. Das kann
man aber, wenn man will auch ändern und den OP-Bereich auch verkleinern
(nur ganz entfernen geht nicht, es müssen mindestens 1% oder etwa 4GB
sein) - genau dafür gibt es dieses Tool:

<https://nextcloud.0x0c.de/s/badFYjjyGoLxNzp/preview>
--
Arno Welzel
https://arnowelzel.de
Thorsten Albrecht
2020-09-10 16:04:52 UTC
Permalink
Post by Arno Welzel
[...]
Post by Thorsten Albrecht
Post by Arno Welzel
Weil die Aussage war, man könnte den vom Hersteller vorgesehenen Bereich
für Over-Provisioning bei Samsung SSDs nicht abfragen. Das geht mit den
Tools von Samsung durchaus.
Ich sehe nicht, wie ich in Samsung Magician 6.1 den vom Hersteller
vorgesehenen Bereich für OP auslesen kann. Wo meinst Du, kann man das
sehen? Ich kann hier lediglich den von mir selbst festgelegten
OP-Bereich definieren / anschauen, der letztlich nur unpartitionierter
Bereich am "Ende" der SSD darstellt und somit auch in der normalen
Windows Datenträgerverwaltung definiert werden könnte.
Der Controller der SSD weiß nichts von Dateisystemen und Partitionen und
davon, welche Blöcke er für OP nutzen darf, weil sie außerhalb einer
Partition des Betriebssystems liegen. Für OP wird generell nur der dafür
vorgesehenen Bereich genutzt, der eben *nicht* für das Betriebssystem
zugänglich ist. Genau deshalb ist es eben *nicht* das selbe, ob man nur
eine Partition kleiner macht, als die maximal nutzbare Kapazität der SSD
oder ob ein Teil durch die Firmware der SSD für OP reserviert ist.
Hört sich theoretisch absolut einleuchtend an.

Ich kann jedoch auf meiner Platte (850 EVO) mittels der Windows
Datenträgerverwaltung locker den von Samsung Magician (SM)
reservierten OP-Bereich für eigene Partitionen oder auch eine
Partitionsvergrößerung der letzten Partition nutzen. Oder ihn sogar
löschen. Er ist also für das Betriebssystem zugänglich. Die Anzeige
in SM bzgl. des OP-Bereichs ändert sich dementsprechend.

Test 1:
- OP definiert in Samsung Magician mit 23 GB
- in Datenträgerverwaltung die letzte Partition um 1,5 GB verkleinert
- Anzeige in Samsung Magician: OP ist jetzt 25 GB groß.

Test 2+3:
- Bei einer Freigabe des OP in Magician ( verlängert sich die letzte
Partition um 25 GB.
- Bei einer erneuten Defintion von OP von 20 GB verkürzt sich die
letzte Partition entsprechend.

Also entweder liegst Du falsch, SM hat eine falsche OP-Anzeige oder
aber Samsung Magician macht das alles etwas unkonventionell, d.h. der
Controller benutzt für meine EVO einfach den nicht partitionierten
Plattenplatz für OP, obwohl er das streng genommen und theoretisch (s.
Deine obigen Ausführungen) nicht sollte. Vielleicht läuft es ja auch
nur bei den EVOs so und nicht bei der Pro. Glaube ich aber eher nicht.
Oder nur bei Samsung und nicht bei anderen Herstellern.
Post by Arno Welzel
Samsung 850 Pro mit nominell 512 GB.
Ich habe nichts an der SSD verändert, sondern sie nur direkt mit einer
einzigen NTFS-Partition versehen, die 100% der verfügbaren Kapazität
nutzt. Das ergibt laut Windows 476,92 GB - weil der Bereich für OP von
Samsung bei diesem Modell herstellerseitig auf 47 GB oder etwas über 9%
der Kapazität festgelgt wurde und Windows die 512 GB nicht vollständig
nutzen kann.
??
Du vermischt hier gerade Einheiten. Samsung gibt in seinem Datenblatt
für die Kapazität der 850 Pro genau 512 GB an - und zwar mit der
Definition 1 GB = 10^9 Bytes.

Und die Anzeige in der Windows-Datenträgerverwaltung ist GiB, was die
Anwender seit Jahrzehnten bekanntlich verwirrt.

Somit wird eine SSD mit 512 GB-Herstellerangabe in der Windows
Datenträgerverwaltung nur mit 476 GiB angezeigt. Das hat also nichts
mit einer OP in Höhe von 47 GB zu tun. (Meine 500 EVO wird übrigens
mit 465 GiB angezeigt).

Da Du also die 512 GB in voller Höhe in Windows nutzen kannst, hat
Deine Pro also kein factory eigenes OP, wie bereits Shinji schrieb.

Bei meiner EVO-SSD sieht die Sache jedoch ganz anders aus. Wie Shinji
ebenfalls schrieb, werden bei einer EVO-SSD 12 GB gar nicht erst in
der Spezifikation angegeben, obwohl davon auszugehen ist, dass die
Speicherchips ebenfalls 512 GB und nicht 500 GB groß sind. Genau diese
12 GB = 11,18 GiB Differenz bilden also bei mir das "factory eigene
OP", welches im Übrigen von SM nicht angezeigt wird.

Offenbar hat Deine Pro-SSD bessere Speicherzellen, die ohne ein
factory-OP auskommen, während das bei meiner nicht der Fall ist. Ich
war allerdings zu geizig für eine Pro ...
Post by Arno Welzel
Wenn man sich nun in Samsung Magician die Einstellungen für OP ansieht,
sieht man auch, dass der Hersteller 47 GB dafür vorgegeben hat. Das kann
man aber, wenn man will auch ändern und den OP-Bereich auch verkleinern
(nur ganz entfernen geht nicht, es müssen mindestens 1% oder etwa 4GB
<https://nextcloud.0x0c.de/s/badFYjjyGoLxNzp/preview>
Was meinst Du mit "nur ganz entfernen geht nicht"? Natürlich kann man
das OP löschen, s. o. Test 3.
So lange ich den Button "OP einrichten" nicht drücke, habe ich auch
kein OP eingerichtet - ganz egal, was die obige Grafik mit dem
Schieber suggeriert. Nach dem erfolgreichen Einrichten eines OP
zwischen 1-16% der Kapazität der Platte ändert sich die Beschriftung
des Buttons in "OP freigeben". Erst jetzt ist das OP eingerichtet. Zu
löschen durch den erwähnten Button oder aber durch jedes beliebige
Partitionierungsprogramm.

Thorsten
Thomas Niering
2020-09-10 18:19:00 UTC
Permalink
Hallo Thorsten,
Post by Thorsten Albrecht
Offenbar hat Deine Pro-SSD bessere Speicherzellen, die ohne ein
factory-OP auskommen, während das bei meiner nicht der Fall ist. Ich
war allerdings zu geizig für eine Pro ...
Aber auch Samsung rechnet intern mit Bytes und dem Dualsystem.
Sprich, zwischen GB und GiB versteckt sich ein wenig Speicher.
Und das kann man getrost als Factory-OP verstehen...

Ciao Thomas
Detlef Wirsing
2020-09-07 17:13:07 UTC
Permalink
Post by Leo Baumann
Post by Marc Haber
Das ist von 2016. Inzwischen dürfte technische Weiterentwicklung
stattgefunden haben.
Ich würde gerne wissen wieviel Over-Provisioning eine NVMe SSD Samsung
970 Pro intern von Werk aus hat.
Wozu? Ich hab hier eine 250er als BS-Platte und eine 1 TB zum Arbeiten
(neben einer 850 Eco mit 1 TB als Pendant). Kann mir doch völlig egal
sein, an wieviel Speicher ich nicht rankomme, solange die
Sollkapazität erreicht wird.

Mit freundlichen Grüßen
Detlef Wirsing
Arno Welzel
2020-09-08 11:44:31 UTC
Permalink
Post by Detlef Wirsing
Post by Leo Baumann
Post by Marc Haber
Das ist von 2016. Inzwischen dürfte technische Weiterentwicklung
stattgefunden haben.
Ich würde gerne wissen wieviel Over-Provisioning eine NVMe SSD Samsung
970 Pro intern von Werk aus hat.
Wozu? Ich hab hier eine 250er als BS-Platte und eine 1 TB zum Arbeiten
(neben einer 850 Eco mit 1 TB als Pendant). Kann mir doch völlig egal
sein, an wieviel Speicher ich nicht rankomme, solange die
Sollkapazität erreicht wird.
Es geht vielleicht auch darum, ob das Over-Provisioning eher großzügig
ist und dadurch eine längere Lebensdauer erreicht werden kann.
--
Arno Welzel
https://arnowelzel.de
Leo Baumann
2020-09-08 13:13:00 UTC
Permalink
Post by Arno Welzel
Es geht vielleicht auch darum, ob das Over-Provisioning eher großzügig
ist und dadurch eine längere Lebensdauer erreicht werden kann.
Nein, ich meinte, ich würde gerne wissen wieviel Provisioning diese
Samsung 970 Pro intern vom Hersteller her verbaut hat.

Over Provisioning ist wohl der Bereich, den man nicht partitioniert,
aber angeblich gibt es bereits unsichtbares Provisioning.
Takvorian
2020-09-08 14:12:18 UTC
Permalink
Post by Leo Baumann
Over Provisioning ist wohl der Bereich, den man nicht partitioniert,
| Es ist ein verbreiteter Mythos: Man sollte zehn Prozent der Kapazität frei
| lassen, damit die SSD mehr Platz für interne Aufräumarbeiten hat und ihre
| Lebensdauer erhöht wird. Das ist jedoch nicht wahr: Die SSD nutzt den
| ungenutzten Speicher ohnehin – ob er nun einer Partition zugeordnet ist oder
| nicht.
| Https://heise.de/-3849412
Andreas M. Kirchwitz
2020-09-08 14:14:38 UTC
Permalink
Post by Leo Baumann
Nein, ich meinte, ich würde gerne wissen wieviel Provisioning diese
Samsung 970 Pro intern vom Hersteller her verbaut hat.
Schau ins Datenblatt. Das dürfte je nach Modell verschieden sein.
Post by Leo Baumann
Over Provisioning ist wohl der Bereich, den man nicht partitioniert,
aber angeblich gibt es bereits unsichtbares Provisioning.
Over-Provisioning gibt es sowohl ab Werk vom Hersteller, damit die
SSD überhaupt arbeiten kann, als auch der Anwender kann noch einen
Teil der Kapazität durch Nicht-Nutzung der SSD zur Verfügung stellen
(z.B. durch ungenutzte Partition oder Fake-Disk-Geometrie).

TRIM gibt es natürlich ebenfalls, um der SSD freien Platz zu melden
(selten ist eine Disk ständig zu 100% voll), allerdings ist dieser
mit der Zeit fragmentiert und die SSD mag daraus geringeren Nutzen
ziehen als aus einem großen Bereich im Stück, denn wie das Filesystem
die Daten organisiert, dürfte selten exakt dazu passen, wie die SSD
intern arbeitet.

Grüße, Andreas
Arno Welzel
2020-09-08 16:36:25 UTC
Permalink
Post by Leo Baumann
Post by Arno Welzel
Es geht vielleicht auch darum, ob das Over-Provisioning eher großzügig
ist und dadurch eine längere Lebensdauer erreicht werden kann.
Nein, ich meinte, ich würde gerne wissen wieviel Provisioning diese
Samsung 970 Pro intern vom Hersteller her verbaut hat.
Und wozu?
Post by Leo Baumann
Over Provisioning ist wohl der Bereich, den man nicht partitioniert,
aber angeblich gibt es bereits unsichtbares Provisioning.
Ja, gibt es. Die SSD bietet nur einen Teil des verbauten Speichers als
benutzbar an. Der Rest wird für Fehlerkorrekturen reserviert.
--
Arno Welzel
https://arnowelzel.de
Shinji Ikari
2020-09-08 17:22:56 UTC
Permalink
Guten Tag
Post by Leo Baumann
Nein, ich meinte, ich würde gerne wissen wieviel Provisioning diese
Samsung 970 Pro intern vom Hersteller her verbaut hat.
Samsung 970 Pro:
Bei den 970 Pro Modellen nutzt Samsung einen leistungsfaehigen
Speicher, der aber die Daten nicht so dicht packt wie bei den anderen
Modellen (evo oder basic oder so).
Diese Speicherzellen sind von Hause aus weitaus haltbarer als die eben
dichter speichernden Zellen.
Ich finde nirgendwo Hinweise, dass Samsung bei den 970 Pro Modellen OP
Speicher extra versteckt hat. Und da die 970 nur im offenen M.2 Format
anbietet kann man die Speicherchips auch nachzaehlen. Ich wuerde nicht
annehmen, dass die bei den Chipstapeln einfach eine teure weitere Lage
dazu gepackt haben und somit sehr viel extra Speicher dem Kunden
geben.
Die 970 gibt es beispielsweise mit nominal 512GB Speicherplatz, was
auch den aufgebrachten Speicherchips entspricht. Extra
Hardwarespeicher ist da nicht zu erkennen (abgesehen vom
Zwischenspeicherbereich).
Man kann aber mit dem Samsung Magician der SSD einen Bereich fuer OP
reservieren und dann wird oft eine Groese von rund 5-10 Prozent
empfohlen.
Ob Samsung einen solchen Bereich schon vorher eingestellt hat
(Auslieferungszustand) kann ich nicht sagen.

Anders ist es beispielsweise bei den Evo Modellen.
Die werden nominal einfach mit weniger Speicher benannt (500 statt 512
GB) und somit sind die ca. "12GB" der in der Hardware sowieso
versteckte OP Bereich. (Durch die Umrechnung 500GByte = 500.000.000
ist da weitere Speicherplatz vorhanden, der entsprechend genutzt
wird).
Samsung 970 Evo:
https://www.hardware-mag.de/artikel/festplatten_ssds/v-nand_v4_samsung_ssd_970_evo_im_test/2/
"...Das 500-GB-Modell besteht aus lediglich zwei NAND-Packages des 4th
Gen V-NAND mit 64 gestapelten Lagen (jeweils 256 Gbit je Chip), die
beide auf der Oberseite des PCBs zu finden sind. Direkt daneben finden
wir den DRAM-Cache und den Phoenix-Controller. Die resultierenden 512
GB Gesamtspeicher stehen dem Kunden jedoch nicht vollständig zur
Verfügung, da ein separater Block für "Over-Provisioning" reserviert
wird dieser dient typischerweise dem Ausgleich defekter Speicherzellen
und erhöht die Lebensdauer von Solid State Drives. Offiziell gibt
Samsung die Speicherkapazität mit 500.000.000.000 Byte an, was
umgerechnet 465,76 GB entspricht..."
Arno Welzel
2020-09-09 08:57:55 UTC
Permalink
Shinji Ikari:

[...]
Post by Shinji Ikari
Die 970 gibt es beispielsweise mit nominal 512GB Speicherplatz, was
auch den aufgebrachten Speicherchips entspricht. Extra
Hardwarespeicher ist da nicht zu erkennen (abgesehen vom
Zwischenspeicherbereich).
Und als 1 GB gilt 1024*1024*1024 Bytes? Oder nur 1000*1000*1000?
Post by Shinji Ikari
Anders ist es beispielsweise bei den Evo Modellen.
Die werden nominal einfach mit weniger Speicher benannt (500 statt 512
GB) und somit sind die ca. "12GB" der in der Hardware sowieso
versteckte OP Bereich. (Durch die Umrechnung 500GByte = 500.000.000
ist da weitere Speicherplatz vorhanden, der entsprechend genutzt
wird).
https://www.hardware-mag.de/artikel/festplatten_ssds/v-nand_v4_samsung_ssd_970_evo_im_test/2/
"...Das 500-GB-Modell besteht aus lediglich zwei NAND-Packages des 4th
Gen V-NAND mit 64 gestapelten Lagen (jeweils 256 Gbit je Chip), die
beide auf der Oberseite des PCBs zu finden sind. Direkt daneben finden
[...]

Das gilt auch für die 970 Pro - da sind auch nur zwei Speicherchips,
Cache-RAM und Controller drauf:

<https://www.samsung.com/de/memory-storage/970-pro-nvme-m-2-ssd/MZ-V7P512BW/>
--
Arno Welzel
https://arnowelzel.de
Willi Marquart
2020-09-09 09:21:27 UTC
Permalink
Post by Arno Welzel
Und als 1 GB gilt 1024*1024*1024 Bytes? Oder nur 1000*1000*1000?
1 G = 10^9, 1 Gi = 2 ^ 30, das solle sich so langsam rumgesprochen
haben. Ist aber erst seit 1998 eine Norm der IEC.

Gruß Willi
Arno Welzel
2020-09-09 09:29:46 UTC
Permalink
Post by Willi Marquart
Post by Arno Welzel
Und als 1 GB gilt 1024*1024*1024 Bytes? Oder nur 1000*1000*1000?
1 G = 10^9, 1 Gi = 2 ^ 30, das solle sich so langsam rumgesprochen
haben. Ist aber erst seit 1998 eine Norm der IEC.
Das ist mir bekannt - die Frage war, wie Samsung diese Einheit
verwendet. Denn wenn 512 GB tatsächlich nur 512*10^9 Bytes sind, hätte
man bei zwei Speicherchips mit je 256 GiB Kapazität ja durchaus noch
Speicherplatz für Over-Provisioning übrig. Das ist dann nur weniger als
bei den "Evo"-Modellen aber eben nicht 0.
--
Arno Welzel
https://arnowelzel.de
Thorsten Albrecht
2020-09-10 11:06:41 UTC
Permalink
Post by Arno Welzel
[...]
Post by Shinji Ikari
Die 970 gibt es beispielsweise mit nominal 512GB Speicherplatz, was
auch den aufgebrachten Speicherchips entspricht. Extra
Hardwarespeicher ist da nicht zu erkennen (abgesehen vom
Zwischenspeicherbereich).
Und als 1 GB gilt 1024*1024*1024 Bytes? Oder nur 1000*1000*1000?
Die Festplattenhersteller verwenden die Kapazitätsangaben doch seit eh
und je mit der scheinbar höheren GB-Angabe. Das hat sich auch bei SSDs
nicht geändert. In der Spec steht dann immer (ganz weit unten) noch
eine kleine Fußnote. Bei meiner 500 EVO also:

"Kapazität
500 GB (1 GB = 1 Billion byte by IDEMA)

* Die tatsächlich verwendbare Kapazität kann geringer ausfallen
(abhängig von Formatierung, Partitionierung, Betriebssystem,
Anwendungen oder anderen Faktoren"

Thorsten
Takvorian
2020-09-08 14:09:21 UTC
Permalink
Post by Arno Welzel
Es geht vielleicht auch darum, ob das Over-Provisioning eher großzügig
ist und dadurch eine längere Lebensdauer erreicht werden kann.
Den meisten Usern ist es völlig egal, was mit ihrer SSD nach ihrem Tode (des
Users Tod) passiert. Wer sich deswegen Sorgen macht, hat nicht mehr alle
Latten am Zaun. <eg>
Arno Welzel
2020-09-08 16:37:37 UTC
Permalink
Post by Takvorian
Post by Arno Welzel
Es geht vielleicht auch darum, ob das Over-Provisioning eher großzügig
ist und dadurch eine längere Lebensdauer erreicht werden kann.
Den meisten Usern ist es völlig egal, was mit ihrer SSD nach ihrem Tode (des
Users Tod) passiert. Wer sich deswegen Sorgen macht, hat nicht mehr alle
Latten am Zaun. <eg>
Es ging aber nicht um den Tode des Users, sondern der SSD.
--
Arno Welzel
https://arnowelzel.de
Takvorian
2020-09-08 17:19:51 UTC
Permalink
Post by Arno Welzel
Post by Takvorian
Post by Arno Welzel
Es geht vielleicht auch darum, ob das Over-Provisioning eher großzügig
ist und dadurch eine längere Lebensdauer erreicht werden kann.
Den meisten Usern ist es völlig egal, was mit ihrer SSD nach ihrem Tode (des
Users Tod) passiert. Wer sich deswegen Sorgen macht, hat nicht mehr alle
Latten am Zaun. <eg>
Es ging aber nicht um den Tode des Users, sondern der SSD.
Beides hängt zusammen: wenn der User es während seiner Lebenszeit bzw.
während der üblichen Nutzungszeit nicht schafft, die SSD kaputt zu
schreiben, sind jegliche Schonungsmaßnahmen völlig absurd. Das wird die
SSD-Hypochonder hier aber nicht überzeugen. :o)
Arno Welzel
2020-09-09 08:59:23 UTC
Permalink
Post by Takvorian
Post by Arno Welzel
Post by Takvorian
Post by Arno Welzel
Es geht vielleicht auch darum, ob das Over-Provisioning eher großzügig
ist und dadurch eine längere Lebensdauer erreicht werden kann.
Den meisten Usern ist es völlig egal, was mit ihrer SSD nach ihrem Tode (des
Users Tod) passiert. Wer sich deswegen Sorgen macht, hat nicht mehr alle
Latten am Zaun. <eg>
Es ging aber nicht um den Tode des Users, sondern der SSD.
Beides hängt zusammen: wenn der User es während seiner Lebenszeit bzw.
während der üblichen Nutzungszeit nicht schafft, die SSD kaputt zu
schreiben, sind jegliche Schonungsmaßnahmen völlig absurd. Das wird die
SSD-Hypochonder hier aber nicht überzeugen. :o)
Ich habe es schon geschafft, SSDs kaputt zu schreiben. Aber das ist
schon länger her und betraf ein Modell mit lediglich 64 GB. Aktuelle
Modelle sind deutlich haltbarer.
--
Arno Welzel
https://arnowelzel.de
Shinji Ikari
2020-09-09 10:04:41 UTC
Permalink
Guten Tag
Post by Arno Welzel
Post by Takvorian
Post by Arno Welzel
Es ging aber nicht um den Tode des Users, sondern der SSD.
Beides hängt zusammen: wenn der User es während seiner Lebenszeit bzw.
während der üblichen Nutzungszeit nicht schafft, die SSD kaputt zu
schreiben, sind jegliche Schonungsmaßnahmen völlig absurd. Das wird die
SSD-Hypochonder hier aber nicht überzeugen. :o)
Ich habe es schon geschafft, SSDs kaputt zu schreiben.
Dito. Mehrere.
Wobei es nach deren Tode nicht erkennbar war ob die SSDs durch zuviel
schreiben oder einen anderen technischen Defekt verstarben. Da sie
aber stark beansprucht wurden (als Temporaerspeicher) gehe ich davon
aus, dass sie kaputtgeschrieben wurden.
Post by Arno Welzel
Aber das ist
schon länger her und betraf ein Modell mit lediglich 64 GB. Aktuelle
Modelle sind deutlich haltbarer.
Vor vielen Jahrene eine Vertex2 mit (ich glaube ca. 250GB) und vor ca.
2 Jahren eine ca. 1TB Crucial (ich weiss jetzt aber nicht aus dem
Kopf, ob es die eine meiner CT960M500SSD1 oder eine meiner
CT1000BX100SSD1 war). Und eine Samsung 830basic hat mal den Geist
aufgegeben, doch da die eigentlich nicht als Temporaerspeicher genutzt
wurde, vermute ich hier eher einen anderen technischen defekt als
Ursache. Aber egal sie war defekt und wurde entsorgt.
Sebastian Barthel
2020-10-13 09:13:56 UTC
Permalink
Post by Detlef Wirsing
Post by Leo Baumann
Post by Marc Haber
Das ist von 2016. Inzwischen dürfte technische Weiterentwicklung
stattgefunden haben.
Ich würde gerne wissen wieviel Over-Provisioning eine NVMe SSD Samsung
970 Pro intern von Werk aus hat.
Wozu? Ich hab hier eine 250er als BS-Platte und eine 1 TB zum Arbeiten
(neben einer 850 Eco mit 1 TB als Pendant). Kann mir doch völlig egal
sein, an wieviel Speicher ich nicht rankomme, solange die Sollkapazität
erreicht wird.
Angeblich kann man ja, indem man die Partitionen so legt, daß dahinter
noch freier Platz verbleibt, den vom SSDcontroller benutzbaren Platz
zusätzlich erhöhen. Man hat damit dann quasi eine Option ein wenig über
die Ausfallhäufigkeit eines Gesamtsystemes zu entscheiden - natürlich auf
Kosten von selbst nutzbarem Speicherplatz.

Ich weiß allerdings nicht, ob das wirklich so stimmt - oder ob das so
eine typische Internetfehlinfo war. Aber es klingt eigentlich ganz
nachvollziehbar.
Detlef Wirsing
2020-10-13 09:48:45 UTC
Permalink
Post by Sebastian Barthel
Angeblich kann man ja, indem man die Partitionen so legt, daß dahinter
noch freier Platz verbleibt, den vom SSDcontroller benutzbaren Platz
zusätzlich erhöhen. Man hat damit dann quasi eine Option ein wenig über
die Ausfallhäufigkeit eines Gesamtsystemes zu entscheiden - natürlich auf
Kosten von selbst nutzbarem Speicherplatz.
Ich weiß allerdings nicht, ob das wirklich so stimmt - oder ob das so
eine typische Internetfehlinfo war. Aber es klingt eigentlich ganz
nachvollziehbar.
Soweit ich weiß, war das wirklich mal der Fall. Es ist nur die Frage,
ob das nach inzwischen vielen Jahren der Entwicklung immer noch der
Fall ist. Darüber finde ich keine zuverlässigen Infos. Auch hier gehen
die Meinungen auseinander, wenn man den ganzen Thread liest.

Mit freundlichen Grüßen
Detlef Wirsing
Takvorian
2020-10-13 09:56:26 UTC
Permalink
Post by Sebastian Barthel
Angeblich kann man ja, indem man die Partitionen so legt, daß dahinter
noch freier Platz verbleibt, den vom SSDcontroller benutzbaren Platz
zusätzlich erhöhen. Man hat damit dann quasi eine Option ein wenig über
die Ausfallhäufigkeit eines Gesamtsystemes zu entscheiden - natürlich auf
Kosten von selbst nutzbarem Speicherplatz.
<recycle>
Sollte man zehn Prozent der Kapazität einer SSD frei lassen?
Es ist ein verbreiteter Mythos: Man sollte zehn Prozent der Kapazität frei
lassen, damit die SSD mehr Platz für interne Aufräumarbeiten hat und ihre
Lebensdauer erhöht wird. Das ist jedoch nicht wahr: Die SSD nutzt den
ungenutzten Speicher ohnehin – ob er nun einer Partition zugeordnet ist oder
nicht.
Arno Welzel
2020-10-13 13:22:24 UTC
Permalink
Sebastian Barthel:

[...]
Post by Sebastian Barthel
Angeblich kann man ja, indem man die Partitionen so legt, daß dahinter
noch freier Platz verbleibt, den vom SSDcontroller benutzbaren Platz
zusätzlich erhöhen. Man hat damit dann quasi eine Option ein wenig über
die Ausfallhäufigkeit eines Gesamtsystemes zu entscheiden - natürlich auf
Kosten von selbst nutzbarem Speicherplatz.
Dem Controller ist völlig egal, ob die Partition am Ende noch freien
Platz auf der SSD lässt, da er nichts von Dateisystemen und Partionen weiß.

Der für die SSD reservierte Bereich für Reserveblöcke, die im Fall eines
Totalausfalls eines Blocks genutzt werden, ist für das Betriebssystem
ohnehin nicht zugänglich.

Generell betreiben SSD-Controller Wear-Leveling - d.h. wenn ein Block
schon oft beschrieben wurde, weicht der Controller zuerst auf einen
weniger oft beschriebenen Block aus, damit die Blöcke im Laufe der Zeit
möglichst gleich oft genutzt werden. Freie Blöcke gibt es aber auch
innerhalb einer Partition - eben alle Blöcke, die noch nicht beschrieben
wurden.
--
Arno Welzel
https://arnowelzel.de
Gerald E:scher
2020-10-13 15:08:18 UTC
Permalink
Post by Arno Welzel
[...]
Post by Sebastian Barthel
Angeblich kann man ja, indem man die Partitionen so legt, daß dahinter
noch freier Platz verbleibt, den vom SSDcontroller benutzbaren Platz
zusätzlich erhöhen. Man hat damit dann quasi eine Option ein wenig über
die Ausfallhäufigkeit eines Gesamtsystemes zu entscheiden - natürlich auf
Kosten von selbst nutzbarem Speicherplatz.
Dem Controller ist völlig egal, ob die Partition am Ende noch freien
Platz auf der SSD lässt, da er nichts von Dateisystemen und Partionen weiß.
Aber im Falle einer neuen SSD weiß der Controller, dass die im
unpartionierten Bereich liegenden Blöcke für wear leveling zur Verfügung
stehten, da naturgemäß noch nie benutzt.
Post by Arno Welzel
Freie Blöcke gibt es aber auch
innerhalb einer Partition - eben alle Blöcke, die noch nicht beschrieben
wurden.
Und zusätzlich noch die Blöcke in unpartitionierten Bereichen einer
neuen SSD.
Bei einer benutzten SSD kann man dieser mit blkdiscard eine ganze
Partition als unbenutzt mitteilen.
http://manpages.ubuntu.com/manpages/bionic/de/man8/blkdiscard.8.html
--
Gerald
Arno Welzel
2020-10-13 23:16:58 UTC
Permalink
Post by Gerald E:scher
Post by Arno Welzel
[...]
Post by Sebastian Barthel
Angeblich kann man ja, indem man die Partitionen so legt, daß dahinter
noch freier Platz verbleibt, den vom SSDcontroller benutzbaren Platz
zusätzlich erhöhen. Man hat damit dann quasi eine Option ein wenig über
die Ausfallhäufigkeit eines Gesamtsystemes zu entscheiden - natürlich auf
Kosten von selbst nutzbarem Speicherplatz.
Dem Controller ist völlig egal, ob die Partition am Ende noch freien
Platz auf der SSD lässt, da er nichts von Dateisystemen und Partionen weiß.
Aber im Falle einer neuen SSD weiß der Controller, dass die im
unpartionierten Bereich liegenden Blöcke für wear leveling zur Verfügung
stehten, da naturgemäß noch nie benutzt.
Nein, das weiß er nicht. Für den Controller einer neuen SSD sind *alle*
Blöcke unbenutzt bis auf die wenigen, die für die Dateisysemverwaltung
vom Betriebssystem angelegt wurden.
Post by Gerald E:scher
Post by Arno Welzel
Freie Blöcke gibt es aber auch
innerhalb einer Partition - eben alle Blöcke, die noch nicht beschrieben
wurden.
Und zusätzlich noch die Blöcke in unpartitionierten Bereichen einer
neuen SSD.
Aber eben nicht *nur*. Darum geht es mir. Es ist sinnfrei, Bereiche
hinter einer Partition freizulassen. Wo die freien Blöcke liegen, ist
dem Controller komplett egal.
--
Arno Welzel
https://arnowelzel.de
Marcel Mueller
2020-09-08 17:52:27 UTC
Permalink
Post by Leo Baumann
Post by Andreas M. Kirchwitz
Woher weiß man als Nutzer, ob eine SSD das nötig hat oder nicht?
Eben, man weiß es als Nutzer nicht. Aber sowohl Micron als auch Samsung
liefern bei Ihren Modellen entsprechende Software mit.
Deren Installation würde ich mir gut überlegen. Die kann genauso gut das
System destabilisieren oder kompromittieren. Ein bestimmungsgemäßer
Betrieb ist es immer auch ohne die Software.


Marcel
Marcel Mueller
2020-09-08 17:40:31 UTC
Permalink
Post by Andreas M. Kirchwitz
Post by Marcel Mueller
Post by Leo Baumann
immer wieder lese ich in Newsgroups, dass Over-Provisioning bei modernen
SSDs nicht mehr nötig ist.-
Es ist nicht nötig, dass /Du/ dich damit befasst. Das hat der Hersteller
schon getan, indem er mehr Speicherzellen verbaut hat, als die SSD
nominell hat. Das hat /jede/ SSD.
Na ja, "jede" ist eine schwierige Aussage. Jahrelang wurde SSDs nur
wenig Kapazität als interner Arbeitsbereich zugestanden, und kaum
war die SSD voll und das Betriebssystem hat freigewordene Bereiche
nicht gemeldet, ist SSDs die Puste ausgegangen.
Das kann auch heute noch passieren, wenn die freien Blöcke rar und/oder
stark fragmentiert sind. Stichwort Write Amplification.

Zudem dauert das Schreiben ausgelutschter Blöcke länger, weshalb SSDs
beim schreiben mit der Zeit immer etwas langsamer werden. Relevant bzw.
spürbar ist das i.d.R. aber nicht, das das wesentlich häufigere Lesen
schnell bleibt.
Post by Andreas M. Kirchwitz
Post by Marcel Mueller
Man könnte den Anteil weiter erhöhen, indem man einen Teil der SSD nicht
nutzt. Das ist normalerweise nicht mehr nötig.
Woher weiß man als Nutzer, ob eine SSD das nötig hat oder nicht?
Das weiß nur der Hersteller.

Aber wenn Trim aktiviert ist, was heute so ziemlich jedes OS kann, dann
zählt der komplette freie Speicher aller Partitionen mit zum
Handlungsspielraum der SSD. Das sind fast immer 10% oder mehr, wenn man
die Partitionen nicht an einer Tour asymptotisch vollschreibt.

Die Empfehlung kommt noch aus der Zeit, wo Trim nicht üblich war und
Flash-Chips sündhaft teuer. Da konnte man die Write Amplification schon
merklich reduzieren, wenn man einen Teil frei ließ.

Letztlich mussten sich natürlich auch erst Erfahrungswerte mit der neuen
Technik ansammeln. Am Anfang haben viele Panik geschoben, weil die
Flash-Chips nur endlich oft überschreibbar sind.
Heute weiß man, dass endlich oft immer noch ganz schön viel sein kann.
In der c't haben sie mal versucht, SSDs tot zu schreiben. Das war
mächtig Arbeit, und das 10-fache der angegebenen Lebensdauer war keine
Seltenheit.

Es gibt nur sehr wenige Anwendungen, wo man auf die Endurance einer SSD
aufpassen muss. Das Transaktionslog von Datenbanken ist z.B. so ein
Kandidat, vor allem, wenn es im Simple Recovery Model gefahren wird.
In einem normalen SOHO Desktop braucht man sich keine Sorgen machen.
In einer jeden Tag genutzten Videoschnitt-Workstation hingegen schon.
Wenn man das aber nur gelegentlich macht, ist es auch schon wieder egal.


Marcel
Andreas M. Kirchwitz
2020-09-09 00:15:55 UTC
Permalink
Post by Marcel Mueller
Aber wenn Trim aktiviert ist, was heute so ziemlich jedes OS kann, dann
zählt der komplette freie Speicher aller Partitionen mit zum
Handlungsspielraum der SSD. Das sind fast immer 10% oder mehr, wenn man
die Partitionen nicht an einer Tour asymptotisch vollschreibt.
Mit der Zeit dürfte jener freie Speicher zumindest aus Sicht des
Betriebssystems ziemlich wild verteilt sein. Fragmentation ist
bei SSDs zwar für sich gesehen kein Ding mehr, aber SSDs können
ja nicht jedes Bit völlig frei einzeln ansprechen. Deshalb frage
ich mich, ob z.B. freie 10 GB aus Sicht des Betriebssystems von
der SSDs ebenso gut genutzt werden können (da gibt es sicherlich
viele Überlappungen mit anderen Daten) wie ein Bereich von 10 GB
im Stück (z.B. durch eine ungenutzte Partition).

Was wird bei TRIM eigentlich freigegeben? Blöcke bestimmter Größe?
Die SSD weiß ja nichts von Filesystemen, sondern die gaukelt dem
Betriebssystem irgendeine virtuelle Geometrie vor, und umgekehrt
ist auch dem Betriebssystem klar, dass die ausgelesene Geometrie
eine künstliche Vereinbarung ist, aber keine Rückschlüsse auf die
Physik dahinter erlaubt. Trotzdem müssen sich ja beide auf etwas
einigen, wenn das OS per TRIM sagt, es gibt freien Platz.
Post by Marcel Mueller
Es gibt nur sehr wenige Anwendungen, wo man auf die Endurance einer SSD
aufpassen muss. Das Transaktionslog von Datenbanken ist z.B. so ein
Kandidat, vor allem, wenn es im Simple Recovery Model gefahren wird.
In einem normalen SOHO Desktop braucht man sich keine Sorgen machen.
So lange ist es nicht her, da hat der gute Firefox interne
Datenstrukturen ziemlich häufig auf Disk geschrieben, wodurch
SSDs gefährdet worden sind.

Bei solchen Tests wird zudem immer nur gegen die Garantie
gerechnet. Also bei mir halten PCs mitsamt ihren verbauten
Speichermedien um ein Vielfaches länger. Dann rutschen die
Datenmengen, die man pro Tag schreiben dürfte, in einen
gewöhnlichen Bereich.

Jeder hat natürlich ein anderes Nutzungsverhalten oder ein
anderes Bedürfnis, wie oft er sich neue Hardware kauft.

Grüße, Andreas
Thomas Niering
2020-09-09 04:30:00 UTC
Permalink
Hallo Andreas,
Post by Andreas M. Kirchwitz
Mit der Zeit dürfte jener freie Speicher zumindest aus Sicht des
Betriebssystems ziemlich wild verteilt sein.
Der Normalzustand bei einer SSD auf deren Speicherzellen.
Die SSDs führen eine eigene Liste, welcher Block (aus Sicht des BS)
in welcher Speicherzelle aktuell abgelegt ist.
Post by Andreas M. Kirchwitz
Fragmentation ist bei SSDs zwar für sich gesehen kein Ding mehr,
aber SSDs können ja nicht jedes Bit völlig frei einzeln ansprechen.
Genau das ist aber der Normalzustand bei einer SSD, eben weil man nicht
jedes Bit einzeln ansprechen kann, und, wichtiger, damit man die Zellen
gleichmässiger abnutzt. Deswegen lagert die SSD auch ständig belegte
Speicherzellen um, um wenig benutzte Zellen wieder frei zu schaufeln...
Post by Andreas M. Kirchwitz
Was wird bei TRIM eigentlich freigegeben?
TRIM ist lediglich ein Vorgang, bei dem das BS der SSD mitteilt, dass
Block x jetzt gelöscht werden kann.

Das eigentliche Aufräumen macht ein anderer Prozess auf der SSD...

Ciao Thomas
Marcel Mueller
2020-09-09 05:20:58 UTC
Permalink
Post by Andreas M. Kirchwitz
Post by Marcel Mueller
Aber wenn Trim aktiviert ist, was heute so ziemlich jedes OS kann, dann
zählt der komplette freie Speicher aller Partitionen mit zum
Handlungsspielraum der SSD. Das sind fast immer 10% oder mehr, wenn man
die Partitionen nicht an einer Tour asymptotisch vollschreibt.
Mit der Zeit dürfte jener freie Speicher zumindest aus Sicht des
Betriebssystems ziemlich wild verteilt sein. Fragmentation ist
bei SSDs zwar für sich gesehen kein Ding mehr, aber SSDs können
ja nicht jedes Bit völlig frei einzeln ansprechen. Deshalb frage
ich mich, ob z.B. freie 10 GB aus Sicht des Betriebssystems von
der SSDs ebenso gut genutzt werden können (da gibt es sicherlich
viele Überlappungen mit anderen Daten) wie ein Bereich von 10 GB
im Stück (z.B. durch eine ungenutzte Partition).
SSDs sind keine Direct-Mapped-Storage-Devices (und Festplatte eigentlich
auch schon lange nicht mehr). Die Adressierung erfolgt über logische
Block Nummern (LBA).

SSDs haben intern ihr eigene Mapping-Tabelle, die eine Zuordnung
zwischen logischen Blocknummern und physikalischen Blöcken abbildet.
Dabei können auch logische Blocknummern fehlen bzw. unzugeordnet sein
(im Auslieferzustand bzw. nach Trim).
Post by Andreas M. Kirchwitz
Was wird bei TRIM eigentlich freigegeben? Blöcke bestimmter Größe?
Logische Blocknummern.

Die SSD ist relativ frei im zuordnen von logischen Blöcken. Jeder
einzelne kann nicht zugeordnet werden, aber typischerweise Cluster a 8
Blöcken; die Blockgröße ist traditionell 512 Bytes. Bei kleineren
Schreibzugriffen muss die SSD einen Cluster lesen, modifizieren und
komplett wieder schreiben. Das ist Write-Amplification, weil statt 512
Bytes auf einmal das 8-fache geschrieben werden muss.

Die allermeisten Dateisysteme verwenden intern aber ebenfalls Cluster
mit mindestens 4k Größe. Das passt; aber eben nur, wenn das Dateisystem
nicht auf einer krummen LBA-Adresse startet. Daher kommt daher die Sache
mit dem 4k Alignment, dass für SSDs wichtig ist.

Vernünftiger wäre natürlich, wenn die SSD nach außen gleich 4k logische
Blockgröße melden würde. Damit wäre das Alignment gegenstandslos. Aber
da machen einige Betriebssysteme Heckmeck, wenn sie davon booten sollen,
deshalb hat man das gelassen. Bei einigen Festplatten gibt es das: 4k
native. Bei SATA SSDs habe ich es noch nicht gesehen.

Die 4k sind aber nur die Write-Block-Size. Beim Löschen sieht die Sache
ganz anders aus. Die Erase-Block-Size gängiger Flash-Chips liegt im
Megabyte-Bereich, 1MB, 8MB ... unterschiedlich.
Das bedeutet, es können nur große, zusammenhängende, physikalische
Blöcke gelöscht werden. (Im Übrigen altern die Flash-Speicher nur beim
Löschen, nicht beim Schreiben.)

Da jeder Flash-Block gelöscht werden muss, bevor er neu beschrieben
wird, und die SSD keine Write-Amplifikation von 4k auf xMB haben will,
wird ein und derselbe logische Block, mehrfach hintereinander
geschrieben immer in /unterschiedliche/ physikalische Blöcke
geschrieben. Die Abnutzung eines einzelnen physikalischen Blockes durch
vielfaches Schreiben eines LBA-Blocks existiert also schon deshalb
nicht. Und der Speicher der SSD ist /immer/ stark fragmentiert.

Die Kunst der Firmware ist es jetzt, möglichst viele physikalische
zusammenhängende Blöcke als frei zu bekommen, damit sie einen
Löschvorgang initiieren kann. Das gelingt natürlich selten auf Anhieb.
Meist müssen dabei einige logische Blöcke zuvor in andere Flashzellen
verschoben werden. Auch das trägt zur Write-Amplification bei.

Je mehr Blöcke insgesamt frei sind, desto größer ist die
Wahrscheinlichkeit, dass wenig Daten gerettet werden müssen. Das ist der
Punkt an dem Overprovisioning und Trim ins Spiel kommen.

Solange die SSD in Summe noch weniger Daten geschrieben hat, als sie
incl. Overprovisioning groß ist, stellt sich die Frage nicht. Da wird
einfach in den nächsten freien Block geschrieben. Deshalb sind SSDs am
Anfang immer sauschnell beim Schreiben.
Wenn dann zwischendurch Trim-Kommandos rein rutschen, werden natürlich
Erase-Blöcke weitgehend oder ganz frei. Die Firmware wird dann im
Hintergrund schon mal aufräumen, und dafür sorgen, dass immer genügend
bereits gelöschte Blöcke zur Verfügung stehen, damit das Schreiben der
nächsten Daten sofort erfolgen kann.

Zuguterletzt muss die Firmware noch dafür sorgen, dass nicht immer
wieder dieselben physikalischen Blöcke gelöscht werden. Zu diesem Zweck
verschiebt sie gelegentlich mal einen selten gelöschten Erase-Block in
einen schon häufig gelöschten. Das ist das Wear-Leveling; auch das zählt
zur Write-Amplification. Allerdings kommt das gar nicht so oft vor. Die
Zahlen in den Smart-Daten sind oft nach Jahren noch zweistellig.
Post by Andreas M. Kirchwitz
Die SSD weiß ja nichts von Filesystemen, sondern die gaukelt dem
Betriebssystem irgendeine virtuelle Geometrie vor, und umgekehrt
ist auch dem Betriebssystem klar, dass die ausgelesene Geometrie
eine künstliche Vereinbarung ist, aber keine Rückschlüsse auf die
Physik dahinter erlaubt. Trotzdem müssen sich ja beide auf etwas
einigen, wenn das OS per TRIM sagt, es gibt freien Platz.
LBA

Die Geometrieangaben werden nur für die 16 Bit INT13 BIOS Aufrufe mit
CHS Adressen gebraucht, die einige Betriebssysteme früher zum Starten
benutzten (und DOS auch dauerhaft). Diese sind aber schon bei knapp 8GB
endgültig übergelaufen. Die Geometrieangaben sind bei größeren Devices,
also faktisch allen SSDs, gegenstandslos.
Post by Andreas M. Kirchwitz
Post by Marcel Mueller
Es gibt nur sehr wenige Anwendungen, wo man auf die Endurance einer SSD
aufpassen muss. Das Transaktionslog von Datenbanken ist z.B. so ein
Kandidat, vor allem, wenn es im Simple Recovery Model gefahren wird.
In einem normalen SOHO Desktop braucht man sich keine Sorgen machen.
So lange ist es nicht her, da hat der gute Firefox interne
Datenstrukturen ziemlich häufig auf Disk geschrieben, wodurch
SSDs gefährdet worden sind.
Nicht wirklich.
Ich hatte selten weniger als 30 Tabs offen, und das 24/7 in den VMs.
Wirklich signifikante Datenmengen sind da nie zusammengekommen.

Das einzige, was mal einen merklichen aber immer nicht kritischen
Ausschlag erzeugt hat, sind Betriebssystem- oder Software-Update. Der
Rest ist unter ferner liefen.
Post by Andreas M. Kirchwitz
Bei solchen Tests wird zudem immer nur gegen die Garantie
gerechnet. Also bei mir halten PCs mitsamt ihren verbauten
Speichermedien um ein Vielfaches länger. Dann rutschen die
Datenmengen, die man pro Tag schreiben dürfte, in einen
gewöhnlichen Bereich.
Exakt, genau das ist der Punkt.
Es ist gar nicht so einfach, /jeden Tag/ 10GB oder mehr zu schreiben,
was aktuelle SSDs immer noch Jahre durchhalten.
Post by Andreas M. Kirchwitz
Jeder hat natürlich ein anderes Nutzungsverhalten oder ein
anderes Bedürfnis, wie oft er sich neue Hardware kauft.
Auch das.

Aber SSDs werden bei mir (noch) nicht schlecht. Ich habe alle gekauften
noch in Betrieb. Zum Pimpen alter Notebooks oder Rechner taugen sie
durch die Bank noch.


Marcel
Takvorian
2020-09-09 11:58:14 UTC
Permalink
Post by Andreas M. Kirchwitz
So lange ist es nicht her, da hat der gute Firefox interne
Datenstrukturen ziemlich häufig auf Disk geschrieben, wodurch
SSDs gefährdet worden sind.
Wer die Nutzung einer Disk als Gefährdung ansieht, sollte besser keine PCs
verwenden. Intelligente PC-Nutzer gefährden jedenfalls lieber SSDs als HDDs.
In meinem nächsten PC werde vermutlich gar keine HDDs mehr werkeln, da werde
ich nur noch SSDs gefährden. <eg>
Stephan Elinghaus
2020-09-11 09:57:14 UTC
Permalink
Post by Marcel Mueller
In der c't haben sie mal versucht, SSDs tot zu schreiben. Das war
mächtig Arbeit, und das 10-fache der angegebenen Lebensdauer war keine
Seltenheit.
Das ist auch schon eine ganze Weile her.
Nachdem heute praktisch nur noch TLC, QLC und wasweißich verbaut wird
und der Trend immer weiter Richung "noch mehr Bit pro Zelle"
geht, werden die SSDs zwar von der Kapazität her immer größer, aber
auch immer empfindlicher. Immer kleinere Strukturen, die immer weniger
Ladung aufnehmen, welche aber immer genauer gemessen werden muß.

Mich würde mal interessieren, wie so ein Test, den die c't mal
durchgeführt hat, heute enden würde. Und wie sieht es mit der
Langzeitstabilität aus, wenn eine SSD ungenutzt ein paar Jahre rumliegt?
Wie lange sind die Daten bei solchen Multi-Bit-Zellen noch lesbar?

Für 99% aller Endanwender spielt das alles sicher keine Rolle.
Interessant wäre es trotzdem.
--
[no signatures left]
Thomas Einzel
2020-09-11 10:33:54 UTC
Permalink
Post by Stephan Elinghaus
Post by Marcel Mueller
In der c't haben sie mal versucht, SSDs tot zu schreiben. Das war
mächtig Arbeit, und das 10-fache der angegebenen Lebensdauer war keine
Seltenheit.
Das ist auch schon eine ganze Weile her.
Nachdem heute praktisch nur noch TLC, QLC und wasweißich verbaut wird
und der Trend immer weiter Richung "noch mehr Bit pro Zelle"
geht, werden die SSDs zwar von der Kapazität her immer größer, aber
auch immer empfindlicher.
...langsamer und kleinere TBW. Aber das muss nicht sein. Ich habe die
SATA SSD aus meinem Notebook gegen eine PCIe SSD mit MLC Speicher
ausgetauscht.
https://geizhals.de/samsung-ssd-970-pro-512gb-mz-v7p512bw-a1809120.html

512MB reichen mir im Laptop und der Preis sollte erschwinglich sein,
kauft man ja nicht laufend neu.
--
Thomas
Arno Welzel
2020-09-11 18:03:20 UTC
Permalink
Stephan Elinghaus:

[...]
Post by Stephan Elinghaus
Mich würde mal interessieren, wie so ein Test, den die c't mal
durchgeführt hat, heute enden würde. Und wie sieht es mit der
Langzeitstabilität aus, wenn eine SSD ungenutzt ein paar Jahre rumliegt?
Schlecht - mehr als ca. 1 Jahr würde ich keine SSD ohne Strom
herumliegen lassen.
Post by Stephan Elinghaus
Wie lange sind die Daten bei solchen Multi-Bit-Zellen noch lesbar?
In der Regel nicht länger als einige Monate, bis die Ladung mangels
Refresh zu stark abgesunken ist und damit der ursprüngliche Level nicht
mehr vorhanden ist.
--
Arno Welzel
https://arnowelzel.de
Marcel Mueller
2020-09-17 21:18:09 UTC
Permalink
Post by Arno Welzel
Post by Stephan Elinghaus
Wie lange sind die Daten bei solchen Multi-Bit-Zellen noch lesbar?
In der Regel nicht länger als einige Monate, bis die Ladung mangels
Refresh zu stark abgesunken ist und damit der ursprüngliche Level nicht
mehr vorhanden ist.
Kommt mir zu wenig vor.
Und seit wann implementieren Consumer-SSDs Scrubbing?


Marcel
Thomas Niering
2020-09-18 04:24:00 UTC
Permalink
Hallo Marcel,
Post by Marcel Mueller
Und seit wann implementieren Consumer-SSDs Scrubbing?
Kommt drauf an, was für eine SSD es ist, und wie sie behandelt wurde.

Das nennt sich Endurance und hier kommt es auf mehrere Faktoren an:
- Um was für eine SSD handelt es sich (Client/Enterprise)
- Wie warm sie war, als sie ausgeschaltet wurde
- Bei welcher Temperatur wird sie gelagert
Danach bemisst sich, wie lange sie die Daten halten können muss...

Das kann man in im PDF "JEDEC SSD Specifications Explained" nachlesen.

Ciao Thomas
Arno Welzel
2020-09-18 19:02:03 UTC
Permalink
Post by Marcel Mueller
Post by Arno Welzel
Post by Stephan Elinghaus
Wie lange sind die Daten bei solchen Multi-Bit-Zellen noch lesbar?
In der Regel nicht länger als einige Monate, bis die Ladung mangels
Refresh zu stark abgesunken ist und damit der ursprüngliche Level nicht
mehr vorhanden ist.
Kommt mir zu wenig vor.
Ja, das ist wohl auch zu niedrig gegriffen.

Anandtech hat schon mal vor einigen Jahren eine Zeitspanne von einem
Jahr angegeben, bei höherer Temperatur und anderem Nutzungsmuster sogar
nur noch 3 Monate als Anforderung laut Spezifikation:

<https://www.anandtech.com/show/9248/the-truth-about-ssd-data-retention>

Ich weiß aber nicht, ob die fünf Jahre alte Angaben heute noch gültig sind.
Post by Marcel Mueller
Und seit wann implementieren Consumer-SSDs Scrubbing?
Wenn sie es nicht täten, müssten einzelne Zellen sogar viele Jahre
halten, da ja etlichen Daten nur sehr selten geändert werden, wie z.B.
der Bootloader eines Betriebssystems.
--
Arno Welzel
https://arnowelzel.de
Thomas Niering
2020-09-07 04:25:00 UTC
Permalink
Hallo Leo,
Post by Leo Baumann
immer wieder lese ich in Newsgroups, dass Over-Provisioning bei modernen
SSDs nicht mehr nötig ist.-
Jein, wenn man das macht, weil man der SSD mehr "Reserve"-Sektoren zur
Verfügung stellen möchte, dann ist das tatsächlich überflüssig.

Ich hab eine SSD, die einen dynamischen Cache hat.
Und für denn lass ich einen Teil der SSD unpartitioniert...

Ciao Thomas
Marcel Mueller
2020-09-08 17:43:41 UTC
Permalink
Post by Thomas Niering
Jein, wenn man das macht, weil man der SSD mehr "Reserve"-Sektoren zur
Verfügung stellen möchte, dann ist das tatsächlich überflüssig.
Ich hab eine SSD, die einen dynamischen Cache hat.
Und für denn lass ich einen Teil der SSD unpartitioniert...
So tickt das aber normalerweise nicht. Die Caches der SSDs sind
normalerweise schnelle SLC-Flash-Zellen, deren Inhalt dann in aller Ruhe
in die TLC-Zellen kopiert werden kann. Was in den SLC-Flash bleiben
darf, z.B. häufig geschriebene Blöcke, entscheidet die SSD Firmware.

Oder meist Du etwas anderes?


Marcel
Thomas Niering
2020-09-09 04:17:00 UTC
Permalink
Hallo Marcel,
Post by Marcel Mueller
So tickt das aber normalerweise nicht.
Prinzipiell stimm ich dir zu, aber ich schrieb auch dazu, dass ich
eine SSD (Evo 970 Plus) habe, die zusätzlich einen dynamischen Cache hat.
Post by Marcel Mueller
Oder meist Du etwas anderes?
Ja, bei dieser SSD ist es so, dass ein Teil des Speichers für Cache-Zwecke
benutzt wird, und sie somit ihre schnelle Schreibgeschwindigkeit länger
durchhalten kann...

Ciao Thomas
Loading...