MLC ist nicht gefragt: Samsung stellt Produktion ein

Warum sollte denn QLC grundsätzlich schlecht für Datenbanken sein?
Weil es einfach etwas träger ist und um es auszugleichen musst du mehr "cachen" also brauchst du mehr DRAM. Bei normalen großen Daten ist es kein Problem. Aber bei vielen kleinen Daten wird es halt interessant.
Außerdem sind QLCs zumindest nicht ganz so langlebig.

 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Intel gibts ja in diesem Fall nicht mehr, ist mittlerweile SK Hynix bzw. Solidigm.
Ja aber erst seit etwas über 2 Monaten (03/25). Das operative Kerngeschäft Forschung & Entwicklung, sowie das geistige Eigentum lag noch immer bei Intel, so dass die Möglichkeiten von Solidigm eigene Produkte zu entwickeln sehr begrenzt waren. Jetzt erst hat skHynix/Solidigm alle Patente/Mitarbeiter übernommen (2te und letzte Phase) und freie Hand auch eigene Produkte weiter zu entwickeln. Mit einen -nun- Marktanteil von ca. 30% hat das skHynix auch noch einmal einen ordentlichen Pusch gegeben.

Der Will-haben-Faktor ist bei Usern mit gewissen Kenntnissen eher klein.
Noch! Spätestens wenn der Marktanteil von QLC -und das wird kommen, denn der Hype zu 1000-Layer hat gerade erst Fahrt aufgenommen- auf Niveau von TLC zum Zeitpunkt 2024 ansteigt, dann wird TLC sich entsprechend verknappen und siehe MLC, dass gleiche Schicksal erleiden. Schlicht zu teuer, Nachfrage nicht mehr gegeben, der "will-haben" Faktor wird keine Rolle mehr spielen.
Ob man das gut findet oder nicht, dass wird weder Samsung noch Kioxia oder Micron interessieren, hauptsache der Umsatz stimmt.
 
Zuletzt bearbeitet:
Uff, hier wurde viel Mist geschrieben, auf den ich nicht eingehen möchte, nur hieraus:
PLC wurde schon vor 4 Jahren angekündigt, es gab schon diverse Demos damit. Aber scheinbar sind verschiedene Probleme vorhanden, sonst wäre der Markt davon schon überflutet.
Das Problem ist, dass man mit PLC theoretisch nur noch maximal 20% der Kosten einsparen kann, praktisch wohl schon deswegen weniger, weil man dann noch mehr Extra Kapazität für eine aufwendigere ECC brauchen dürfte. Dafür limitiert man aber die minimale Größe der Zellen, da man ja genug Elektronen in einer Zellen haben muss, um so viele Ladungszustände noch unterscheiden zu können. Die Datendichte durch mehr Layer zu erhöhen ist zwar schön und gut, aber jeder zusätzliche Layer erfordert zusätzliche Bearbeitungsschritte und die kosten richtig Geld, je mehr ums weniger relevant werden die Materialkosten des Wafers selbst und obendrein riskiert man bei jedem Bearbeitungsschritt den Wafer durch eine schweren Fehler komplett zu verlieren. Ein anderer Weg die Datendichte zu steigern ist, die Größe und Abstände der Zellen zu verringern, bei den planaren NANDs unter 20nm war man da schon am Limit und teils bei nur noch so 20 Elektronen pro Zelle, knapp genug für TLC.

Als Samsung damals sein erstes 3D NAND (V-NAND) gebracht hat, war es sogar teurer als planares NAND, die Zellen waren dabei wieder viel größer geworden, aber es war von der Haltbarkeit viel besser. Dies war gegen den generellen Trend bei der Entwicklung vor allem die Kosten pro Tb zu optimieren, aber inzwischen dürften die Zellen und deren Abstände wieder viel kleiner geworden sein. Da muss man dann eben einen Kompromiss finden und entscheiden was sinnvoller ist: Entweder man macht die Zellen noch kleiner oder man bringt noch mehr Bits pro Zelle (und damit Elektronen) unter. Beides zusammen geht ab einem bestimmten Punkt nicht mehr! Da man von PLC so lange nichts mehr gehört hat, würde ich vermuten das die Entscheidung wohl zu Gunsten kleiner Zellen gefallen ist, da dies die Nachteile noch geringere Schreibgeschwindigkeit und Haltbarkeit weitgehend vermeidet, die mit mehr Bit pro Zelle einhergehen.

So sehr wir, mich eingeschlossen, es uns auch wünschen würden, dass SSDs pro TB mit HDDs konkurrieren könnten, sehe ich dies nicht kommen. Denn es gab drei Faktoren die in der Vergangenheit die Kosten für NANDs, die eben den Löwenanteil der Kosten einer SSD ausmachen, immer weiter gesenkt haben. Vor allem in den ersten Jahren als SSDs anfingen populär zu sein, meine erste war eine Intel X25-V mit 40GB für 100€.
1.) Mehr Bits pro Zelle, damals fing MLC an populär zu werden und das zweite Bit pro Zelle hat potentiell die Kosten halbiert. Bei TLC spart am maximal noch 33% und bei QLC eben maximal 25% ein, der Effekt wird also umso kleiner, je mehr Bits pro Zelle man hat.
2.) Die Verringerung der Strukturgrößen, die allgemein in der Halbleiterindustrie erreicht wurden. Da bekam man aber ab 20nm so langsam Probleme wegen der geringen Zellgrößen und -abstände. Dies hat QLC verzögert und bei so 14nm oder 15nm war das Limit erreicht, man ging dann zum nächsten Schritt:
3.) 3D NANDs. Dies hat wieder größere Zellen und Zellabstände erlaubt und wohl auch (zumindest anfangs) erfordert, damit man die Layer korrekt überienander stapeln kann. Aber auch hier ist der Effekt eben nur beschränkt,. da jeder Layer auch mehr Bearbeitungsschritte erfordert und jeder Bearbeitungsschritt Geld kostet und je mehr Bearbeitungsschritte man braucht, umso geringer wird der Anteil der Kosten des Wafers selbst und umso höher das Risiko den Wafer aufgrund von Fehlern zu verlieren. Da gibt es also auch wirtschaftliche Limits.

Zuletzt ist man dann noch auf Stacking gegangen, man packt also mehrere Dies übereinander und kontaktiert durch. Dies spart dann die Logik, die man pro Stack eben nur einmal braucht und zuletzt geht die Tendenz dazu, die Logik ganz von den Zellen zu trennen und als extra Wafer auf oder unter das Sandwich der Dies mit Zellen zu packen, die man dann alle einheitlich herstellen kann, statt ein Die mit und eines ohne Logik zu fertigen um die beiden zu verbinden. Aber während man damit beeindruckende Layerzahlen und Datendichten erzielen kann, werden die Kosten nur noch minimal gesenkt, dann man muss ja mehr Dies herstellen, wenn man sie mittels durchkontakttieren zu einem Die zusammenfügt.

Es geht also schon seit einigen Jahren nur noch im kleinen Trippelschritten voran und dies sehen wir eben bei den SSD Preisen, die schon länger nicht mehr so fallen wie in den ersten Jahren. Man kann nur noch ein wenig an den Stellschrauben drehen und z.B. für mehr native Layer braucht man eine verbesserte Fertigung bei nicht zu viele Fehler auftreten und damit zu viele Wafer geschrottet werden. Die Anzahl der Bits zu Zelle und die Größe der Zelle stehen im Gegensatz zueinander, beides kann man nicht gleichzeitig vorantreiben, die kleinst mögliche Zelle für PLC muss größer als die kleinst mögliche Zelle für QLC NAND sein kann und die kleinst mögliche QLC NAND Zelle muss größer als die kleinst mögliche Zelle für TLC NAND sein, Dies ist unumgänglich, weil man eben immer jeweils genug Elektronen pro Zelle haben muss um die verschiedenen Ladungszustände zu unterscheiden.

Grundsätzliche technologische Durchbrüche sind aber eben für NAND nicht mehr absehbar, während bei HDDs eben Technologien wie HAMR so langsam serienreif zu sein scheinen. Diese kosten am Anfang auch noch einiges mehr, aber wenn die Stückzahlen steigen, fallen die Kosten und irgendwann übersteigt die Steigerung der Datendichte dann die Steigerung der Kosten und die Preise pro TB fallen.
 
Bei der Technik hat sich verdammt viel getan, ich glaube das MLC keiner mehr haben wollen würde da der primäre Vorteil die TBW und nicht die Geschwindigkeit sind. Bei der Geschwindigkeit hat vor allem QLC massiv aufgeholt wenn man bedenkt das die ersten Laufwerke bis auf 100MB/s gedrosselt haben. Auch das fehlen von DRAM ist seit NVMe nicht mehr so tragisch wie es bei SATA mal war, sofern der Pseudo SLC Cache auch groß genug ist. Klar brechen die Kopierraten irgendwann ein aber wer kopiert schon regelmäßig >300GB am Stück?
Für die allermeisten Benutzer sind jetzt schon QLC völlig ausreichend.
Man hat halt früher mal gelesen das die Technik schlecht ist und deswegen ist es für die meisten verbrannt.
In ein paar Jahren wird TLC das gleich Schicksal ereilen.
 
Da bist du schlecht informiert. Die Frage ist eher ob MLC nicht mehr weiterentwickelt wurde weil es den Nachteil des höheren Preises und der geringeren Kapazität bei gleicher Fläche hat.

MLC ist grundsätzlich schneller als TLC/QLC, wegen der kleineren Anzahl der nötigen Spannungszustände; das gilt für die sequentielle Transferrate ebenso wie für die Zugriffszeit.

SLC ist da natürlich unschlagbar, was meinst du weshalb mittlerweile alle Consumer-SSDs ein pSLC-Cache haben? Wenn du dir anschaust wie die Speed bei manchen SSDs runtergeht wenn der voll ist wirst du verstehen was ich meine.


Ja, der wird steigen, das ist klar. Letztendlich gibts da 2 Arten von Usern: Die, die für mehr Speed mehr bezahlen und die die mit weniger Speed klarkommen aber dementsprechend weniger zahlen wollen.

Wenn QLC wirklich mal deutlich billiger wird, werden sich die Meinungen ändern. Aber nicht weil QLC geliebt wird sondern billiger ist :)
 
MLC ist in Theorie schneller aber zu teuer, deswegen wurde es wie im Artikel schon erwähnt nur für spezielle Zwecke verwendet bei denen es auf Haltbarkeit ankommt. Im PC Markt sind die Anforderungen zu niedrig bei Langlebigkeit.
Man sieht hier auch das da schon lange nichts mehr neues entwickelt wurde:
 
Wenn QLC wirklich mal deutlich billiger wird, werden sich die Meinungen ändern. Aber nicht weil QLC geliebt wird sondern billiger ist :)
Es geht nicht mal um's billiger werden, wird der eh nicht, sondern um die Verfügbarkeit zu einem vernünftigen Preis.
Die gleiche Diskussion hatten wir im Grunde schon vor ein paar Jahren bei MLC, als diese SSDs noch zu akzeptablen Preisen verfügbar und TLC der große Newcommer war.
Da hatte auch jeder gemeckert er wolle niemals auf TLC umsteigen - und was haben die meisten nun im Rechner? Wird bei QLC auch nicht anders ablaufen.
 
MLC ist in Theorie schneller

Nein, auch in der Praxis war es zumindest schneller als TLC der gleichen Generation. Da es mittlerweile keine MLCs mit aktuellen PCIe-Standard gibt braucht man darüber aber nicht mehr zu diskutieren.


Es geht nicht mal um's billiger werden, wird der eh nicht, sondern um die Verfügbarkeit zu einem vernünftigen Preis.

Du siehst keinen Zusammenhang zwischen billiger werden und Preis?

Für den Preis einer MLC hat auch keiner TLC gekauft, für den Preis einer TLC wird keiner QLC kaufen.

Und ja, meine These setzt natürlich voraus dass beides verfügbar ist

All said now :)
 
Für den Preis einer MLC hat auch keiner TLC gekauft, für den Preis einer TLC wird keiner QLC kaufen.
Logisch! Warum sollte ich die zweite Garnitur wählen wenn die erste noch zu vernünftigen Preisen verfügbar.

Und ja, meine These setzt natürlich voraus dass beides verfügbar ist
Was später nicht mehr so sein wird. Wenn TLC (künstlich) verknappt wird, dann werden diese SSDs teurer.
Für QLC gibt es dann gar keinen Grund mehr günstiger zu werden, eher teurer, denn du hast ja dann nicht mehr die Möglichkeit zwischen TLC und QLC zu wählen und wenn, dann wird die Auswahl sehr beschränkt sein und du aller Voraussicht nach einen mehr oder weniger hohen TLC-Aufpreis berappen müssen, wie halt jetzt schon bei MLC und zuvor SLC. Sandisk z.b. zeigt doch schon mit deren Roadmap deutlich wo es hin geht.
Während Ultra-QLC mit der SN670 bis 2027 in Kapazitäten bis 512TB geplant sind (später sogar 1PB), geht es im gleichen Zeitfenster bei TLC mit der SN861 nur rauf bis auf 16TB.
Zumindest sind keine höheren Kapazitäten seitens TLC ersichtlich, die Konzentration liegt auf QLC.

ps: Blätter mal ein paar Jahre zurück. Die gleiche Diskussion hatten wir schon zu Zeiten von MLC. ;)
 
Zuletzt bearbeitet:
ich glaube das MLC keiner mehr haben wollen würde da der primäre Vorteil die TBW und nicht die Geschwindigkeit sind.
Eben weil die Haltbarkeit von TLC und teils auch QLC ausreicht, vor allem weil die Kapazitäten heute so groß geworden sind, dass man die Schreibvorgänge über viele NAND Dies verteilen kann. Nur bei Nischenanwendungen wie vor allen Embedded und Industrial braucht man keine großen Kapazitäten und dennoch eine hohe Haltbarkeit. Wobei dort dann die Frage aufkommt, ab wann es einfach billiger wird, statt z.B. einer 128GB SSD mit MLC NAND, welches Generationen zurückhängt, dann einfach eine 1TB oder 2TB mit TLC oder gar QLC zu nehmen und trotzdem die gleichen TBW zu erzielen, einfach weil die Schreibzugriffe vom Controller über weit mehr NAND Blöcke verteilt werden können und jeder davon viel weniger P/E Zyklen ertragen muss.

Bei der Geschwindigkeit hat vor allem QLC massiv aufgeholt wenn man bedenkt das die ersten Laufwerke bis auf 100MB/s gedrosselt haben.
Wenn Du da an die 870 QVO denkst, so hat da aber auch der Controller offensichtlich seinen Anteil dran, da die 2TB bis 8TB alle nur mit 160MB/s schreiben, wenn der Pseudo-SLC Schreibcache voll ist, während es bei der 1TB 80MB/s sind. Dies müsste für die 4TB oder spätestens die 8TB also eigentlich 320MB/s sein, weil diese ja doppelt so viele NAND Dies haben muss.

Es kann zwar sein, dass die kleinen Modelle NAND Dies mit geringerem Diesize haben, daher muss es bei Verdoppelung der Kapazität nicht immer eine Verdoppelung der Anzahl der NAND Dies geben, es kann eben auch eine Verdoppelung des Diesize geben, aber mehr als zwei unterschiedliche Diesize wären ungewöhnlich und daher gibt es diese Verdoppelung des Diesize maximal nur einmal in der Baureihe. Die 2TB kann direkt ins QLC doppelt so schnell schreiben wie die 1T, die hat also doppelt so viele NAND Dies. Aber wenn es dann bei der 4TB eine Verdoppelung des Diesize gibt, dann müsste spätestens die 8TB schneller schreiben, hier limitiert offenbar der Controller.

Es gab damals als die 870 QVO erschienen ist, schon die Micron 5210 ION 7.68TB die auch QLC hat und mit 360MB/s schreiben kann und da es eine Enterprise SSDs ist, hat sie keinen Pseudo-SLC Schreibcache, die schreibt also wirklich so schnell in das QLC NAND. Wie viel sich da inzwischen getan hat, sieht man wenn man sich die Schreibraten der neueren Enterprise SSDs mit QLC NAND ansieht. Die Solidigm SSD D5-P5430 7.68TB schreibt z.B. mit 1730MB/s (als 15.36TB dann mit 3000MB/s). Wer bei QLC nur auf die alte 870 QVO schaut, bekommt also kein realistisches Bild dessen, was QLC NAND heute kann.
Auch das fehlen von DRAM ist seit NVMe nicht mehr so tragisch wie es bei SATA mal war, sofern der Pseudo SLC Cache auch groß genug ist.
Der DRAM Cache ist für den Controller zum Cachen seiner Verwaltungsdaten, vor allem der Mappingtabelle und nicht zum Cachen von Userdaten da und hat damit eine komplett andere Aufgabe als der Pseudo-SLC Schreibcache, der eben die Schreibgeschwindigkeit verbessert, indem zuerst nur ein Bit geschrieben wird.
Wenn QLC wirklich mal deutlich billiger wird, werden sich die Meinungen ändern.
Vergiss nicht, dass es selbst theoretisch maximal 25% billiger sein kann, in der Praxis weniger, da man mehr zusätzlichen Speicher für eine bessere ECC braucht. Jede NAND Page hat ja neben der Nutzkapazität noch zusätzliche Bytes für solche Dinge wie eben die ECC. Praktisch dürften es also eher so 20% sein, die QLC billiger als TLC sein kann und reicht dies um es als deutlich zu bezeichnen?

Wie viel dann von der Einsparung bei den NANDs beim Endpreis der SSD ankommt, ist auch eine Frage der Stückzahlen. Man sieht es ja bei den Preisen der 8TB NVMe SSDs, die kosten pro TB ja noch einiges mehr als die 4TB und 2TB Modelle der gleichen Baureihe, eben weil sie sich nur in kleinen Stückzahlen verkaufen. Dies war vor so 1 bis 2 Jahren bei den 4TB noch genauso, heute kosten sie oft pro TB schon nicht mehr als ihre 2TB Geschwister. Es ist nur eine Frage der Zeit bis dies auch für die 8TB so sein wird.
 
Nein, auch in der Praxis war es zumindest schneller als TLC der gleichen Generation. Da es mittlerweile keine MLCs mit aktuellen PCIe-Standard gibt braucht man darüber aber nicht mehr zu diskutieren.

Das ist 7 Jahre her, deswegen schrieb ich von theoretisch.
 
Weil es einfach etwas träger ist und um es auszugleichen musst du mehr "cachen" also brauchst du mehr DRAM. Bei normalen großen Daten ist es kein Problem. Aber bei vielen kleinen Daten wird es halt interessant.
Außerdem sind QLCs zumindest nicht ganz so langlebig.

Das ist aber nur die halbe Wahrheit.
Wenn man QLC so nutzt, wie sie gedacht sind, ist das der Fall.
Wenn man sie aber als TLC, MLC oder gar SLC benutzt, relativiert sich das relativ schnell.
Der berühmte SLC-Cache macht es ja vor.

Das ist zwar Verschwendung wenn man so will, auf der anderen Seite hat man dann eben Vorteile.
Und das ist das, worauf es meiner Meinung nach hinauslaufen wird. Es wird spezielle SSDs geben, die quasi übergroß sind.
 
Logisch! Warum sollte ich die zweite Garnitur wählen wenn die erste noch zu vernünftigen Preisen verfügbar.
Dann verstehe ich nicht worüber wir diskutieren ;) . Das ist das was ich von Anfang an meinte :)

Was später nicht mehr so sein wird.
Ich meine natürlich die aktuelle Marktsituation, alles andere würde keinen Sinn machen.
Das ist 7 Jahre her, deswegen schrieb ich von theoretisch.
Ich hab es natürlich von der gleichen Generation. Alles andere wäre nicht sinnvoll. Das ist als würde ich sagen dass die Benziner heute weniger verbrauchen als die Diesel vor 40 Jahren, also waren Benziner immer sparsamer.
 
Ja, die "Ist"-Situation ist aber immer nur eine Momentaufnahme.
QLC drängt auch immer mehr in den 4TB Storage vor, darüber wird größtenteils sowieso künftig nur noch QLC werden.
QLC SSDs (siehe zb. die alte 870QVC) bieten ja auch teils SLC und/oder pseudo_SLC Cache um zumindest kleinere Schreiblasten (50GB. und darüber) flott zu transferieren.
Die TLC werden dann nur noch in Bereichen von 1 bzw. 2TB Bestand haben aber zu anderen Preisen und wenn es TLC darüber im Homeuser Segment noch geben sollte, dann werden die auch entsprechend kosten.
Und was die geringere TBW Angaben betrifft, dass ist auch wieder so eine Theorie & Praxis Geschichte. Es gibt wohl kaum jemanden der eine TLC SSD so lange besitzt, geschweige denn nutzt, dass diese ansatzweise an die vorgegebenen, herstellerseitigen Limits kommt. Das wird bei QLC dann auch nicht anders der Fall sein, gerade wenn das dann meinetwegen 4 oder 8TB SSDs sind, die größtenteils dann nur als Datengrab, Gamestorage oder meinetwegen auch für DB Aufgaben verwendet werden.
Praktisch hast du bei einer 4/8TB, wenn du die wie zuvor genannt nutzt, immer die "Erstbefüllung" von mehreren TB und alles was danach dann passiert findet doch dann eh in max. xx GB Bereichen statt, wo du bei einer QLC SSD -transferierent- ggü. TLC SSD kaum bis gar keinen Unterschied mehr bemerken dürftest. Wer das weiß, der wartet dann auch mal länger bei der Erstbefüllung oder schreibt halt in Etappen seinen Datenbestand darauf, wenn er auf der anderen Seite einiges an Talers sparen kann. Wer das nicht möchte, der kann ja dann noch TLC nehmen (falls dann noch erhältlich) und zahlt entsprechend drauf.

..so einfach ist das..
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh