Uff, hier wurde viel Mist geschrieben, auf den ich nicht eingehen möchte, nur hieraus:
PLC wurde schon vor 4 Jahren angekündigt, es gab schon diverse Demos damit. Aber scheinbar sind verschiedene Probleme vorhanden, sonst wäre der Markt davon schon überflutet.
Das Problem ist, dass man mit PLC theoretisch nur noch maximal 20% der Kosten einsparen kann, praktisch wohl schon deswegen weniger, weil man dann noch mehr Extra Kapazität für eine aufwendigere ECC brauchen dürfte. Dafür limitiert man aber die minimale Größe der Zellen, da man ja genug Elektronen in einer Zellen haben muss, um so viele Ladungszustände noch unterscheiden zu können. Die Datendichte durch mehr Layer zu erhöhen ist zwar schön und gut, aber jeder zusätzliche Layer erfordert zusätzliche Bearbeitungsschritte und die kosten richtig Geld, je mehr ums weniger relevant werden die Materialkosten des Wafers selbst und obendrein riskiert man bei jedem Bearbeitungsschritt den Wafer durch eine schweren Fehler komplett zu verlieren. Ein anderer Weg die Datendichte zu steigern ist, die Größe und Abstände der Zellen zu verringern, bei den planaren NANDs unter 20nm war man da schon am Limit und teils bei nur noch so 20 Elektronen pro Zelle, knapp genug für TLC.
Als Samsung damals sein erstes 3D NAND (V-NAND) gebracht hat, war es sogar teurer als planares NAND, die Zellen waren dabei wieder viel größer geworden, aber es war von der Haltbarkeit viel besser. Dies war gegen den generellen Trend bei der Entwicklung vor allem die Kosten pro Tb zu optimieren, aber inzwischen dürften die Zellen und deren Abstände wieder viel kleiner geworden sein. Da muss man dann eben einen Kompromiss finden und entscheiden was sinnvoller ist: Entweder man macht die Zellen noch kleiner oder man bringt noch mehr Bits pro Zelle (und damit Elektronen) unter. Beides zusammen geht ab einem bestimmten Punkt nicht mehr! Da man von PLC so lange nichts mehr gehört hat, würde ich vermuten das die Entscheidung wohl zu Gunsten kleiner Zellen gefallen ist, da dies die Nachteile noch geringere Schreibgeschwindigkeit und Haltbarkeit weitgehend vermeidet, die mit mehr Bit pro Zelle einhergehen.
So sehr wir, mich eingeschlossen, es uns auch wünschen würden, dass SSDs pro TB mit HDDs konkurrieren könnten, sehe ich dies nicht kommen. Denn es gab drei Faktoren die in der Vergangenheit die Kosten für NANDs, die eben den Löwenanteil der Kosten einer SSD ausmachen, immer weiter gesenkt haben. Vor allem in den ersten Jahren als SSDs anfingen populär zu sein, meine erste war eine Intel X25-V mit 40GB für 100€.
1.) Mehr Bits pro Zelle, damals fing MLC an populär zu werden und das zweite Bit pro Zelle hat potentiell die Kosten halbiert. Bei TLC spart am maximal noch 33% und bei QLC eben maximal 25% ein, der Effekt wird also umso kleiner, je mehr Bits pro Zelle man hat.
2.) Die Verringerung der Strukturgrößen, die allgemein in der Halbleiterindustrie erreicht wurden. Da bekam man aber ab 20nm so langsam Probleme wegen der geringen Zellgrößen und -abstände. Dies hat QLC verzögert und bei so 14nm oder 15nm war das Limit erreicht, man ging dann zum nächsten Schritt:
3.) 3D NANDs. Dies hat wieder größere Zellen und Zellabstände erlaubt und wohl auch (zumindest anfangs) erfordert, damit man die Layer korrekt überienander stapeln kann. Aber auch hier ist der Effekt eben nur beschränkt,. da jeder Layer auch mehr Bearbeitungsschritte erfordert und jeder Bearbeitungsschritt Geld kostet und je mehr Bearbeitungsschritte man braucht, umso geringer wird der Anteil der Kosten des Wafers selbst und umso höher das Risiko den Wafer aufgrund von Fehlern zu verlieren. Da gibt es also auch wirtschaftliche Limits.
Zuletzt ist man dann noch auf Stacking gegangen, man packt also mehrere Dies übereinander und kontaktiert durch. Dies spart dann die Logik, die man pro Stack eben nur einmal braucht und zuletzt geht die Tendenz dazu, die Logik ganz von den Zellen zu trennen und als extra Wafer auf oder unter das Sandwich der Dies mit Zellen zu packen, die man dann alle einheitlich herstellen kann, statt ein Die mit und eines ohne Logik zu fertigen um die beiden zu verbinden. Aber während man damit beeindruckende Layerzahlen und Datendichten erzielen kann, werden die Kosten nur noch minimal gesenkt, dann man muss ja mehr Dies herstellen, wenn man sie mittels durchkontakttieren zu einem Die zusammenfügt.
Es geht also schon seit einigen Jahren nur noch im kleinen Trippelschritten voran und dies sehen wir eben bei den SSD Preisen, die schon länger nicht mehr so fallen wie in den ersten Jahren. Man kann nur noch ein wenig an den Stellschrauben drehen und z.B. für mehr native Layer braucht man eine verbesserte Fertigung bei nicht zu viele Fehler auftreten und damit zu viele Wafer geschrottet werden. Die Anzahl der Bits zu Zelle und die Größe der Zelle stehen im Gegensatz zueinander, beides kann man nicht gleichzeitig vorantreiben, die kleinst mögliche Zelle für PLC muss größer als die kleinst mögliche Zelle für QLC NAND sein kann und die kleinst mögliche QLC NAND Zelle muss größer als die kleinst mögliche Zelle für TLC NAND sein, Dies ist unumgänglich, weil man eben immer jeweils genug Elektronen pro Zelle haben muss um die verschiedenen Ladungszustände zu unterscheiden.
Grundsätzliche technologische Durchbrüche sind aber eben für NAND nicht mehr absehbar, während bei HDDs eben Technologien wie HAMR so langsam serienreif zu sein scheinen. Diese kosten am Anfang auch noch einiges mehr, aber wenn die Stückzahlen steigen, fallen die Kosten und irgendwann übersteigt die Steigerung der Datendichte dann die Steigerung der Kosten und die Preise pro TB fallen.