Intel gibt Pläne auf: Keine Chipfabrik in Deutschland

Ja, Intel ist wirklich nicht (mehr) die hellste Kerze auf der Torte.
Einer der großen globalen Gewinner in der Halbleiterindustrie scheint bis 12/24, eher weniger publik hervorgehoben, Broadcom gewesen zu sein.
Die sind wohl nun durch ihren Deal mit Apple und Herstellung eines eigenen KI-Chips (Baltra) in die Liga der "1-Billion-US-Dollar-Unternehmen" aufgestiegen.
NVidia ist und bleibt aber da wohl unangefochten der Platzhirsch.

image.jpg
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mich hat ein Satz eines Politikers (Minister?) aus Sachsen-Anhalt gestern aufhorchen lassen. Der meinte, die gute Nachricht sei, daß die 10 Milliarden Fördergeld noch nicht überwiesen worden seien...
???
Soll das bedeuten, die Förderung war nicht an die Bedingung geknüpft, daß die Fabrik wirklich gebaut wird? Würde ja mal wieder ins Bild passen!
 
Er wollte die Intel FAB für fremd Auftraggeber öffnen z. B AMD/Nvidia etc....
Eben und wie ich schon geschrieben habe, muss man dies eben wegen der extrem massiv steigenden Kosten je fortschrittlicher der Fertigungsprozess wird, auch um die nötigen Fertigungsvolumen zu erreichen und die anfänglichen Investitionen einfahren zu können.

Woran es gescheitert ist, weiß niemand so genau.
Vielleicht hat Intel den Schritt einfach zu spät gemacht, denn nach dem Problem mit 10nm und angesichts der Tatsache wie lange Intel gebraucht hat dies zu überwinden, dürfte das Vertrauen erstmal weg sein und muss erst wieder errungen werden.

Entweder ist TSMC einfach grundsätzlich so günstig bei älteren Prozessen das Intel preislich nicht mithalten könnte oder der Logistikaufwand im Prozess einiger Unternehmen war zu groß das es für 1 Produkt bei Intel irgendwie lohnt.
Laut einer News geht es wohl vor allem darum, ob Intel Kunden für 14A findet, nachdem sie für 18A keinen großen Kunden gewinnen konnten. Die älteren Prozesse bietet Intels Foundry ja sowieso zusammen mit UMC an, daher werden dort auch andere Prozesse angeboten als die alten Intel Prozesse. Dies dürfte eben an Dingen wie Design Tools und fertigen IPs liegen.

So schlecht ist Intel nicht und unter Corona hätte man alles genommen was es gibt.
Um davon profitieren zu können, hätte Intel das Foundry Geschäft aber schon viel früher öffnen müssen.

Intel hatte auch eine Fab in Polen geplant.
Auch die wurde gestrichen.
Es liegt also nicht nur an den Rahmenbedingungen in Deutschland.
Intel hat schlicht kein Geld, um die Fabs bauen zu können.
Das einmal und zum anderen stellt sich die Frage ob Intel die Fabs überhaupt noch brauchen wird, was nur der Fall sein könnte, wenn sie genug Kundenvolumen für ihre advanced Prozesse, allen voran 14A, finden werden. Alleine für Legacy Prozesse dürfte der Bedarf nicht vorhanden sein, zumal Intel dann auch viel weniger eigene Produkte selbst fertigen wird, wenn sie aus dem Rennen um die modernste Fertigung aussteigen.

Das Gelände wurde den Bauern abgekauft, Bebauungspläne erstellt, die Genehmigungen erteilt, etc.
Ja sogar eine Zufahrtsstraße wurde schon gebaut und endet nun auf dem Acker.
Dann sollten sie die Flächen nun schnell wieder an Bauern verpachten, dann sonst bleibt da eine Brache und es werden sie schnell geschützte Pflanzen und Tiere dort ansiedeln, da solche Brachflächen halt selten sind und wenn das erst einmal passiert ist, wird man dort nie wieder was bauen dürfen.

Dazu kommt, dass Intel nun seit Jahren der eigene Roadmap hinterherläuft. Angefangen beim 10nm Debakel und es zieht sich bis heute durch. Man ist weit weg von TSMC…
Nein, denn Intel 4 und Intel 3 sind meines Wissens nach plangemäß erschienen, erst Intel 20A liegt nicht im Plan, nachdem es zugunsten von 18A abgesagt wurde. Wie weit man hinter TSMC liegt, wird man abwarten müssen, wenn es Produkte aus der 18A und aus TSMCs N2 Fertigung gibt um die Prozesse wirklich vergleichen zu können. Auf dem Papier ist 18A aber moderner, da der Prozess schon Backside Power Delivery (PowerVIA genannt) hat, was TSMC früher mal für N2P auf der Roadmap hatte und dann auf A16 verschoben hat, denn bei TSMC läuft auch nicht immer alles nach Plan.

In spätestens einem Jahr sollte klar sein, wo Intel mit 18A und TSMC mit N2 wirklich stehen und wenn Intel dann gut dasteht, dürften sich auch externe Kunden finden lassen, die dann eben schon für 14A gewonnen werden sollen, da der Prozess dann für die Massenfertigung bereit sein soll, wenn deren Designs so weit sind in die Fertigung zu gehen. Dann könnte es ggf. wegen der verschoben / abgesagten Bauprojekte zu Kapazitätsengpässen kommen, was Tan aber offenbar der Option vorzieht nun massenhaft Fabs zu bauen, die dann ggf. nicht gebraucht werden, sollte es doch nicht klappen. Außerdem könnte die Ungewissheit bzgl. der Zölle derzeit ein Problem für geplante Fabs außerhalb der USA sein, denn Unsicherheit ist immer Gift für Investitionen.

Was Raptor Lake angeht, werde ich dazu hier nichts mehr schreiben, da es sowieso sinnlos ist und obendrein kalter Kaffee, denn nun ist Arrow Lake aktuell. Wer Unternehmen alleine nach der Börsenwert beurteilt, der meint sicher auch, dass Tesla mehr Autos als jeder andere Hersteller baut.
 
Wie war das? Echte Männer haben eigene Fabriken? Gott wie mich das amüsiert :d
Wie man nur so blöd sein kann und ein Monopol von TSMC haben möchte. :rofl: :fresse2:
Beitrag automatisch zusammengeführt:

Die Chipfabrik interessiert mich nicht, war sowieso von Anfang an ein Projekt was vielfach kritisiert wurde, jetzt spart man Steuergeld, auch die Umwelt und Stromnetze werden weit weniger belastet.
Der Laden soll ruhig in den Usa fertigen, sodass sie noch weniger verkaufen 😉
Ja und du wirst es dann wohl auch kapieren das AMD nicht die Wohlfahrt ist, wenn sie mit dem Preis weiter anziehen :poop:
 
Wie man nur so blöd sein kann und ein Monopol von TSMC haben möchte.
So sind halt manchen; Hauptsache es geht dem Unternehmen schlecht, welches mit dem von mir geliebten Unternehmen konkurriert und so weit zu denken was dies für sie dann für negative Konsequenzen hätte, würden sich ihre Wünsche erfüllen, denken sie gar nicht. Die denken meist sowieso nicht mehr mehr, sondern sind bedingungslose Fans, wie Anhänger einer Sekte.
 
Ja wobei sich das Blatt mit den Preisen bei AMD gewendet hatte, AM5 ist kein Vergleich zu AM4.
Heute ist Intel im CPU-Bereich bis 270€ besser als AMD, wollen die Fanatiker aber nicht wahr haben.

Wobei AMD bei AM4 auch nicht geglänzt hatte, zuerst wollte AMD kein Update für X370 für 3000 raus geben, bei B450 das gleiche da wollten sie kein Update für 5000 bringen trotz gleicher Sockel.
Nach genug Shitstorming kann sogar z.b. ein Asrock mit X370 heute mit Ryzen 5000 umgehen. :fresse2:
 
Wollen halt auch nur dein Geld 💰
 
Wollen halt auch nur dein Geld 💰
Intel, Nvidia und AMD sind alles Börsennotierte Unternehmen,
dennoch haben die AMD Kunden etwas Sektenhaftes ansich und wollen das Unternehmen als die Wohlfahrt verkaufen und den Kunden zum richtigen bekehren.

Ich hatte ewig AMD im Einsatz, aber der 4600G war eine Entäuschung mit seiner Leistung der IGP für damals mit Board 220€,
am Ende gab ich einer China Firma einen Versuch die Mobile CPU auf normalen Boards verkauft hat.

Was soll ich sagen der I5 12500H mit der 80EU IGP war in Spielen mal eben durchweg 34% besser und das für 20€ mehr.
 
dennoch haben die AMD Kunden etwas Sektenhaftes ansich und wollen das Unternehmen als die Wohlfahrt verkaufen und den Kunden zum richtigen bekehren.
Das sehe ich auch so. Allerdings bedeutet ein Zwang zu einem neuen Board nicht, dass der CPU Hersteller deshalb wirklich mehr verdient. Klar, er kann dann einen Chipsatz für das neue Board verkaufen, aber die meisten werden ihr altes Board genau wie die alte CPU gebraucht verkaufen und dann braucht der Käufer der alten CPU sich eben kein neues Board kaufen. Bleibt eine neue CPU Generation mit den alten Boards kompatibel, so können die Käufer der neuen CPUs zwar auf den Kauf eines Boards verzichten, aber dafür müssen diejenigen die ihre gebrauchten CPUs kaufen, sich dann ein passende Board dazu kaufen, es bleibt also dabei, dass pro verkaufter CPU auch Mainboard gebraucht und damit ein Chipsatz verkauft wird, außer jemand legt sich seine alte CPU in die Vitrine, was aber die seltene Ausnahme sein sollte außer es geht um uralte CPUs für die keiner mehr gebraucht etwas bezahlen will.
 
Ich finde den Ansatz von AMD mit AM4 wirklicht gut, aber AMD wollte bis es Shitstorms gab keine Updates bringen weil selber Sockel.

AM4 war von AMD von sich aus eine Frechheit, aber auf einem X370 einen Ryzen 5000 zu verwenden ist gut für den Endkunden.
 
AMD ist keine Heilsarmee oder so. Es war aber wichtig für den CPU Markt das sie zurück gekommen sind und Wettbewerb gebracht hatten.
Intel hat sich halt sich auf seine teilweise unter der Gürtellinie Geschäftspraktiken (Kartelle) verlassen und gewisse Dinge etwas entspannter laufen lassen als sie keine echte Konkurrenz hatten.

Ich hatte gehofft durch AMDs Rückkehr wird Intel wieder Spannender, aber scheinbar hat Intel dem Druck nicht standgehalten.
Zwar scheinen ihre Architekturen ganz gut zu sein, aber ihre Fertigung ist es halt nicht.

Wäre interessant von Insidern zu wissen ob Intel bezüglich Fertigung schon immer problematischer war und deshalb neue Architekturen verzögert rausgekommen sind oder so.

Vielleicht täuschen wir uns eben und Intel hat den Fortschritt nicht "absichtlich" verlangsamt wie wir unterstellt haben, sondern der Vorsprung war vielleicht schon immer eher an der Kante und weit weniger Fortschrittlich wie wir meinen.

Also Sie waren schon zwischendurch weiter voraus, aber nicht wie wir vermuten schon 2-3 Generationen Vorsprung oder so. Sondern die "Refreshs" kamen nicht alleine wegen dem Marktvorteil sondern weil die auch wirklich technische Schwierigkeiten hatten (Fertigungsprobleme) die unter dem Schatten Marktführer nicht sichtbar war.
 
Das denk ich schon auch mit 14nm, +,++,+++

Aber ich brauch seit dem 12500H mit P Core only, kaum mehr eine schnellere CPU den Rest macht entweder die IGP oder die kleine RTX A400.
Das einzige Spiel was seit Jahren von mehr Kernen profitiert hatte war bei mir BF2042, sonst absoluts keines.

Aber auch Zukunft kauf ich mir nicht eine teure deppen GPU, einzig die Intel ARC Pro B50 mit 75W und 16GB kommt mir noch in die Wohnung.

Nebenbei finde ich es von der PPI recht dumm mein 21,5 Zoll FHD (102 PPI) ist kaum schlechter als ein 27 Zoll WQHD (109 PPI).
 
Zuletzt bearbeitet:
Intel hatte schon häufiger Probleme, mit der Konkurrenz mitzuhalten.
Das ging schon beim 8086/8088er los.
Die NEC V20 und V30 waren schneller und billiger.
Bei gleichem Takt war ein V20/V30 ca. 30% schneller als ein 8088/8086.
Und es gab sie bis zu max. 16 MHz anstatt bis max. 10 MHz wie der 8088/8086.
Oder der 286er:
Von Intel gabs den nur mit max. 16 MHz, von AMD und Harris aber mit 20 MHz und von Harris sogar mit 25 MHz.
Oder beim 486er:
Von Intel gabs nur 33 und 50 MHz und DX2 mit 66 MHz und dann den DX4 mit 100 MHz.
Von Cyrix gabs den auch mit 40 MHz und als DX2 mit 80 MHz und von AMD und Cyrix als DX4 mit 120 MHz und als Krönung von AMD den x5 mit 133 MHz und 150 MHz.
Oder der P4: Da hat Intel mit der Brechstange Takt versucht, verzweifelt gegen die deutlich weniger Takt brauchenden AMD-Prozessoren anzukommen. Das ist für eine gewisse Zeit auch gelungen, aber es zeigte sich doch, das das eine Sackgasse ist.
Der Nachfolger der Core-Architektur basierte dann wieder auf dem Vorgänger Pentium 3.

Was AMD vs. Intel angeht:
Konkurrenz belebt das Geschäft und es wäre für die Kunden schlecht, wenn einer der beiden verschwinden würde.
Denn dann gäbe es ein Monopol, bei dem der Monopolist die Preise diktiert.
Und die würden dann eher nach oben gehen.
 
Wie man nur so blöd sein kann und ein Monopol von TSMC haben möchte. :rofl: :fresse2:
Schließe bitte nicht von Dir auf andere, dass mit einer marktbeherrschenden Stellung kennen wir ja bereits aus der Vergangenheit seitens INTEL,

wo CPU Preise mehr als 1000,-€ gekostet haben, siehe Intel Core i7-980X.:lol::bigok:
Beitrag automatisch zusammengeführt:

Ja und du wirst es dann wohl auch kapieren das AMD nicht die Wohlfahrt ist, wenn sie mit dem Preis weiter anziehen :poop:
Das kennen wir von INTEL zur Genüge, dass INTEL nicht die Wohlfahrt ist, dass musst Du uns nicht erzählen.:poop::poop::poop:
Beitrag automatisch zusammengeführt:

dennoch haben die AMD Kunden etwas Sektenhaftes ansich und wollen das Unternehmen als die Wohlfahrt verkaufen und den Kunden zum richtigen bekehren.
Ich merke schon, der Ton wird härter, wenn man keine Argumente hat, ist schon sinnbildlich für Intel-Influencer. Ganz schlimm.

Bist Du es HOLZI?:ROFLMAO:
 
Zuletzt bearbeitet:
Wäre interessant von Insidern zu wissen ob Intel bezüglich Fertigung schon immer problematischer war und deshalb neue Architekturen verzögert rausgekommen sind oder so.
Nein, Intel war über Jahrzehnte bei der Fertigung führend und vergiss nicht, dass sie schon 14nm CPUs mit FinFET verkauft haben, als GF, Samsung und TSMC derartige Probleme mit ihren FinFET Prozessen (20nm) hatten, dass sie noch bei 28nm festhingen. Erst dann hat sich wegen Intels Problemen mit ihrem 10nm Prozess die Situation umgedreht.
Vielleicht täuschen wir uns eben und Intel hat den Fortschritt nicht "absichtlich" verlangsamt wie wir unterstellt haben
Keine Ahnung wer AMD unterstellt hat den Fortschritt aufzuhalten und in welchem Zusammenhang. Es gab für die HEDT Plattformen schon lange vor Zen 6 und auch 8 Kerne zu kaufen, im Mainstream waren für Cannon Lake 6 Kerner vorgesehen, aber Cannon Lake war eben auch die erste 10nm CPU und am Ende gab es mit dem i3 8121U genau eine Cannon Lake CPU und bei der hat nicht mal die iGPU funktioniert. Daher hat Intel damals die Skylake Architektur immer wieder neu aufgegossen, mit mehr Kernen und mehr Takt, der 14nm Prozess hatte dadurch ja genug Zeit so weit zu reifen, dass immer mehr Takt machbar war.

Bei den Architekturen hat Intel ja nicht aufgehört zu entwickeln, nach Cannon Lake kam Ice Lake und dann Tiger Lake, aber diese Architekturen waren alle für 10nm entwickelt worden und man kann die Architektur schwer von der Fertigung trennen, denn eine neue Architektur soll ja vor allem mehr IPC liefern, aber dazu braucht man vor allem noch viel mehr Transistoren und die brauchen Platz und Energie. Nur eine neuere Fertigung kann verhindern, dass dann die Größe und Leistungsaufnahme des Dies aus dem Ruder laufen und dies hat man ja gesehen, als Intel dann am Ende der Skylake Aufgüsse Rocket Lake mit der Sunny Architektur gebracht hat, die ein Backport der Ice Lake Architektur war, die eben für 10nm entwickelt worden war und dann nur noch 8 statt vorher 10 Kerne möglich waren.

Man muss sich eher fragen, warum Intel nicht schon eher statt noch einem Skylake Aufguss einen Backport einer 10nm Architektur gebracht hat, was man als Verlangsamung des Fortschrittes ansehen könnte, wenn dies auch eine nur auf den Desktop bezogene Sichtweise wäre. Da kann man nur spekulieren, aber ich würde mal vermuten, dass am Anfang niemand erwartet hat, dass es so lange dauern würde die Probleme mit dem 10nm Prozess zu lösen und wenn man erwartet diese dann im nächsten Jahr geschafft zu haben, wird man jetzt nicht mit so einem aufwendigen Backport beginnen. Am Ende kam Rocket Lake ja auch praktisch schon zu spät, denn wenn man sieht welche Taktraten und (Singelthread) Leistung Tiger Lake erzielt hat, bei der Multithreadpeformance ist der Vergleich wegen der stark unterschiedliche TDPs schwer, so hätte Intel auch Tiger Lake in den Desktop bringen können.

Hier hat offenbar klar zu lange auf eine Lösung der Probleme mit seinem 10nm Prozess gehofft. die dann doch länger als gedacht auf sich warten lies. Man könnte sich auch fragen, ob die Entscheidung die CPUs dann extern fertigen zu lassen, wenn dies zu einem besseren Produkt führt, nicht auch zu spät getroffen wurde. Aber ich vermute, dass man bei Intel damals als Ketzer auf dem Scheiterhaufen gelandet wäre, wenn man dies auch nur vorgeschlagen hätte.
Konkurrenz belebt das Geschäft und es wäre für die Kunden schlecht, wenn einer der beiden verschwinden würde.
Denn dann gäbe es ein Monopol, bei dem der Monopolist die Preise diktiert.
Und die würden dann eher nach oben gehen.
Eben und dies gilt auch für die Fertigung, man schaue sich nur die letzten Quartalszahlen von TSMC an:
Das diese Steigerung vor allem von den neusten Prozessen kommt, liegt daran das TSMC hier fast konkurrenzlos ist und kräftig zulangen kann und dies auch weiter tun wird:
Deshalb wäre es eben extrem wichtig, dass Intels Foundry Erfolg hat, da TSMC die Preise sonst gnadenlos weiter anheben wird und wir alle die Zeche zahlen müssen, da deren Kunden (also z.B. AMD, Apple, Intel, NVidia) diese Kosten natürlich an uns Endkunden weitergeben werden. Daher sollten auch die AMD Fans hoffen das Intels 14A Prozess ein Erfolg wird und wenn es nur deswegen ist, dass AMD seine kommenden CPU Generationen eben günstiger bei TSMC herstellen lassen und damit auch günstiger verkaufen kann.
 
AMD ist keine Heilsarmee oder so. Es war aber wichtig für den CPU Markt das sie zurück gekommen sind und Wettbewerb gebracht hatten.
Intel hat sich halt sich auf seine teilweise unter der Gürtellinie Geschäftspraktiken (Kartelle) verlassen und gewisse Dinge etwas entspannter laufen lassen als sie keine echte Konkurrenz hatten.

Ich hatte gehofft durch AMDs Rückkehr wird Intel wieder Spannender, aber scheinbar hat Intel dem Druck nicht standgehalten.
Zwar scheinen ihre Architekturen ganz gut zu sein, aber ihre Fertigung ist es halt nicht.

Wäre interessant von Insidern zu wissen ob Intel bezüglich Fertigung schon immer problematischer war und deshalb neue Architekturen verzögert rausgekommen sind oder so.
Die "Refreshs" kamen meist, weil Intel sich nichts neues ausdenken mußte. Es gab ja lange Zeit keine Konkurrenz auf Augenhöhe. Die hätten wohl noch viele Jahre 4-Kerner a la Skylake mit immer neuen Sockeln aufgelegt, wenn die Zen-Architektur nicht so eingeschlagen wäre.

Für mich kam das damals gerade zur rechten Zeit, denn mein AMD-PC wurde langsam zu leistungsschwach.
Aber Intel wurde davon wohl auf dem falschen Fuß erwischt, und brachte erst mal Mehrkerner in den Consumerbereich, und jubelte von Generation zu Generation die Taktraten und Ströme hoch, bis schließlich die CPUs noch in der Garantiezeit degenerierten. Und ja, Fertigungsprobleme sind nicht so neu. Wenn ich daran denke, wie lange man sich mit 10nm abgequält hat. für 2012 als Cannon Lake angekündigt, wurde die Fertigung zu einer Art Erlkönig. 2018 kam dann ein einziger Prozessor auf den Markt - oder auch nicht. Ein leistungsschwacher Mobilprozessor namens Core-i3 8121U. Erst mit Ice Lake bekam man den Prozess ans Kacken - mit 7 Jahren Verspätung. Die 14nm-CPUs mußten derweil die Lücke büßen....
 
Die "Refreshs" kamen meist, weil Intel sich nichts neues ausdenken mußte. Es gab ja lange Zeit keine Konkurrenz auf Augenhöhe. Die hätten wohl noch viele Jahre 4-Kerner a la Skylake mit immer neuen Sockeln aufgelegt, wenn die Zen-Architektur nicht so eingeschlagen wäre.
Das ist doch Quatsch, denn Intel hatte eine 6 Kerner im Mainstream mit Cannon Lake geplant und es wurden ja auch neue Architekturen entwickelt., hiernach gab sogar 8 Kerne von Cannon Lake für den Desktop:
Cannon Lake hatte eine neue Architektur, ebenso Ice Lake (die dann für Rocket Lake backported und Sunny Cove genannt wurde) und Tiger Lake, aber von den drei kam nur Sunny Lake in den Desktop, wo es dafür eben nur Refreshs von Skylake gab. Eben weil die neuen Architekturen für die 10nm Fertigung entwickelt worden sind und ein Backport dauert eine ganze Weile und kostet daher auch einiges. Im Nachhinein kann man sicher sagen, dass Intel dies hätte früher machen sollen, aber hinterher ist man immer schlauer.

Aber Intel wurde davon wohl auf dem falschen Fuß erwischt, und brachte erst mal Mehrkerner in den Consumerbereich
Auch falsch, denn die gab es bei den HEDT CPUs schon vorher und HEDT ist auch Consumerbereich! Außerdem sollte man auch nicht vergessen, dass AMD schon mit den Phenom II richtige 6 Kerner hat, mit Bulldozer dann 4 Module die als 8 Kerner vermarktet wurden, aber keine echten 8 Kerner waren und was danach kam, waren alles nur APUs mit 2 Modulen, bis dann Zen erschient. AMD hat also selbst nicht nur nicht mehr Kerne gebracht, sondern lange nur seine alten AM3+ 4 Moduler im Programm behalten und alle neueren Evolutionsstufen nur als 2 Moduler gebracht. Da ist es schon ein wenig komisch, wenn Intel dann beschuldigt wird zu lange an nur 4 Kernen im Mainstream festgehalten zu haben.
für 2012 als Cannon Lake angekündigt, wurde die Fertigung zu einer Art Erlkönig. 2018 kam dann ein einziger Prozessor auf den Markt
Nein, Cannon Lake war ursprünglich für 2018 geplant, 2012 war noch Ivy Bridge aktuell und Haswell erschien erst Mitte 2013, da gab es noch nicht mal die 14nm Fertigung. 2012 gab es bestenfalls wilde Gerüchte um 10nm Produkte, aber Gerüchte sind noch lange keine Ankündigungen! Daher waren es auch nicht 7 Jahren Verspätung, wenn man Alder Lake als erste 10nm Desktop CPU nimmt, dann waren es wo 3 Jahre Verspätung, bis der inzwischen in Intel 7 unbenannte Prozess so gut war, dass man damit auch die Taktraten für Desktop CPUs erzielt hat. Aber es stimmt das die 14nm CPUs bis dahin die Lücke füllen mussten, zumindest im Desktop und da war eben Skylake die letzte Architektur die dafür entwickelt worden war. Es gab keine neueren Architekturen für 14nm, die neueren waren alle für 10nm entwickelt und bis der Sunny Cove backport fertig war, konnte Intel eben weiter machen als Refreshs mit Skylake Architektur im Desktop zu bringen.

Aber wenn man weiß das es abseits vom Desktop neuere Architekturen gab, wieso behauptet man dann, dass Intel sich nichts neues ausdenken musste? Genau das haben sie doch klar gemacht, sie konnten es nur wegen der Probleme der 10nm Fertigung nicht in den Desktop bringen, denn selbst als Ice Lake erschien, waren die Taktraten nichts worüber man jubeln könnte. Im Desktop braucht man aber eben hohe Taktraten und daher waren Ice Lake damals für die untere Kategorie der Mobilen CPUs und die großen Xeons, wo die bessere Effizienz wichtiger ist und das Power Budget pro Kern sowieso keine sehr hohen Taktraten erlaubt.

Damals hätte Intel sich entscheiden müssen die Desktop CPUs bei TSMC wie AMD in einem Prozess der N7 Familie fertigen zu lassen, da die Strukturgrößen etwa denen von Intels 10nm Prozess entsprachen (weshalb Intel den ja auch in Intel 7 umbenannt hat), hätte die Umstellung auf die Fertigung bei TSMC nicht so problematisch wie ein Backport auf den 14nm Prozess mit seinen größeren Strukturen sein sollen. Aber dies hat die Firmenkultur bei Intel damals wohl nicht erlaubt und man hat sich vermutlich auch eingeredet, dass der Durchbruch bei der Lösung der Probleme mit dem 10nm Prozess gleich bevorstehen würde und jeden Moment passieren müsse.

Aber unter der Verzögerung wegen der Probleme mit dem 10nm Prozess leidet Intel eben heute noch, auch wenn die Aufholjagd mit den 6 Prozessen in 4 Jahren ein Erfolg gewesen sein dürfte. Wie weit es das war, wissen wir leider nicht genau, da 20A nie in die Massenfertigung gegangen ist, zugunsten von 18A. Prozesse brauchen aber eben Zeit um hohe Taktraten zu erzielen, deshalb kommen ja auch in 18A nur Panther Lake und die großen Xeons, also wieder mobile CPUs des unteren TDP Bereiches und Server CPUs, also wieder CPUs wo die Effizienz wichtiger als der maximale Takt ist. Für hohe Taktraten ist 18A-P zuständig, da wird man sehen müssen ob Intel den noch bringt oder sich voll auf 14A konzentriert und dann Nova Lake wieder bei TSMC fertigen lässt, denn für 14A kommt Nova Lake zu früh und wohl erst recht um damit hohe Taktraten erreichen zu können.

Wenn man halt immer so schnell neue Prozesse bringt, dann fehlt die Zeit diese für hohe Taktraten reifen lassen und weiterentwickeln zu können. Außerdem sind die Kosten für die Entwicklung und Einrichtung der Fabs hoch und werden umso höher, je moderner der Prozess ist, aber die Stückzahlen bleiben klein, wenn die nächste Generation dann schon wieder in dem nächsten Prozess gefertigt wird. Das zeigt sich nun eben auch in den Geschäftszahlen. Auf Dauer wird sich die eigene Foundry eben nur finanzieren lassen, indem man halt auch externe Kunden findet die helfen auf die nötigen Stückzahlen zu kommen um weiter neue Prozesse entwickeln und einführen zu können. Selbst dann wird es mit der Zeit immer schwerer und irgendwann könnten es die Kosten sein, die eine weitere Entwicklung neuer Fertigungsprozesse verhindern, denn wenn der vorletzte aus dem Rennen aussteigt, auch auch der verbleibende Monopolist der die modernste Fertigung hat, dann keinen Anreiz mehr noch einmal sehr viel Geld in die Hand zu nehmen um eine noch bessere Fertigung zu entwickeln, mit dem Risiko das dies schief geht. Er kann dann ja auch einfach weiter seine Kunden weiter mit seinem aktuellen Prozess melken, der ja trotzdem konkurrenzlos ist.
 
@Holt aber scheinbar war/ist Intel doch leicht ins Hintertreffen geraten.

Intels Preispolitik hat aber auch die 6-8 Kerner nicht richtig Mainstreamfähig gemacht. Erst etwas später.
Was entweder dem damaligen Monopol zu schulden ist oder doch die nicht ganz so wirtschaftliche Ausbeute was auf Problemen in der Fertigung zurück zu führen wäre.

Auf jeden Fall war da halt kein Leistungsdruck da. Jetzt seit TSMC an Intel vorbei gezogen ist schaffen sie es nicht mehr wirklich aufzuholen.
Wobei die Zulieferer für TSMC auch Intel zur Verfügung stehen ASML/Zeiss Optics etc.
 
War hier im Luxx komischerweise keine News wert, aber eine prompte Rolle rückwärts wurde uns auch noch versprochen:


Es wird aber ein wenig dauern, bis das dann auch umgesetzt ist, aber zumindest für Datacenter wird man versuchen, HT so schnell wie möglich wieder einzuführen. Da können sich AL Besitzer freuen, eine sozusagen historische CPU Generation zu besitzen.

Und ich dachte, der ThreadDirector wäre die viel bessere Lösung. :unsure:
 
@Holt aber scheinbar war/ist Intel doch leicht ins Hintertreffen geraten.
Das ist klar und unbestritten, aber es lag eben nicht daran, dass Intel sich ausgeruht und nichts entwickelt, sondern nur Skylake Refreshs gebracht hätte, sondern eben an dem Problem mit der 10nm Fertigung. Schau Dir an wie sehr AMD vor Zen ins Hintertreffen geraten war, also sie sich nur auf die iGPU der APUs konzentriert haben, aber AMD hatte damals ebenfalls mit Fertigungsproblemen zu kämpfen denn GF (und Samsung uns TSMC) hingen halt damals bei 28nm fest, während Intel schon CPUs in 22nm und dann 14nm gefertigt und verkauft hat.

Die Fertigung ist eben extrem wichtig, wenn es um die Eigenschaften der CPUs geht, da man halt nur mehr IPC bekommt, wen man mehr Transistoren pro Kern oder für mehr Cache aufwenden kann und deren zusätzlichen Platz- und Energiebedarf muss halt die bessere Fertigung mit kleineren Strukturen kompensieren. Dann bestimmte die Fertigung auch, wie hoch eine bestimmte Architektur maximal takten kann, was man ja anhand der ganzen Refreshs von Skylake gut sehen konnte, während der 6700K noch mit maximal 4,2GHz Boosttakt spezifiziert war, immerhin schon einiges mehr als die 3,7GHz des i7-5775C 14nm Desktop Broadwell, waren es fast 4 Jahre später beim i9-10900K 5,1GHz, obwohl es immer noch die Skylake Architektur war.
Intels Preispolitik hat aber auch die 6-8 Kerner nicht richtig Mainstreamfähig gemacht.
Das waren ja auch HEDT CPUs, die haben neben mehr Kernen ja auch noch mehr PCIe Lanes und RAM Channels geboten.
Was entweder dem damaligen Monopol zu schulden ist oder doch die nicht ganz so wirtschaftliche Ausbeute was auf Problemen in der Fertigung zurück zu führen wäre.
Wenn Intel die Prototypen für Cannon Lake mit 8 Kernen im Desktop und 6 im Notebook entwickelt und damit die ganzen Entwicklungskosten gestemmt hat, war es sicher nicht so das man diese einfach abgeschrieben hätte, weil man meinte es nicht nötig zu haben. Die 300er Chipsätze nennen sich ja auch Cannon Lake PCH, die 8000er Generation hätte Cannon Lake sein sollen, stattdessen erschien im Oktober 2017 dann Coffee Lake. Dies dürfte klar auf die Probleme mit dem 10nm Prozess zurückzuführen sein, denn beim einzigen Cannon Lake der je erschienen ist, ging ja nicht einmal die iGPU.
Auf jeden Fall war da halt kein Leistungsdruck da.
Wenn man nur auf die Gamingperformance schaut, vielleicht. Aber Gamingperformance ist nicht alles, es ist im Ganzen ein Nischenmarkt, auch wenn viele hier im Forum auf nichts anderes schauen. Bei der Multithreadperformance war AMD schon mit Zen1 mit ihren 8 Kernen dem direkten Konkurrenten Kaby Lake überlegen und nahe an dem HEDT i7 6900K. der allerdings damals doppelt so teuer wie anfangs ein 1800X war. Anandtech hat damals in der Übersicht die letzte Seite seines Zen Review "CONCLUSION: AMD IS COMPETING IN HEDT AGAIN" betitelt und AM4 war eben auch der Nachfolger für AM3+ und nicht die FM3 Sockel des Mainstream. Erst mit Threadripper hat sich das ganze dann geändert und AM4 war damit dann Mainstream und Threadripper dann HEDT, aber TR war ja wohl ursprünglich gar nicht mit eingeplant.

Man sollte nicht vergessen, oder vielleicht waren viele hier noch zu klein, aber zuletzt waren Intel und AMD 2011 mit 32nm und Sandy Bridge gegen Bulldozer von der Fertigung her auf Augenhöhe:
AMD_Intel_2010-2017.png

Allerdings war AMD mit seiner verkorksten Modularchitektur am Ende nicht wirklich auf Augenhöhe mit Sandy Bridge. Dann zog Intel mit der Fertigung davon und Zen hat dann am Ende vor allem die Pilldriver abgelöst.
Und ich dachte, der ThreadDirector wäre die viel bessere Lösung.
Das eine hat mit dem anderen doch nichts zu tun, der ThreadDirector soll dem Windows Task Scheduler bei der Auswahl der Kerns für einen Softwarethread unterstützen. Außerdem geht es vor allem um die Server CPUs, wie man aus dem Interview hier entnehmen kann:

Diamond Rapids sind die kommenden Server mit den P-Kernen die 2026 auf den Markt kommen und in 18A gefertigt werden sollen.
 
Und ich dachte, der ThreadDirector wäre die viel bessere Lösung.
Der hat erstmals nichts mit HT/SMT zu tun :LOL:
Dieser soll nur Prozesse bei hybrid Architekturen effizient zwischen den unterschiedlichen Kernen und Typen verlagern.
 
War hier im Luxx komischerweise keine News wert, aber eine prompte Rolle rückwärts wurde uns auch noch versprochen:
Beste Entscheidung die Intel machen konnte. Ohne HT kauf ich keine CPU mehr :bigok:
 
Beste Entscheidung die Intel machen konnte. Ohne HT kauf ich keine CPU mehr :bigok:
Naja HT enthält aber auch unter anderem viele Sicherheitslücken. Effektiv nützt HT auch nicht wirklich der Performance und erhöht die Abwärme.
Das Problem: E-Cores sind kein echter Ersatz für echte P-Cores. Ein ähnliches Problem hat AMD mit mehreren CCX, also wenn die Arbeitskraft über Gruppen verteilt werden muss ist die Performance eher mäh.
Gerade wenn wir von Arbeitsvorgängen sprechen die Echtzeit bzw. so wenig Latenz brauchen wie geht wie Gaming.
Deshalb ist ein X3D mit 8 Kernen das bessere Paket.

Nachtrag: ich hoffe AMD bringt noch einen 12 Kerner mit X3D, dank der C-Cores (die sind kleiner und es passen mehr auf einem CCX) wäre das theoretisch technisch machbar.
 
Zuletzt bearbeitet:
Naja HT enthält aber auch unter anderem viele Sicherheitslücken.
So war es zumindest in der Vergangenheit, weil eben zwei Threads auf einem Kern laufen und sich daher viele Resourcen teilen, wie z.B. den L1 und L2 Cache, die daher pro Thread im effektiv nur halb so groß sind, wenn beide Threads des Kerns genutzt werden.
Effektiv nützt HT auch nicht wirklich der Performance
Doch, es nutzt der Multithreadperformance, wenn eben alle Kerne voll ausgelastet werden. Aber es erhöht die Singlethreadperformance nicht und unter Umständen, wenn eben Hintergrundaufgaben immer mal wieder den zweiten Thread des Kernes belegen, verringert es diese sogar, eben weil dann beide Threads um die Recheneinheiten konkurrieren und sich den L1 und L2 Cache teilen müssen. Da ist der Konzept Hintergrundthreads auf e-Kernen laufen zu lassen, schon besser.

Außerdem sollte man nicht vergessen, dass SMT ja dazu gedacht war die Auslastung der Kerne zu erhöhen, wenn ein Thread auf I/O (also z.B. RAM Zugriffe) warten muss, man aber andererseits die Architekturen immer mehr darauf hin optimiert, dass dies möglichst nicht passiert. Daher verbessert man Vorhersagen um die nötigen Daten möglichst vorab aus dem RAM in den Cache zu laden und die passende Befehlsfolge zu decoden. Man kann also grob sagen, dass SMT umso mehr bringt, umso schlechter die Optimierungen der Architektur funktionieren und in einer idealen Architektur nichts bringen kann, weil dort alle Vorhersagen perfekt funktionieren und es nie Wartezeiten für einen Thread gibt. Auch wenn so eine optimale Architektur wohl nie erreicht werden wird, so versucht man doch ständig ihr näher zu kommen und schaut man sich an was die ersten Atom damals mit HT und noch ohne Out-Of-Order Architektur für Performancegewinn durch HT hatten und wie viel das gefallen ist, nachdem auch bei den Atoms eine Out-Of-Order Architektur eingeführt wurde, so sollte klar sein was ich meine.

Mehr Thread bieten zu wollen, dürfte wohl vor allem ein Verkaufsargument sein, performancetechnisch wird der Vorteil von SMT halt immer geringer, je besser eine Architektur wird. Wenn man dann noch bedenkt wie viele Kerne die Server CPUs schon jetzt haben und wie schnell sie rechnen, dann muss man bedenken das die Kerne auch alle mit Daten gefüttert werden wollen und wenn der RAM Durchsatz zum Flaschenhals wird, dann bringt SMT überhaupt nichts mehr, da dann der Stau vor dem RAM Controller nur noch länger wird.
 
Mehr Thread bieten zu wollen, dürfte wohl vor allem ein Verkaufsargument sein, performancetechnisch wird der Vorteil von SMT halt immer geringer, je besser eine Architektur wird. Wenn man dann noch bedenkt wie viele Kerne die Server CPUs schon jetzt haben und wie schnell sie rechnen, dann muss man bedenken das die Kerne auch alle mit Daten gefüttert werden wollen und wenn der RAM Durchsatz zum Flaschenhals wird, dann bringt SMT überhaupt nichts mehr, da dann der Stau vor dem RAM Controller nur noch länger wird.
AMD hatte vor Jahren mal SMT4 angeteasert, aber scheinbar wieder verworfen.

 
SMT4 ist doch für Kinder, IBM macht SMT8:
Das Problem ist aber, wie viel mehr Transistoren man dafür aufwendet. Als SMT noch recht neu war und AMD damals mit Bulldozer das Modulkonzept eingeführt hat, hieß es HT würde den Kern um 5% vergrößern, heutige Kerne sind aufwendiger und haben z.B. fette AVX Einheiten, keine Ahnung wie viel mehr Platz HT heute bedeutet, zumal man da wohl für die Sicherheit einiges tun musste, aber solange es weniger als die Mehrleistung ist, lohnt es sich im Prinzip schon.

Wenn ein Kerne wegen SMT z.B. 10% größer wird, könnte man auch genauso 10% mehr Kerne verbauen und die Frage ist dann eben mehr MT Performance bietet. Darauf dürfte aber halt keine einfach Antwort geben, sondern es dürfte von der Nutzung abhängen. Bei den Hybriddesigns im Desktop und in Notebooks ist dann die Frage noch komplizierter, da man hier eben die MT Performance auch durch mehr e-Kerne erzielen kann, die ja je nur ein Viertel der Größe eines P-Kerns haben. Aber es geht wohl vor allem um Server CPUs.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh