I'm not so updated on Nova Lake, but as far as i understand it, it will consist of two compute dies with 8P+16E cores each.
Basically 8P16E + 8P16E + 4E on soc for a total of 52 cores
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
I'm not so updated on Nova Lake, but as far as i understand it, it will consist of two compute dies with 8P+16E cores each.
Basically 8P16E + 8P16E + 4E on soc for a total of 52 cores
Es gibt Gerüchte um eine Cache im Base Tile, der sich Local Cache nennt und wohl erstmal nur in den Clearwater Forest Xeons kommen wird, aber zumindest noch nicht für die Desktop CPUs gedacht ist. Schade, denn eigentlich hat ja Intel dies Konzept damals mit den Desktop Broadwell CPUs in Form des eDRAMs eingeführt, der zwar primär für die IGPU gedacht war aber auch als L4 Cache für die CPU dient und den CPUs in einigen Games eine erstaunlich gute Performance gebracht hat. AMD hat dies dann die Idee mit dem großen Cache mit den X3D CPUs wieder aufgegriffen, aber Intel hat sie leider vergessen.Hoffe mal das Statement war quasi nur aus Trotz und sie kommen wenigstens gut in die Nähe der x3d's.
Auch wenn die Gerüchte davon sprechen, so wäre ich da nicht zu 100$ sicher, denn Intel dürfte auf DDR6 (wie bei Alder Lake mit der Alternative DDR5) setzen und es davon abhängen, ob DDR6 dann rechtzeitig einsatzbereit sein wird.Bei Intel bin ich mir nicht sicher, aber ich denke, es wird wohl wieder ein neuer Unterbau notwendig sein.
Das Intel schon jetzt an einer neuen Plattform für DDR6 arbeitet, sollte nicht überraschen und AMD sollte auch an AM6 arbeiten, wenn sie dies nicht erst in 2 Jahren auf den Markt bringen wollen. Aber bei Nova Lake ist der Memory Controller wieder auf einem eigenen Die und nicht wie bei Panther Lake auf dem Die mit den CPU Kernen untergebracht und dies dürfte daran liegen, dass man da flexibel bleiben möchte. Sollte es bei DDR6,, welches optimalerweise in der zweiten Hälfte 2026 und damit rechtzeitig für Nova Lake-S fertig sein sollte, dann aber massive Probleme und somit Verzögerungen geben, dann sollte es mich nicht wundern, wenn die Nova Lake-S doch nicht im S.1851 kommen und die neue Plattform dann für deren Nachfolger Razor Lake genommen wird. Aber das kann derzeit keiner absehen, selbst Intel nicht.Das ist doch schon laaaange bestätigt das Intel wieder ein komplett neuen Sockel und somit ne neue Plattform benötigt wird mit Nova S
Angeblich haben sie bei Nova Lake trotz der Tatsache das der RAM Controller nicht auf dem gleichen Die wie die Kerne sitzt, die Latenz deutlich senken können. Man wird sehen, aber wenn es dann wirklich bis zu 52 Kerne geben wird, dürfte der Fokus weniger auf Gaming- als auf Multithreadperformance liegen.Auf der anderen Seite der Medaille sehe ich nicht, wie Intel mit den Latenzproblemen der neuen Architektur und weiterhin ohne eigene Cache-Lösung in einem überhaupt nur greifbaren Zeitrahmen wieder konkurrenzfähige Gamingleistung bieten will…
Das könnte man ja über den Intel Thread Director lösen, indem man dem beibringt das er dem Windows Task Scheduler dazu bringt die Threads der Spiele nur auf den P-Kernen eines Dies laufen zu lassen, ganz ähnlich wie es AMD ja bei den CPUs mit zwei CCDs macht.die Kerne auf drei Dies zu verteilen wird es nicht besser machen.
Mir fehlt da nur ECC RAM, was ja mit dem W880 Chipsatz geht. Zwar gibt es auch W880 Boards, z.B. das ASUS Pro WS W880-ACE SE, das ASRock RACK W880D4U-2L2Q oder das Gigabyte W880 AI TOP, aber man findet sie noch kaum im Handel. Geizhals listet immerhin schon das ASUS Pro WS W880-ACE SE.Mir fehlt da aktuell als Workstation zusammen mit dem 265k nichts.
Das löst Intel schon heute ziemlich perfekt dank Hardware Scheduler (Thread Director). Ganz anders als bei AMD wo rein das Betriebssystem entscheidet, wo Software unterstützt. Aus dem Grund hat AMD u.a. beim 9950X3D ja so ein Teils noch arschiges Verhalten bei der Core Zuweisung.Das könnte man ja über den Intel Thread Director lösen, indem man dem beibringt das er dem Windows Task Scheduler dazu bringt die Threads der Spiele nur auf den P-Kernen eines Dies laufen zu lassen, ganz ähnlich wie es AMD ja bei den CPUs mit zwei CCDs macht.
Man wird sehen, aber wenn es dann wirklich bis zu 52 Kerne geben wird, dürfte der Fokus weniger auf Gaming- als auf Multithreadperformance liegen.
Keine Ahnung wie es bei AMD aussieht, aber generell ist es so, dass der Task Scheduler von Windows eben von dem entsprechenden Tool des CPU Herstellers (bei Intel eben der Thread Director) Hinweise bekommt, auch welchem Kern sie einen Thread ausführen soll. Der Thread Director greift dafür die Informationen von der CPU zurück, aber als Hardware Scheduler würde ich ihn deswegen nicht bezeichnen, da die Hardware (also die CPU) eben nicht selbst bestimmen kann, wo welcher Software Thread läuft, sondern dies eben nur über den beschriebenen Mechanismus dem Windows Task Scheduler vorschlagen kann.Das löst Intel schon heute ziemlich perfekt dank Hardware Scheduler (Thread Director). Ganz anders als bei AMD wo rein das Betriebssystem entscheidet, wo Software unterstützt.
Erstens bricht doch nichts dagegen das bei der CPU auch die Lasten die nur 8 P-Kerne voll auslasten, eine sehr gute Performance haben werden und zweitens ist die Praxis bei jedem anderes, in meiner Praxis kann ich auch 52 Kerne gut auslasten.Die üblichen Anwendungen und Spiele für normale PCs und Notebooks brauchen gute Leistung für die ersten <8 Cores und alles darüber kommt in der Praxis nicht zum Einsatz.
Das ist doch Blödsinn, inzwischen ist auch die Gaming Performance von Arrow Lake nicht mehr so schlecht wie in den ersten Reviews und was meinst du damit die Leistung wäre unzuverlässig?weil in der Praxis die Performance unzuverlässig und weit unterhalb der Konkurrenz ist.
Die X3D sind ja nur dann eine Hybrid Architektur, wenn es um die Modelle mit zwei CCDs geht, weil da ja nur einer den zusätzlichen 3D Cache hat. Aber wenn AMD sowas nicht in Hardware hat, dann ist dies alleine AMDs Schuld, es hindert sie ja keiner daran dies zu implementieren. Nicht einmal wenn Intel da Patente drauf hat, würde es AMD davon abhalten können, da beide ein Patentaustauschabkommen haben. welches alles umfasst was x86 CPUs betrifft. AMD kann also alles kopieren, was Intel in seine CPUs einbaut (und umgekehrt), ohne dass Patente dem im Wege stehen könnten, wenn sie es nicht tun, dann weil sie es nicht wollen.Ohne Thread Director ist es für das OS zudem schwer zu wissen, welche Threads zu welchem Kern passen, grade bei Hybrid Architekturen (X3D ist auch eine Art Hybrid Architektur). Hätte AMD sowas ähnliches in Hardware, wäre das X3D CCD Zuweisungsproblem deutlich einfacher zu handhaben. So muss AMD per Software zu neuen Spielen immer erst manuell den Support herstellen.
Arrow Lake bietet durchaus sehr ordentliche Leistung in Multicore Szenarien und trotzdem sind die CPUs waschechte Rohrkrepierer, weil in der Praxis die Performance unzuverlässig und weit unterhalb der Konkurrenz ist.
Hmm, ich hatte in der letzten Zeit nicht so unbedingt den Eindruck, daß die Schnittmenge aus Realität und Intels Marktanalyse besonders groß gewesen wäre.
Vorne ist AMD was die Gamingperformance angeht, bei Server CPU was die maximale Performance pro CPU angeht, aber dafür gibt es auch nur maximal 2 CPU pro Server, bei Intel sind es 8. Was den gesamten Markt angeht, so hat Intel insgesamt immer noch um die 75% Marktanteil bei x86 CPUs, hier ist Intel also immer noch weit vorne.gerade AMD hatte diese bereits mehr als einmal , und ist aktuell vorne.
Auch im Consumerbereich liegt Intels Marktanteil weit vor dem von AMD. Im Serversegment hat AMD sogar einen etwas größeren Marktanteil als insgesamt, aber der Unterschied ist auch nur wenige Prozentpunkte zwischen den verschiedenen Marktsegmenten. Nur in Segmenten an die die wenigstens hier im Forum denken, wie Embedded, Industrial und Military, hat Intel die Nase weit vorne, aber da sind die Zyklen eben auch sehr lang und AMD hatte lange nichts nennenswertes in den Segmenten anzubieten und ich weiß nicht einmal, was sie da heute anbieten.Hatte vergessen im Consumer Bereich hinzuzufügen.
Weil Intels Compiler eben die Software extrem gut optimiert und AMD dem nie etwas entgegen gesetzt hat, was ja nur AMDs und nicht Intels Schuld ist. Dieser Code läuft dann optimal auf Intels CPUs und das ist auch der Grund warum Intels CPUs immer noch bei Familie 6 ausgeben, denn nur bis dahin geht die Optimierung des Compilers, würde Intel da jemals auf 7 gehen, würde dieser alte Code langsamer laufen, weil er keinen Codepath hat, der für Intels 7. Familie optimiert wurde.die veraltete Anwendungen und Programmbibliotheken nutzen, die deutlich besser auf Intel performen.
Welchen Grund sollte Intel haben Aufwand zu treiben, damit sein Compiler den Code für CPUs anderer Hersteller optimiert? Erstens ist es deren Sache selbst einen Compiler zu entwickeln der den Code für ihre CPUs optimiert denn zweitens kennen nur diese, wie dies zu geschehen hat. Soll Intel etwa jemanden beschäftigen und bezahlen, damit er genau studiert wie die Cachegrößen und Befehlsfolgen für deren CPUs zu optimieren ist? Das kann niemand im Ernst erwarten oder gar verlangen!Intel hat aber aktiv dafür gesorgt, dass alternative Codepfade nicht genutzt wurden. Also ist es nicht nur eine „neutrale“ Compilerentscheidung.
Keine Ahnung wie es heute aussieht, aber vor einigen Jahren noch, hat mir jemand der damit direkt zu tun hat, ganz klar gesagt das die alle nicht an den Intel Compiler ran kommen, wenn man den Code dann auf einer Intel CPU ausführt. Deshalb wird der Intel Compiler so oft genutzt, obwohl er nicht umsonst zu haben ist, aber wenn die Software mit dem compiliert mal eben 10 oder 20% schneller läuft, lohnt sich das schon.Heute ist das besser geworden, auch durch Open Source Compiler wie LLVM/Clang und GCC, die neutraler optimieren.
Erstens musst du sie nicht zweitens ist es nicht meine Schuld, wenn du es anstrengend findest zu versuchen mich zu widerlegen.Holt ganz ehrlich, deine Beiträge sind, extrem freundlich ausgedrückt, anstrengend.
Weil die Leute von denen ich das haben, dafür bezahlt werden Software zu entwickeln und nicht ständig nur die jeweils neusten Versionen unterschiedlicher Compiler zu vergleichen. Dies darfst du aber gerne selbst machen, aber in den meisten Firmen macht man dies eben nicht immer mal wieder nach Lust und Laune. Selbst bin ich aus dem Thema nämlich schon eine Weile raus und programmiere heute kaum noch in C++ und wenn, dass ist das nicht so performancekritisch, als dass ich mir um die Optimierungen Gedanken mache.Beim letzten Absatz disqualifiziert du dich komplett selbst. Du kennst den aktuellen Stand nicht, äußert dich aber abschwächend („früher war das halt so“) über ein sehr relevantes Thema.
Dann vergleiche doch bitte selbst wie gut welcher Compiler für welche Architektur optimiert. Aber ich habe massive Zweifel an der Aussage, dass du da tief drin steckst.Wenn man wie ich jahrelang knietief in der Materie drin ist, die ganze Evolution miterlebt hat
Aber ich habe massive Zweifel an der Aussage, dass du da tief drin steckst.
Er kann ja nicht Wissen was ich beruflich mache oder was meine Qualifikation ist. Daher nehme ich das nicht so ernst im Internet.Hörensagen vs. Software-Entwickler, möchte mal wissen wie du das von der Hörensagen Warte aus bezweifeln können willst.
Als Human-LLM schwurbelt es sich eben besonders gut...Hörensagen vs. Software-Entwickler, möchte mal wissen wie du das von der Hörensagen Warte aus bezweifeln können willst.
So war es nur eben nicht. Intel hat Aufwand betrieben um seine Compiler und Libs für die Wettbewerber zu pessimieren. Also aktiv seine Marktmacht dazu benutzt um AMD keine gleichen Wettberwerbsbedingungen zu erlauben. Mir ist aber klar, dass du das alles weisst und aus Überzeugungen heraus anders wertest.Welchen Grund sollte Intel haben Aufwand zu treiben, damit sein Compiler den Code für CPUs anderer Hersteller optimiert? [...] Soll Intel etwa jemanden beschäftigen und bezahlen, damit er genau studiert wie die Cachegrößen und Befehlsfolgen für deren CPUs zu optimieren ist?
Ebensowenig weißt du, was ich studiert habe und beruflich mache. Ich habe nicht nur Hobby Programmierkenntnisse und Performance hat da bis vor einigen Jahren immer eine Rolle gespielt, nur schreibe ich nicht die dafür relevanten Codes, sondern den wo diese dann integriert werden und daher habe ich durchaus engen Kontakt mit den Leuten die diese schreiben. Aber egal, ich muss jemandem der nicht den Unterschied schon seriellen und parallelen Schnittstellen kennt, nichts beweisen. Aber auf meine IL!Er kann ja nicht Wissen was ich beruflich mache oder was meine Qualifikation ist.
Ich habe jahrelang auf AMD Opterons selbst übersetzte HPC-Software laufen lassen. Dazu gab es eine Auswahl an Compiler, GCC, Intel Compiler Suite, PGI, Pathscale, alten AMD Compiler (Open64 vollkommen unbrauchbar) …Intel hat nicht einfach nur "nicht für AMD optimiert", sondern in älteren ICC-Versionen aktiv vermieden, schnelleren Code auf AMD auszuführen – selbst wenn die CPU die benötigten Features unterstützt hat. Intel nutzte dabei CPU-Vendor-Checks, nicht Feature-Checks. Das ist kein technischer Zufall, sondern ein bewusstes Design. Das wurde in mehreren Kartellverfahren (u. a. FTC 2009) als wettbewerbswidrig bewertet.
Intel hat aktiv behindert, dass Software auf AMD effizient lief, indem es versteckte Codepfade nur Intel-CPUs zugänglich machte. Das ist mehr als einfach „nicht optimieren“, es ist eine technische Blockade.
AMDs Problem war viele Jahre, dass sie absoluten Schrott an Software abgeliefert haben. Der Open64 Compiler und die ACML HPC Library waren ein ganz übler Scherz.AMD hatte nicht die gleichen Marktchancen, weil weniger Einfluss auf Compiler-Ökosysteme, geringere finanzielle Ressourcen, weniger Einfluss auf Softwareanbieter, Benchmarks usw.