Intels Larrabee kommt nicht vor 2010

Wenzula

Neuling
Thread Starter
Mitglied seit
19.09.2005
Beiträge
118
<p><img style="margin: 10px; float: left;" alt="intel-leapahead" src="images/stories/logos/intel-leapahead.gif" width="100" height="100" />Die Spekulationen um Intels ehrgeiziges Grafikprojekt namens <a href="index.php/news/hardware/prozessoren/11759-idf-8-kerne-32-nm-und-larrabee.html">Larrabee</a> wollen nicht abreißen. Dieses Mal heizt aber nicht etwa die Gerüchteküche das Feuer an, sondern Intel selbst plauderte ein wenig aus dem Nähkästchen. Am Rande der Eröffnung von Intels „Visual Computing Institute“ an der Universität Saarbrücken <a href="http://www.heise.de/newsticker/Intel-Many-Core-Prozessor-Larrabee-kommt-erst-2010--/meldung/137820">erklärte </a>Joseph D. Schutz - seinerseits Leiter der Mikroprozessorforschung bei Intel -, dass die ersten...<p><a href="/index.php?option=com_content&view=article&id=12084&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann müssen die probleme aber noch gewaltig sein wenn man an die 9 monate fürs debugging benötigt
 
Zuletzt bearbeitet:
Dann müssen die probleme aber noch gewaltig sein wenn man an die 9 monate fürs debugging benötigt

das debugging ist mit das aufwendigste ;) Das wird bei hardware ähnlich der Programmierung sein.
Wenn man sich die Kurve anschaut %/zeit dann wird man feststellen das sie degressiv ansteigt: erst schnell und zum schluß immer langsamer
 
das debugging ist mit das aufwendigste ;) Das wird bei hardware ähnlich der Programmierung sein.
Wenn man sich die Kurve anschaut %/zeit dann wird man feststellen das sie degressiv ansteigt: erst schnell und zum schluß immer langsamer

Sicherlich ist das debugging aufwendig,das bestreitet auch niemand:d

Nur angesichts der langen entwicklungszeit die der larrabee schon hinter sich gebracht hat,sind jetzt nochmal weitere ca 9 monate ein ganz schöner brocken.

Man sollte auch bedenken das amd/ati u nvidia auch nicht schlafen werden auf dem sektor in der weiterentwicklung ihrer chips;)

Die grosse frage ist reicht der larrabee chip dann nächstes jahr noch aus um im grafikkartensektor wirklich einzuschlagen wie ne bombe u marktanteile zu gewinnen:wink:

Oder wird es doch eher ein rohrkrepierer,weil die entwicklung zu lange dauerte
 
Zuletzt bearbeitet:
Ja das ist die Frage, aber ich denke nicht das es reichen wird, klar Intel hat sicherlich erfahrungen auf dem Grakamarkt, aber gegen ein Unternehmen wie ATI oder/und NVIDIA wird es schwer sein ein Geschütz aufzufahren, dass mindestens gleichschnell ist und selbst dann wird Intel absatzschwierigkeiten bekommen behaupte ich.
 
Ja das ist die Frage, aber ich denke nicht das es reichen wird, klar Intel hat sicherlich erfahrungen auf dem Grakamarkt, aber gegen ein Unternehmen wie ATI oder/und NVIDIA wird es schwer sein ein Geschütz aufzufahren, dass mindestens gleichschnell ist und selbst dann wird Intel absatzschwierigkeiten bekommen behaupte ich.

Jepp so sehe ich das auch imo:p
 
Schade das es sich verzögert ich habe mir einen Start in diesem Jahr noch gewünscht.
 
Ja das ist die Frage, aber ich denke nicht das es reichen wird, klar Intel hat sicherlich erfahrungen auf dem Grakamarkt, aber gegen ein Unternehmen wie ATI oder/und NVIDIA wird es schwer sein ein Geschütz aufzufahren, dass mindestens gleichschnell ist und selbst dann wird Intel absatzschwierigkeiten bekommen behaupte ich.


Das ding kann auch Doppelt so schenll sein wie ein GT300 Chip, wenn die Treiber so Müllig sind wie die mom Intel Graka Treiber, wirds keiner wollen !
 
japps unter umständen kann das sein, aber habe selber noch nichts schlechtes von den Intel treibern gehört(notebookbereich)
 
ja klar sind ja auch onboard grafikarten ;) Und komplett untauglich sind die auch nicht. Ältere games flutschen darauf auch :) und sacred 2 z.b. ist ein game das auf den 950er(meine ich) optimiert wurde und darauf echt beachtlich gut läuft, dafür das es eine onboard graka ist
 
Dann müssen die probleme aber noch gewaltig sein wenn man an die 9 monate fürs debugging benötigt

Man muss hier ein wenig differenzieren, Larrabee baut im Grunde mehr oder weniger Komplett auf Software auf, und hier liegt der Springende Punkt, performt die Software nicht richtig, wird die Ineffiziente Lösung noch ineffizienter, von Bugs und anderen Problemen mal ganz abgesehen ;)
Sprich wir sollte Intel wirklich die Zeit lassen, die sie brauchen...
Quasi das was bei AMD/NV vorher alles berücksichtigt wird, muss bei Intel im Nachhinein einfließen, wenn bei AMD/NV die GPUs und das Design der Karte fertig ist, muss nur noch getestet werden und ein Treiber her.
Bei Larrabee hingegen muss der "blöden" Hardware aber noch beigebracht werden, was sie zu tun hat... und das möglichst Fehlerfrei und so performant, wie es so eine Softwarelösung zulässt...

Ich gehe selbst nicht wirklich davon aus, das Intel mit dem Produkt im HighEnd 3D Gaming Bereich ankommen wird, aber vllt im Mittelklassebereich und im produktiv/profi Bereich könnte so eine Lösung durchaus gut ankommen, wenn der Preis stimmt...
 
Ich gehe selbst nicht wirklich davon aus, das Intel mit dem Produkt im HighEnd 3D Gaming Bereich ankommen wird, aber vllt im Mittelklassebereich und im produktiv/profi Bereich könnte so eine Lösung durchaus gut ankommen, wenn der Preis stimmt...

Ich denke für den Markt könnte der Chip an sich zu groß werden und somit zu teuer. Aber da es auch dort bisher nur vermutungen gibt die auf den Wafer beruhen, naja, abwarten.
 
Das schon, aber wie war es denn in der Vergangenheit, es gab doch immer mal wieder hier und da Produkte, welche versuchten im HighEnd Bereich anzukommen, Duo V8 zum Beispiel usw.
Das ganze wird sich dann über den Preis regeln...
Und ein nächster Punkt ist, das Intel ja bei so einer Lösung bedenkenlos und quasi unproblematisch einfach weitere Recheneinheiten "anpappen" kann, ohne größere Schwierigkeiten. Denke mal wenns net langt, wird einfach der Takt hoch gedreht oder es kommen weitere Recheneinheiten dran...

Vllt will Intel mit der ersten Serie auch erstmal anfühlen, wie sich der GPU Markt in den Bereichen so anfühlt? Und benutzt das Produkt quasi als Grundstein für die nächste/übernächste usw. Generation. Ich denke da an den R600 (riesen GPU, viel Verbrauch, kein absolutes HighEnd, zu lange Entwicklungszeit) aber Grundstein für das was heute da ist (ohne den R600 und die Erfahrungen von der GPU würde AMD nicht da stehen, wo sie heute stehen)
 
Naja, von 0 auf 100 zu starten mit einem neuen Konzept ist nunmal nicht ganz einfach.

Angepappte Recheneinheiten machen den chip dann aber noch größer und noch teurer, nicht unbedingt nen Vorteil. Die Taktraten...naja, hier wird ja von 3 GHz gesprochen, aber wesentlich mehr denke ich da nicht. Ich glaube nicht das Intel sofort die Takte ihrer CPUs oder darüber fahren kann. Westmere sollte ja im selben Zeitraum mit bis zu 4GHz kommen.
 
Neja das nicht, aber wenn man sieht, wie viel Kapazitäten Intel hat, kommt es da nicht unbedingt auf die reine Größe der Recheneinheit am Ende an.
Ob das Teil nun etwas größer oder kleiner wird, sind am Ende nur Peanuts...

Viel interessanter wäre der Stromverbrauch von so einem Teil...

Zum Takt habe ich letztens was von um die 2GHz gelesen.
 
Kommt halt drauf an wieviele Recheneinheiten angepappt werden. Ursprünglich sollten es wohl mal 16 werden. Scheinbar sinds aber jetzt schon 32 geworden. In wie weit man da weiter und nach welcher Richtlinie nach oben skalieren kann weiß ich nicht, evtl wäre der nächste Schritt aber schon 64.
 
Könnte gut sein...
Eventuell werden das auch nicht alle Recheneinheiten in einem DIE?
Ich denke mal bei der Intel Lösung ist es technisch viel einfacher machbar mehrere DIEs auf einem PCB unter zu bringen...
Eventuell werden die Karten auch erst mit mindestens 2-3 Stück HighEnd Konkurenzfähig?

Ich denke mal das bleibt alles abzuwarten, wir sind ja hier wieder an einem Punkt, wo keiner irgendwelche Erfahrungen mit der Architektur hat und die Daten auf dem Papier unter Umständen beeindruckend klingen könnten... (Man siehe auf R600)
 
Ich weiß nicht ob da mehrer Dies so gut skalieren, da sie ja dann jeweils wieder einen eigenen Ringbus brauchen die sich dann auch noch untereinander abstimmen müssen.
 
Könnte gut sein...
Eventuell werden das auch nicht alle Recheneinheiten in einem DIE?
Ich denke mal bei der Intel Lösung ist es technisch viel einfacher machbar mehrere DIEs auf einem PCB unter zu bringen...
Eventuell werden die Karten auch erst mit mindestens 2-3 Stück HighEnd Konkurenzfähig?

Ich denke mal das bleibt alles abzuwarten, wir sind ja hier wieder an einem Punkt, wo keiner irgendwelche Erfahrungen mit der Architektur hat und die Daten auf dem Papier unter Umständen beeindruckend klingen könnten... (Man siehe auf R600)

Genauso sehe ich das auch. Intel wird vermutlich erstmal versuchen in diesem Markt Fuß zu fassen. Nachdem mehr Erfahrung gesammelt wurde, wird es sicherlich aufgemotze Versionen mit etlichen DIEs auf einem oder sogar 2 PCBs geben.

Meiner Meinung nach Steckt das Thema Larabee noch in den Kinderschuhen und muss sich erstmal im Grafiksektor etablieren. Mit der Zeit wird man sehen wie die Entwickler und im Endeffekt die Kunden es aufnehmen.
 
THG schreibt, dass Larrabee angeblich sogar bis nach 2011 verschoben wurde.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh