Intel Larabee hätte eine gute Grafikkarte werden können, wenn ...

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.220
<p><img src="/images/stories/logos-2015/intel3.jpg" alt="intel3" style="margin: 10px; float: left;" />Längst abgeschlossene Themen sollte man nicht zwingend wiedererwecken, im Falle von Larabee reden wir aber nicht von vollständig eingestellten Projekten, denn die Entwicklung hinter Larabee findet in den aktuellen Xeon-Phi-Beschleunigern weiterhin Verwendung. Nun hat Tom Forsyth seine Sicht hinter der Entwicklung und den Umständen der Einstellung der Ambitionen einer dedizierten Grafikkarte von Intel veröffentlicht. Forsyth war an Larabee im Core-Entwickler-Team beteiligt und arbeitet momentan bei Oculus.</p>
<p>Zunächst einmal will Tom Forsyth festhalten, dass die Entwicklung von Larabee in großer Erfolgt war, denn sie hat Intel die Situation gebracht, mit den aktuellen...<br /><br /><a href="/index.php/news/hardware/grafikkarten/40081-intel-larabee-haette-eine-gute-grafikkarte-werden-koennen-wenn.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich finde es durchaus schade, dass in dem Markt keinen dritten Player mehr gibt. Andererseits muss noch mehr Macht in Intels Hand auch nicht unbedingt sein. Wer weiß ob die anderen beiden einen Konkurrenzkampf durchstehen könnten, wenn Intel da wirklich mit Volldampf einsteigen würde. Der (Gesamt-)GPU-Marktanteil ist ja eh schon erdrückend, das muss ich nicht auch noch bei dedizierten GPUs haben.
 
Ich hätte nichts dagegen. AMD hat leider extrem nachgelassen, außer für Lowendlösungen und als Notfall-Gebrauchtkauf liefern die nichts mehr. Das Problem ist nur dass Nvidia jetzt mit seiner dreisten Abzocke durchkommt und dafür auch noch gefeiert wird. Kein Wunder, für kompromisslose Leistung und Energieeffizienz kommt man um Nvidia nicht herum, außer man ist bereit komplett auf Grafikbeschleuniger zu verzichten.

AMD wird sich mit dem Lowend- und Konsolenmarkt wohl noch eine Weile halten, den Rest hat Nvidia inzwischen vollständig eingenommen. Wenn Intel etwas auf Höhe des GP102 bringen würde mit besseren Treibern würde ich es eher kaufen - Vor allem wenn die Karte dann nach Release der nächsten Generation nach einem Jahr nicht als "Legacy" einsortiert wird und treibermäßig vernachlässigt wird.
 
eine 300€ karte ist für dich low-end? die 480 und drunter sind doch ganz gute karten. klar nvidia hat immer etwas die nase vorn, dafür gibts die von dir genannte abzocke frei haus.
was cpus angeht ist ja davon auszugehen, dass man mit zen auch wieder an intel rankommt. schaut man sie die pcu entwicklung bei intel der letzten jahre ist es ja eigentlich egal ob amd auf augenhöhe ist oder 10% langsamer, das ist ja nichtmehr so entscheidend. vor allem nachdem noch sehr viele auf die core 2xxx cpus setzen. unter dem aspket ist energieeffizienz irgendwie bei cpus auch nichtmehr so wichtig.

aber da ich ja auch schon etwas länger dabei bin sehe ich das alles mit anderen augen, gerade in den hardware foren wird viel palawert.

z.b. sind die 30w oder wieviel es sind, die eine 480 auf eine 1060 mehr verbraucht ne riesen nummer, die selben leute haben aber einen 2700k auf 4,5ghz laufen, der im vergleich zu nem skylake gute 50w mehr verbrät. mal abgesehen von dmi3, pcie3, m.2 usw. usf.
 
Ich hätte es auch durchaus interessant gefunden...

Die dreiste Abzocke, bei Nvidia sieht bei der 1060 wie aus? ;)

Die 1060 ist ein bisschen schneller als die RX480 und kostet auch nur minimal mehr...

Die Abzocke fängt weiter oben an.

Ich wünschte auch, es gäbe noch einen ernst zu nehmenden Mitspieler im GPU Markt, zu Nvidia und AMD.
 
@Topic
Interessant zu sehen daß es eigentlich möglich gewesen wäre da im GPU Sektor mitzumischen. Würde ich sehr gerne sehen so einen Prototypen in Aktion vs. den damaligen High End nVidia und AMD (ATI) Größen. Wenn man sich die Xeon Phi so ansieht wäre jedoch die Frage gewesen ob die Karten damals in vertretbaren preislichen Rahmen zu verkaufen gewesen wären. Mit passender RAM Ausstattung und in Massenfertigung denke ich jedoch schon.

@BrahmandYaatra
In Sachen AMD übertreibst Du wohl etwas. Ja klar - im Moment haben sie nichts im High End GPU Bereich (genau so wie im CPU Bereich schon seit einigen Jahren), aber da soll ja noch was kommen (in beiden Bereichen). Mit Abzocke gebe ich Dir im Falle der 1080 und teils auch 1070 bzw. im Speziellen mit der Founders Edition (= Referenz Design, egal wie die das nennen) recht. Mittlerweile zahlt man für mehr Leistung auch mehr Geld, und damit meine ich nicht nur den USD<->EUR Kurs.

Ein oder mehrere Mitspieler im GPU Markt wären bestimmt nicht schlecht. Ebenso im x86 CPU Markt. Ich stamme ja auch noch aus einer Zeit wo es als ich an PCs herumzuschrauben begann noch unzählige Grafikchiphersteller und auch noch einige CPU Hersteller gab. Auch die Grafikkarten an sich waren von Hersteller zu Hersteller oft komplett verschieden aufgebaut/ausgestattet. Mit den später eingeläuteten 3D Grafikbeschleuniger Karten wurde der Markt stark gesiebt, trotzdem gab es noch Unmengen an unterschiedlichen Karten und Chips die teils sehr unterschiedliche Funktionen und Bilddarstellung (im 3D Bereich) hatten. Seit vielen Jahren sehen Spiele auf AMD und nVidia Karten sowie Intel iGPUs so gut wie gleich aus. Damals gab es riesen Unterschiede (z.B. 3DFX Voodoo Graphics vs Matrox Mystique vs S3 Virge vs Rendition Verite vs 3DLabs Permedia vs ATI Rage3D vs nVidia Riva128 vs Intel 740 usw. usw.). Ähnlich wie früher die Soundwiedergabe auf den unterschiedlichsten Soundkarten teils komplett anders war (Adlib vs. Soundblaster vs. ProAudio Spectrum vs. Gravis Ultrasound vs. Roland MT32/LAPC-1 vs. General MIDI usw.)

Mal sehen, vielleicht wagt sich Intel vielleicht doch noch irgendwann mal wieder in den dGPU Markt.
 
@Topic
Mal sehen, vielleicht wagt sich Intel vielleicht doch noch irgendwann mal wieder in den dGPU Markt.

Glaube ich nicht. Wenn sich das abzeichnet werden weder AMD noch Nvidia irgendwelche GPU IP Lizenzen an Intel vergeben und dann können sie dort nichts bauen. Zu vieles von dem was da notwendig ist, ist bereits patentiert. Zudem ist es für den Markt langfristig auch nicht hilfreich. Intel ist eh schon zu groß. Da wäre es viel sinnvoller endlich mal x86 für jedermann nach dem FRAND Prinzip aufzumachen, damit die mehr unter Druck machen. Und wenn das nicht passiert, dann müssen eben alle anderen mit jedem Jahr ARM einfach mehr puschen.
 
AMD wird sich mit dem Lowend- und Konsolenmarkt wohl noch eine Weile halten, den Rest hat Nvidia inzwischen vollständig eingenommen.

Ja, AMD wird sich wohl nicht mehr lange halten können. Sind schon fast am Ende und ein Licht am Horizont gibt es auch nicht mehr. :rolleyes:
https://www.computerbase.de/2016-08/amd-grafikkarten-marktanteil/

Das wird sicher selbst auch Polaris nicht mehr retten können, welcher noch gar nicht in diesem Quartal mit einbezogen wurde.

Wenn Intel etwas auf Höhe des GP102 bringen würde mit besseren Treibern würde ich es eher kaufen - Vor allem wenn die Karte dann nach Release der nächsten Generation nach einem Jahr nicht als "Legacy" einsortiert wird und treibermäßig vernachlässigt wird.

Also für mich ist Intel ein absoluter Notlauf, wenn ich mal meine Karte wechseln muss. Vor allem deren Treiber sind absolute Grütze ! Wer über AMDs-Treiber meckert, hat noch keinen Intel-Treiber erlebt. Es hat schon seinen Grund warum selbst Intel da nicht so einfach mit einsteigen kann.
 
Zuletzt bearbeitet:
Ich hätte nichts dagegen. AMD hat leider extrem nachgelassen, außer für Lowendlösungen und als Notfall-Gebrauchtkauf liefern die nichts mehr. Das Problem ist nur dass Nvidia jetzt mit seiner dreisten Abzocke durchkommt und dafür auch noch gefeiert wird. Kein Wunder, für kompromisslose Leistung und Energieeffizienz kommt man um Nvidia nicht herum, außer man ist bereit komplett auf Grafikbeschleuniger zu verzichten.

Völliger Unsinn. Wieso schaffst du es irgendwie alle Nase lang, sich mit solchem Pauschalen Mist hier in den Diskusionen zu platzieren!?
Vega ist angekündigt und wird mindestens mal mithalten können. Auf welches Modell (1080 oder TitanX), ist noch offen und wohin die Reise geht.
Aber LowEnd only bei AMD ist irgendwie was anderes... :rolleyes:

AMD wird sich mit dem Lowend- und Konsolenmarkt wohl noch eine Weile halten, den Rest hat Nvidia inzwischen vollständig eingenommen. Wenn Intel etwas auf Höhe des GP102 bringen würde mit besseren Treibern würde ich es eher kaufen - Vor allem wenn die Karte dann nach Release der nächsten Generation nach einem Jahr nicht als "Legacy" einsortiert wird und treibermäßig vernachlässigt wird.

Auch das ist quark. Bei dir ist irgendwie alles "Legacy", was deine eigene Fehlentscheidung zwischen Monitorwahl und GPU Wahl nicht befriedigen kann habe ich so das Gefühl... Nochmal für dich zum Mitschreiben, was gibt Hardwaretechnische Gründe, WARUM Kepler nicht so fix ist wie Maxwell. Und es gibt effektiv sogut wie keine Gründe, warum Pascal deutlich besser sein soll als Maxwell (wenn man den GP100 außen vor nimmt)
Wohin die Reise bei NV also gehen wird, ist völlig offen und wird sich zeigen müssen.

z.b. sind die 30w oder wieviel es sind, die eine 480 auf eine 1060 mehr verbraucht ne riesen nummer, die selben leute haben aber einen 2700k auf 4,5ghz laufen, der im vergleich zu nem skylake gute 50w mehr verbrät. mal abgesehen von dmi3, pcie3, m.2 usw. usf.

Es geht und ging bei dem Verbrauchsargument doch NIE um den absoluten Verbrauch, nichtmal um die Relation. Sondern viel eher um die Kühlung... Kühle 120W weg oder kühle 160W weg, das ist ein ziemlich deutlicher Unterschied.
Das gleiche gilt für all die anderen Verbrauchsargumentationen -> und dort wirds es noch deutlich schlimmer.
Wenn du schonmal eine Fermi GK110 GPU, am Besten mit OC und OV im PC hattest, weist du WARUM der Verbrauch nicht primär ein Thema des Geldes durch Leistungsaufnahme ist, sondern eher der Kühlung ;)

Glaube ich nicht. Wenn sich das abzeichnet werden weder AMD noch Nvidia irgendwelche GPU IP Lizenzen an Intel vergeben und dann können sie dort nichts bauen.

Intel baut schon GPUs, nur nicht dGPUs... Was für Lizenzen sollen das sein?

Das Problem von LRB ist, wie man auch im Artikel nachlesen kann eher ein ganz anderes gewesen. Nämlich das man die Eierlegende Wollmilchsau mit Softwarerendering auf einer PCIe Beschleunigerkarte bringen wollte... Das geht nunmal nicht auf.
Der aktuelle Ansatz im Mainstream mit bspw. der Skylake GT4(e) ist ein Stück weit anders als NV und AMD, aber sooo anders auch wieder nicht.
Dieser Part würde sich technisch auch skalieren lassen, gepaart mit einem dedizierten Speicherinterface und dedizierter PCIe Anbindung... Das KnowHow dafür hätte Intel. Im Moment scheint eher aber gar kein Interesse dafür da zu sein. Zumal, welche Märkte sollen die damit bedienen?? Das Treiberthema schwebt schon über den IGPs. Und Intel kommt nur kläckerweise vorran.
Anders im Profibereich... Da geht es deutlich größere Gelder und entsprechend lassen sich auch mal ein paar Entwickler abstellen um dedizierte Probleme lösen zu können.

Interessant dabei dürfte eher werden ob Intel nicht irgendwann die Puste ausgehen wird. Nämlich wenn bspw. der Fertigungsvorteil vielleicht irgendwann verpuffen wird... Die aktuellen Xeon Phi Modelle sind in der absoluten Performance und der Effizienz im Moment dem P100 unterlegen von NV. Bieten dafür aber durch den Softwareansatz eben ggf. deutlich bessere/einfachere/weitreichendere Möglichkeiten. Auch interessant ist, dass die Teile alleine laufen können, sprich ohne dedizierten Server, wo man die Dinger rein steckt.

@Topic
Interessant zu sehen daß es eigentlich möglich gewesen wäre da im GPU Sektor mitzumischen. Würde ich sehr gerne sehen so einen Prototypen in Aktion vs. den damaligen High End nVidia und AMD (ATI) Größen. Wenn man sich die Xeon Phi so ansieht wäre jedoch die Frage gewesen ob die Karten damals in vertretbaren preislichen Rahmen zu verkaufen gewesen wären. Mit passender RAM Ausstattung und in Massenfertigung denke ich jedoch schon.

Ich würde nicht zu viel Wert auf die Aussagen zur Einordnung und der Machbarkeit geben... Wenn ich das recht in Erinnerung habe, so krankte LRB für GPUs ein Stück weit gerade unter dem Softwareansatz. Die Effizienz war damals schon recht mau und von der absoluten Rohleistung ggü. den damaligen NV/AMD Modellen war man auch nicht soooo exorbitant gut aufgestellt. Das war die Zeit RV770/G200(b). Ich glaube LRB hatte den 45nm Ansatz bei der Fertigung und erreichte damit in etwa das Leistungsniveau der genannten AMD/NV GPUs (die auf 65/55nm basieren). Das war ~2009 rum...
Das Teil hätte im ersten Ansatz wohl nicht für ein HighEnd Modell gereicht, vom Verbrauch (Effizienz) diese Stellung aber eingenommen...

Vorteil dieser/einer solchen Lösung ist aber ganz klar, in Software kann man effektiv alles machen. Das hätte eine Karte sein können, die auch mit damaliger Hardware DX12 und Vulcan ohne zu mucken abfedern hätte können. (sofern man das gewollt hätte)

Und selbst heute, die aktuellen Xeon Phi Dinger mit Intels aktuellem 14nm Prozess (der immernoch kleiner als GloFo und TSMC mit ihren Prozessen 14/16nm ist, wenn ich das richtig sehe), packt von der absoluten GFLop/s Performance in Sachen Rohleistung den P100 von NV nicht. Selbst ggü. dem GP102 in der TitanX sieht es eher mau aus, zumindest in FP32... Zwischen der großen 7290er Xeon Phi und dem P100 von NV liegen 245W vs. 250W TDP...
 
Gibt es eigentlich Daniel Pohl noch :d ansonsten das übliche: hätte hätte Fahradkette.
 
"Zunächst einmal will Tom Forsyth festhalten, dass die Entwicklung von Larabee in großer Erfolgt war" - das spricht jetzt nicht gerade für eine objektive Meinung. Ich kann mich nicht mehr so genau erinnern, aber wenn ich mich nicht täusche konnten die vorher getätigten Aussagen zur Leistungsfähigkeit einfach nicht gehalten werden. In der Praxis war larrabee absolut nichts besonderes und Intel hat daher von einem Release abgesehen.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh