Intel baut sein GPU-Team erneut auf: Raja Koduri neuer Leiter

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.867
intel.jpg
Es ist eine aufreibende Woche für AMD und Intel. Am Montag kündigten beide Unternehmen eine Zusammenarbeit an, die als Core H in einem High-End-Mobilprozessor von Intel und einer dazugehörigen dedizierten GPU von AMD mündet. Kurs darauf kündigte Raja Koduri als Leiter der Radeon Technologies Group bei AMD seinen Rückzug an. Nun hat Intel offiziell bestätigt, was sich als Gerüchte...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wann fängt er denn an? es wird zeit n Produkt ankündigen...
 
Im Dezember soll er anfangen.
 
Vielleicht gibts bald 3 GPU Hersteller: NV (grün), AMD (rot) & Intel (blau) :d
 
Das wäre was, die Intel kodurion [emoji16]. Ne ernsthaft, das wäre für uns Verbraucher echt Klasse, wenn da ein Dritter Player am Start wäre.
 
Würde ich sehr gut finden. :)
 
Lach, der nächste Hersteller der nen Nvidia-Killer ankündigt und dann im Mittelfeld steckt, bei High-End-Strombedarf?

Ich glaube eher, das Intel die iGPs hier stärker machen will, um dort den LowEnd-Karten von AMD und Nvidia das leben schwer zu machen. am HighEnd-Segment hatten se ja eigentlich nie wirklich großes Interesse.
 
Das klingt hier aber anders:
In this position, Koduri will expand Intel’s leading position in integrated graphics for the PC market with high-end discrete graphics solutions for a broad range of computing segments.
 
Hmm, wundert mich aber, dass er das darf. AMD ist mit seinen CPUs direkter Intel-Konkurrent, und jetzt soll er bei Intel die GPU-Fertigung aufbauen und damit noch eine direkte Konkurrenzfront eröffnen ?

Erstaunlich, dass sein Vertrag das zulässt.
 
Solche Vetragsklauseln haben ein Kalifornien keine Gültigkeit. Weder thematisch noch zeitlich darf es Einschränkungen in den Verträgen geben.
 
Das klingt hier aber anders:

Rumgetönt haben se immer, realistisch hat man aber immer schnell gemerkt, das Intel das nicht wollte/konnte.

Wenn es wirklich am "Können" lag, mag sich dass nun etwas ändern, aber mal realistisch betrachtet, wozu für Gamer was entwickeln, dass ist ein viel zu kleiner Markt.
Wenn die wirklich GPUs herstellen wollen, reden die intern bestimmt von einer Gerneral-Processing-Unit. Im Prosumer/Profi Bereich kann ich mir Intel auch durchaus vorstellen, im High-End-Gaming-Bereich eher nicht.
 
Gefallen bei AMD und baut bei Intel GPU-Lösungen. :hmm: Bei Intel hat er ein größeres Budget zum Spielen.
 
Und er muss nicht besser sein, als die Vorgängergeneration, die gibts ja nicht :-P
 
Der bringt sicher n nettes Päckchen AMD Wissen mit das normal nicht erlaubt ist... Patente und so ;)
Vielleicht gibt es deshalb AMD GPUs mit Intel CPUs.

Wenns ganz blöd kommt sollten sich AMD und Nvidia zusammentun, selbst dann wären sie immernoch winzig im Vergleich zu Intel.

Dennoch bin ich froh, dass die Pfeife von AMD weggegangen ist, seine Produkte, bis auf Polaris, waren eher meh.
 
Zuletzt bearbeitet:
Herr Koduri hat bei AMD ja sehr viel versprochen, hoffentlich hält er sich bei Intel etwas mehr zurück, da er seine letzten Versprechungen nicht ansatzweise realisieren konnte.
 
Doch nur nicht im Gamingbereich.
Vega wurde von Anfang an auf Compute ausgelegt (man sehe sich die zahlreichen Präsentationen an), Gaming hatte wohl die geringste Priorität.
 
Da hast Du recht, und die Miner hat er auch glücklich gemacht.
 
jupp, wo steht denn aktuell eigentlich die MH/s Leistung für ETH? 43+?
 
Die Radeons leiden jetzt seit rund 3 Generationen darunter dass sie die Rohleistung die vorhanden ist, nicht gut genug in FPS umsetzen können :/
Da kann man nur hoffen dass sein Nachfolger endlich mal Schritte in die richtige Richtung leitet.
Was seine Rolle bei Intel angeht, gehe ich auch nicht davon aus dass Intel sich durch ihn oder sonst wie, an "echte Gamer" richten will.

Bei den IGPs/APUs ist es aber in der Tat sonderbar dass die Unternehmen Konkurenten und nun gleichzeitig Partner werden.
 
Zuletzt bearbeitet:
aber mal realistisch betrachtet, wozu für Gamer was entwickeln, dass ist ein viel zu kleiner Markt.

Die Geforce-Sparte legte von 687 auf 1.027 Millionen US-Dollar zu. Darin enthalten sind auch die Tegra-SoCs inklusive der Chips für die Nintendo Switch, weshalb Nvidia hier einen Sprung von 160 auf 332 Millionen US-Dollar vermeldet. Winzig der Markt.
 
Rechne mal den Tegra raus, und den GP-GPU-Markt.

Der Anteil, der wirklich im PC-Gaming landet ist deutlich kleiner.

Für GP-GPU sehe ich Intel ja. Und Mobile ist Intel auch schon gescheitert.
 
Was seine Rolle bei Intel angeht, gehe ich auch nicht davon aus dass Intel sich durch ihn oder sonst wie, an "echte Gamer" richten will.

Ich kann mir durchaus vorstellen, dass Intel das langfristig vielleicht plant. Allerdings glaube ich, dass Koduri überschätzt wird. Er hat als Leiter der Radeon Technologies Group eine super Arbeit geleistet und viele Dinge hervorragend umgesetzt. Allerdings gibt es keinen wirklichen Grund zur Annahme, dass er irgendwelche tollen Ideen zu Intel trägt, die AMD nicht vorher schon umgesetzt hat. Und - wenn ich meine persönliche Einschätzung geben darf, glaube ich auch nicht, dass er eigenständig so kreativ ist, bahnbrechende Technologien zu entwerfen. Intel hat einen höchst kompetenten Abteilungsleiter gewonnen, aber manche Dinge kann man sich nunmal nicht kaufen.
 
Allerdings glaube ich, dass Koduri überschätzt wird.

Wieso überschätzt!?
Er wurde vor nicht all zu langer Zeit (vor Vega Release) noch als der Jim Keller der GPUs gehypt...
Und das kam sicher nicht von der NV-Fanbase ;) Schon komisch, wie die Meinung auf einmal umschwenken kann.
Ich habs ja schon immer gesagt, die Produktentwicklung hängt nicht an einer Nase. Nicht an Keller und auch nicht an Koduri ;)

Rechne mal den Tegra raus, und den GP-GPU-Markt.

Welchen GPGPU willst du da rausrechnen!?
Das ist doch schon Gaming Markt. Nichts GPGPU.
Gesamt 2,65Mrd. Gaming 1,6Mrd. Datacenter 0,5Mrd, 0,25 auf die Quadros, automotive 0,1 irgendwas und der Rest ist wohl Kleinkram.

Rumgetönt haben se immer, realistisch hat man aber immer schnell gemerkt, das Intel das nicht wollte/konnte.

Die Xeon Phi ist an dir vorbei gegangen!?
Ja, nicht Gaming, das Projekt LRB wurde nichts... Aber was für den HPC Bereich raus kam ist nicht ganz ohne. Vor allem eben, weil es nicht wie ne AMD/NV GPU ist, sondern wie ein 0815 Prozessor... So ne Xeon Phi läuft auch als Hostprozessor, wenn man es will auf nem Xeon Board, sogar unter Windows...

So ne Knights Landing bzw. demnächst Knights Mill mit über 12TFlop/sec FP32 ist nicht wirklich langsamer (auf dem Papier) als Vega oder GP100. Ggü. GV100 schauts halt nicht so rosig aus.
 
Noch mal, ich bezog mich mit nicht wollen/können aufs Gaming, alles was Datacenter, HochPerformanceComputing, ... angeht, ist das was ganz anderes, aber auch andere Preislage.

Und das die Gaming-Karten-Umsätze hoch sind stimmt schon, aber auch Nvidias Karten werden außerhalb von Gaming-Anwendungen genutzt, und das nicht zu knapp.
 
Aber woran machst du das bitte fest!?
Die damaligen Spekulationen besagten, dass LRB hätte lange nicht in der Rohpower ggü. den damaligen NV/AMD GPUs mithalten können. ALU-Rohpower wohlgemerkt.
Heute ist das anders, die könnten, siehe FP32 Rohleistung für aktuelle Xeon Phis. Ob das mit dem Rest was werden würde (auch auf die Treiber bezogen) ist absolut nicht vorhersagbar, weil es dazu genau NULL Informationen gibt.

Zum zweiten, das macht aber keinen Unterschied. Die "Gaming" Sparte bezieht sich doch nicht nur auf Gaming, sondern auf diese Klasse von Produkten. Wofür die verwendet werden, ist völlig egal. Und die Verwendung dieser Modelle kommt ja nicht von ungefähr. Oder andersrum ausgedrückt, das was in Sachen Gaming wichtig ist, allen vorran eben FP32 Performance auf den ALUs, zieht auch in anderen Bereichen. Aber das ist für jede andere GPU Marke in gleichem Maße der Fall... Für den Hersteller ist es aber völlig egal. Warum also da irgendwas rausrechnen, wenn ein dritter Hersteller (Intel) mit fiktiven einem Produkt fürs Gaming technisch die gleichen anderen nicht Gamermärkte erreichen würde!? -> ergibt keinen Sinn.
 
Ich glaube wir reden aneinander vorbei.

Intel wird schlicht nicht die Gaming-Leistung als Ziel setzen, da der Markt dazu nicht nur n Chip braucht, sondern auch, wie du selbst sagst, Treiber.
Und genau da sehe ich den Punkt als allgemeinen.
Intel braucht neue Geschäftsfelder, aber welche wo Geld zu holen ist, keine wo man 7-10 Jahre Erfahrung aufholen muss.
 
Er wurde vor nicht all zu langer Zeit (vor Vega Release) noch als der Jim Keller der GPUs gehypt...
Das mag vielleicht so rüberkommen und wie bereits geschrieben, hat er seine Arbeit hervorragend gemacht, weil er Dinge ausgezeichnet umgesetzt hat. Aber meiner persönlichen Einschätzung nach ist er nicht derjenige, der die Innovationen selbst in Worte fasst. Da bin ich mir sehr sicher :)
Wie AMD diesen immensen Vorteil in der Yield-Rate erreicht hat, ist ja jetzt kein Geheimnis mehr und folglich wird uns das in Zukunft mehr und mehr begegnen. Auch Prozessoren mit IGP und HBM sind ab jetzt nicht mehr neu.
Die Ideen und kreativen Köpfe fliegen manchmal dem zu, der sie am meisten braucht, und das ist möglicherweise nicht Intel - ich erwarte deshalb nicht, dass sie durch Koduri zwangsläufig eine Lücke schließen, bevor AMD einen weiteren Vorteil erarbeiten kann. Denn den brauchen sie auch, da Intel schon den Vorteil an Ressourcen hat, folglich braucht AMD die besseren Ideen.
 
@Shadow
Das laß sich in #8 aber noch anders. Vom "Lach" beginnend bis zu dem Punkt, dass sie angeblich nie großes Interesse hätten... :wink:

LRB zur Folge hatten sie das nämlich schon, wurde aber nix, weil es eben nicht gereicht hat, heute könnte es, zumindest was die Rohleistung der ALUs angeht, aber reichen. Und es ist eben nicht so wirklich was anders ;) Über den Rest kann man wie oben erwähnt aber nur spekulieren. Selbst die Treiber sind nicht das riesen Problem. Und irgendwelche Erfahrung auch nicht. Siehe AMD, die haben Erfahrung ohne Ende, ähnlich lange wie NV und "packen es nicht". Auf der anderen Seite baut man "mal eben so" mit Zen nen Chip, der aus dem Stand fast Intel Niveau erreicht.
LRB hatte damals mehrere Probleme, von nicht genügend Rohpower über schlechte Effizienz für diese Rohpower bis hin zur Designentscheidung von einigen Sachen in Software anstatt in Hardware. Ob man das heute anders machen würde!? Ziemlich sicher. Mal schauen, vllt bringt Koduri ja Intel zu einem neuen Versuch. Wenn der erste Schritt einmal gemacht ist, abseits von ner IGP, warum nicht ausbauen!? Die Marktmacht hätten sie dazu definitiv.

In der Prozessorentwicklung brauch es "nur" die richtige Idee zur richtigen Zeit und das bisschen Kleingeld, es umzusetzen. Wenn man sich dabei verzettelt (Intel damals mit LRB oder auch AMD häufiger mit Nieschenprodukten oder falschen Einschätzungen zru Entwicklung) gehts halt nicht auf. Heist aber lange nicht, dass es immer so bleiben muss... Gerade der Part mit den neuen Geschäftsfeldern, Intel wird wohl über kurz oder lang umdisponieren. Das ist ein riesen Apparat von Firma, auch wenn sich rauskristalisiert, dass der Client-PC Markt so langsam aber sicher am Bodensatz angekommen ist und das Niveau hält.


Die Frage dabei lautet, für was braucht man Koduri, wenn nicht um eine eigene GPU zu bauen!?


@oooverclocker
ist mir persönlich viel zu oberflächlich...
HBM und IGP oder irgend ein MCM ist nicht die "Idee", die "Idee" ist die konkrete Umsetzung... Das was du beschreibst ist Marketing und sicher nicht Koduris Aufgabe, war es bei AMD nicht und wird es bei Intel nicht sein. Kellers Aufgabe bei AMD seinerzeit überigens auch nicht... Der stellt sich da nicht hin und sagt, "Hey, lass uns ne IGP mit HBM bauen" oder "Hey, wir machen MCM mit mehreren DIEs, das bringt Vorteile in der Fertigung"... Das kann jeder BWLer oder technisch begeisterte ebenso. Gerade in leitenden Positionen sollten diese Personen eigentlich dafür gar nicht direkt verantwortlich sein (außer eben um den Kopf hinzuhalten). Die konkreten Ideen kommen meist vom ausführenden Volk und der Leiter/Chef spinnt bestenfalls die Ideen noch zu einem großen Ganzen. (wenn überhaupt -> halte ich bei einem CPU oder GPU Design schon für ausgeschlossen, das als One Man Show zu bewerkstelligen)
Vor 30 Jahren, als ne Hand voll Typen in ner Garage neben dem Studium ganze Prozessoren entworfen oder ganze Betriebssysteme Zeile für Zeile programmiert haben, war das vllt mal so! Heute?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh