Ein erster Blick: DG1 Software Development Vehicle zeigt sich

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
intel-dg1-sdv.jpg
Auf der Keynote der CES 2020 gab Intel einen Ausblick auf die erste diskrete GPU auf Basis der Xe-Architektur. Die DG1 (Discret Graphics) getaufte erste Version soll mit den neuen Tiger-Lake-Prozessoren in Notebooks verwendet werden. Auf der CES gab es einen Prototypen zu sehen, der in einem Plexiglasgehäuse steckt. Gezeigt wird hier die Leistung der GPU mittels Destiny 2 in 1080p bei niedrigen Details. Technische Daten zur DG1 wollte Intel aber noch nicht verraten.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die LED Beleuchtung an nem Entwicklerkit ist echt an Unsinnigkeit kaum zu überbieten.
 
"Hinsichtlich der Leistung von DG1 spricht Intel von einer Verdopplung gegenüber der Gen11-GPU in den aktuellen Ice-Lake-Prozessoren"

Das ist aber toll.....doppelt so viel von fast keiner Leistung. Aber immerhin geht es in die richtige Richtung. Würd mich ja grundsätzlich freuen, wenn mal blau mal eine echte Alternative zu rot und grün werden würde im GPU Bereich. Aber bis dahin werden wohl noch ein paar Jahre ins Land ziehen
 
Wenn ich daran denke was man AMD immer vorwirft finde ich die Leistung mager....
 
Naja, man muss aber auch sehen, dass Intel hier von Null anfängt. Sicherlich haben viele gehofft, dass Intel hier direkt voll einsteigen kann, aber so einfach ist das eben nicht. Xe-LP ist eben auf Low Power optimiert. 1080p-Gaming dürfte hier das Ziel sein. Was bei Xe-HP herauskommt, wird man nun abwarten müssen. Das ist aber eben auch eine andere Baustelle.
 
dann ist das ding quasi jetzt auf dem level meiner iris pro igp im 5675c, der jetzt wie alt ist...? wahnsinns leistung von intel :d
 
Das was die Intel Beschäftigten da geschaffen haben ist echt nicht zu unterschätzen ...
Die Sache mit der oneAPI ist deren Fundament.
Dazu sogar ja bereits eine neue Programmiersprache entwickelt https://www.developer-tech.com/news...ches-new-c-based-language-part-one-api-plans/
Wenn man (noch) nicht leistungsmäßig mithalten kann (Xe-LP. Xe-HP, Xe-HPC) dann schafft man halt die Standards und überzeugt alle Hersteller, Entwickler und Anbieter ins Boot zu steigen.
Super Support wird quasi immer gegeben und die erwartete Leistung gibt es halt einige Jahre später.
Habe keine Zweifel dass Intel Produkte in 2 - 4 Jahre ganz weit vorne mitspielen.
 
Naja, man muss aber auch sehen, dass Intel hier von Null anfängt. Sicherlich haben viele gehofft, dass Intel hier direkt voll einsteigen kann, aber so einfach ist das eben nicht. Xe-LP ist eben auf Low Power optimiert. 1080p-Gaming dürfte hier das Ziel sein. Was bei Xe-HP herauskommt, wird man nun abwarten müssen. Das ist aber eben auch eine andere Baustelle.
Sollte Intel, wie du schon sagtest, Tatsächlich die Eierlegende Wollmilchsau erschaffen dann Respekt. Man sieht gerade anhand von vielen fähigen Ingenieuren, dass es bei DG1 am Ende vermutlich wieder am Treiber liegen wird. Aber das ganze Konzept klingt mir zu sehr nach Larrabee oder GCN..
Wenn Intels DG1 Tatsache nachher RX5600XT leistung schafft, bei AMD ähnlicher Effizienz, wäre das mehr wie ein Achtungserfolg..

Und wenn Intel einen Softwaresupport wie NV schafft, dann haben wir in ein paar Jahren ne echte Konkurrenz zu Grün
 
Interessant wird die Effizienz bei der Karte, also wie die Gen12LP Architektur im Vergleich mit Nvidia und AMD dasteht bei ähnlichem Stromverbrauch. Dass 96 EUs nur low bis midrange abdecken kann, ist ja klar. Erst die DG2 komt mit Gen12HP wo dann sicherlich viel mehr Recheneinheiten verbaut werden.

Die Leistungsverdoppelung bezieht sich übrigens auf Tigerlake GT2 zur Icelake GT2. Ein dedizierte Gen12LP mit eigenem Speicher und power Budget sollte sich von Tigerlake GT2 schon absetzen können.
 
Wenn man (noch) nicht leistungsmäßig mithalten kann (Xe-LP. Xe-HP, Xe-HPC) dann schafft man halt die Standards und überzeugt alle Hersteller, Entwickler und Anbieter ins Boot zu steigen.
Naja, ich glaube, es wäre sinnvoller sich an bereits bestehende Standards zu hängen, wenn man noch nicht mithalten kann. Wenn man alles neu macht, aber hinter der Konkurrenz ist, warum sollten Entwickler dann in's Boot kommen. Die müssten sich erst einarbeiten und ihre Arbeit hätte dann nur Nachteile gegenüber der Konkurrenz. Da wäre es geschickter, wenn der Einarbeitungsaufwand für den Entwickler weg fällt, indem man z.B. auf einen bereits existierenden Standard setzt und den später dann erweitert (wenn man Konkurrenzfähig ist).
Wenn Intels DG1 Tatsache nachher RX5600XT leistung schafft, bei AMD ähnlicher Effizienz, wäre das mehr wie ein Achtungserfolg..
Ich glaube, Intel ziehlt hier maximal auf eine 1650 oder RX5500. Das wird wohl ein Ersatz für die einsteiger dGPUs in Notebooks, also für RX540 und MX250. Wenn Intel mit denen in allen Bereichen mithalten kann, ist man schon auf einem sehr guten Weg. Mehr würde ich für den ersten Wurf mal nicht erwarten.
 
Naja, ich glaube, es wäre sinnvoller sich an bereits bestehende Standards zu hängen, wenn man noch nicht mithalten kann. Wenn man alles neu macht, aber hinter der Konkurrenz ist, warum sollten Entwickler dann in's Boot kommen. Die müssten sich erst einarbeiten und ihre Arbeit hätte dann nur Nachteile gegenüber der Konkurrenz. Da wäre es geschickter, wenn der Einarbeitungsaufwand für den Entwickler weg fällt, indem man z.B. auf einen bereits existierenden Standard setzt und den später dann erweitert (wenn man Konkurrenzfähig ist).

Das was Intel zunächst einmal braucht, ist eine gemeinsame Plattform für die eigenen Hardware. Prozessoren, FPGAs, ASICs und eben dann die GPGPUs müssen unter einem Dach angesprochen werden können. Mit der Marktmacht, die Intel da schon hat, wird man sich damit auch durchsetzen können. Den Quasi-Standard in dem Bereich gibt es ja nicht, allenfalls CUDA und da hat NVIDIA Jahre dran gearbeitet um im GPGPU-Segment so weit zu kommen, wie man heute ist. Das hat schon dazu geführt, dass Hersteller wie AMD und Intel Schnittstellen entworfen haben, die in CUDA übersetzen.

Aber man hat derzeit das Gefühl, dass bei NVIDIA im Datacenter etwas die Luft raus ist. Sicherlich, bei den Hyperscalern ist man noch immer dabei, aber viele haben inzwischen ihre eigenen AI-Beschleuniger und beim HPC-Geschäft spielt nun eben auch Intel eine große Rolle – schon alleine durch die erweiterten Befehlssätze. AMD versucht da auch irgendwie einen Fuß in die Tür zu bekommen, aber wie schwierig das ist, sieht man ja.
 
Mal was anderes, weiß man an welcher Architektur Raja Koduri bei AMD gearbeitet hat?
und wann diese auf den Markt kommt?
weil dann könnte man abschätzen wie lange es noch bei Intel dauern wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh