Zu erwartende Ergebnisse: Die ASUS DG1 Iris Xe im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.965
intel-iris-xe.jpg
Anfang des Jahres stellte Intel eine dedizierte Grafiklösung auf Basis der Xe-LP-Architektur vor. Die DG1 verwendet dabei 80 Execution Units, die einen maximalen Takt von 1.500 MHz erreichen. Der GPU zur Seite stehen 4 GB an LPDDR4X, der mit 2.133 MHz läuft. Der Speicher ist über ein 128 Bit breites Speicherinterface angebunden und kommt auf eine Speicherbandbreite von 68 GB/s.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Langsam wird es spannend, hoffe die Xe-HPG kann das halten was sie verspricht. Nach dem Larrabee Fiasko bin ich verhalten optimistisch.
 
Das einzige Einsatzgebiet sehe ich da bei Media PCs.. evtl. sehr gutes deinterlacing / gutes Hardware En / Decoding... hab hierzu leider noch nix zu den XE gelesen oder gesucht ^^.
Bei Spielen ist es zuviel Treiber Sache und selbst da hat man gesehn wie schwer sich AMD über die Jahre getan hat anfangs gescheit Supportet zu werden bzw. bei der Entwicklung überhaupt mit einbezogen wurde so dass es beim Release halbwegs lief.
 
Bei Spielen ist es zuviel Treiber Sache und selbst da hat man gesehn wie schwer sich AMD über die Jahre getan hat anfangs gescheit Supportet zu werden bzw. bei der Entwicklung überhaupt mit einbezogen wurde so dass es beim Release halbwegs lief.
AMDs Problem waren damals aber ganz eindeutig die eigenen Finanzen.
Es kostet schlicht einiges an Geld, wenn man in einer Weise wie NVidia bei den Spieleentwicklungen mitwirken will. Dieses Geld war bei AMD aber einfach nicht vorhanden.

Intel hingegen hat das Geld, aber ihnen fehlt noch ein Stück weit das KnowHow in Sachen Gaming Treiber. Leztlich wird es aber schon werden, sofern bei Intel nicht nur kurzsichtige BWLer Schnösel rumlaufen, sondern auch Leute mit Grips und Visionen.
Von Heute auf Morgen wird man nicht groß ins Grafikkartengeschäft einsteigen können. Das dauert eine Weile. Da muss man dann eben dran bleiben und nicht schon nach der ersten Kartengeneration, die sich wohl eher mäßig verkaufen wird, gleich wieder aufgeben.
 
Soll Intel die schwachen und sinnlosen AMD und NV Desktopkarten ablösen, dann sind genug Ressourcen von Erden für gescheite Karten seitens AMD/NV da 😜
 
Klingt gut soweit. Ich finde der niedrigpreis Sektor solte mehr umkämpft sein. Gerade der 75W TDB Bereich ist interessant für OEM, dann sparen die sich die Strom kabel für die 6/8 pin. Die meisten User brauchen auch nicht mehr als das. Wenn ich mir anschaue, dass eine GT1030 immernoch 100€ kostet... ich weiß ja nicht; das ist zu viel. Aber vielleicht hab ich da zu hohe Anprüche.
 
Ich fände es sehr schön wenn AMD Navi 23 endlich als 6500 oder 6600 für maximal 250 € rausbringen würde. 8 GB reichen da und eine Leistung die besser als eine 480 ist auf ~100 W. Es ist schade dass dieses Segment seit Jahren praktisch tot ist. Das letzte was da kam war die 1650, deren Leistung zwar recht gut ist aber dafür hat die nur 4 GB.
 
Interessiert mich vor allem wegen Linux Desktop Einsatz. Va-api etc. da war intel schon immer sehr gut.
 
Mich würde interessieren, ob Quicksync funktioniert, ob das dann auch auf AMD Plattformen liefe. Und wie viele Streams gleichzeitig sie packt.
Damit könnte sie nämlich seine sehr interessante Alternative zu den kleinen Quadros in Plex-/Streaming-Servern sein, gerade weil es den i3-9100F oft günstig gibt und viele Xeons keine iGPU haben.
 
Selbst wenn die DG2 technisch etwas taugen sollte, müssen es die Treiber auch tun und da sehe ich noch Probleme kommen. Abgesehen davon kommen die auch in 7nm von TSMC, also eine Entspannung werden die nicht verursachen mMn.
 
Die ganzen Schwätzer mit den Intel Treiber. Ich hab mit NUC und Iris Pro gezockt ohne Prlobleme. Intel hat das Geld, die manpower und das know-how. Schlechter als die AMD Treiber können Sie kaum schaffen :shot:
 
Wobei es schon fast ein Wunder wäre, wenn Intel direkt mit der Treiber Qualität von Amd gleichziehen würde. 🤷‍♂️
 
@MENCHI
bis vor kurzen hatte ich ne Vega64 davor ne R290 (direkt bei release gekauft), und hatte nie Probleme trotzdem vieler Early Access Games wo ich gespielt hab.
Das einzige was bei meiner 2080 TI jetzt geht wo vorher nicht ging, ist 2x Video im Vollbild / auf beiden Bildschirmen.

Bei Games wie Fifa & co hatte ich zumindestens vor Jahren auf Surfacebook & Co nur Probleme mit Darstellungsfehler so dass es unspielbar war.
 
Man sollte bei den Ergebnissen aber auch anmerken, dass die Intel Lösungen in Benchmarks immer ziemlich gut abschneiden. Bei Notebookcheck kommt z.B. in Shadow of Tombraider oder XPlane 11 ein TigerLake Zenbook 13 (UX325JA) gerade einmal 2% vor einem Ryzen 5k Zenbook 13 (UM325S) heraus, 3DMark und Co suggerieren da etwas anderes. Entweder liegt da noch viel Optimierungspotential bei Intel in Spielen brach, oder sie haben alles maximal auf Benchmarks hin optimiert.
 
Würde auf Optimierungspotential tippen, denn grade die grossen Games in den Tests werden von AMD und NV explizit behandelt und gezielte Optimierungen darauf im GPU Treiber eingebaut. Oft auch in Zusammenarbeit mit den Studios.
Intel wird einige Jahre brauchen um sich auch so zu vernetzen und routiniert solche Optimierungen durch zu führen, fürchte ich.
 
Intel GPU mit FSR wäre mal interessant.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh