DG1 als Vorbote im Kurztest: Gunnir Intel lris Xe Max Index V2

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.867
gunnir-iris-xe.jpg
Im Januar 2021 kündigte Intel die Umsetzung einer Desktop-Lösung auf Basis des DG1-Chips, der wiederum auf der Xe-LP-Architektur basiert, an. Vorerst sollten nur OEMs und Systemintegratoren eine solche Karten anbieten dürfen, für die chinesischen Markt gelten aber, auch in Anbetracht des primären Fokus für die erste Arc-Generation, andere Regeln. Und so stellte Gunnir mit der lris Xe Max Index V2 eine Desktop-Umsetzung vor, die inzwischen auch den Weg in unsere Gefilde gefunden hat. In Vorbereitung auf den Start der ersten Arc-Generation in Europa werfen wir heute einen kurzen Blick auf die DG1-Umsetzung.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ hwluxx

Sagt den herstellern sie solle sich bei der namensfindung mal etwas zusammenreissen.
 
Ohne Witz, welcher Marketingheld hat denn da bitte seine kreative Phase gehabt? Holy…
 
Intels eigene I-Gpu ist schneller, die Karte ist reine Ressourcenverschwendung.
 
Während wir die Gunnir lris Xe Max Index V2 problemlos zusammen mit dem Intel Core i9-12900K auf dem ASUS ROG Maximus Z690 Hero betreiben konnten (es musste keinerlei Firmware oder ähnliches in das BIOS injiziert werden), so machten uns Instabilitäten des frisch installierten Windows 11 und Abstürze des Treibers das Leben schwer.

Läuft richtig gut :ROFLMAO: , aber ist halt DG1 und mit DG2 nur bedingt vergleichbar.

Edit: Die Fertigung hat zu Release noch "10nm SuperFin" geheißen und nicht "Intel 10"
 
Zuletzt bearbeitet:

Ist das jetzt euer ernst?
 
Selbst bei einem z.B. i7-2600K läuft es nicht anders.
Und der 08/15 Büro PC braucht so eine extra Karte nicht.
 
Naja beim dem alten China Xe Schinken von Vorbote zu sprechen halte ich schon für gewagt. Allein in der Fertigung ist ARC 3,5 und 7 eine ganz andere Hausnummer und bietet die Möglichkeit nachher noch etwas zu justieren, auch wenn es wohl erstmal nicht wirklich reichen wird mit reiner Renderleistung zu punkten dafür brauch man allerdings kein Albert Einstein sein.

Mal sehen welches Custom Design den ersten Schritt macht, schwenken mischen schwenken mischen !
 
Nicht ohne Grund wird erst der chinesische Markt damit bedient, was sie dann mit Gewinn für den russischen Markt weiterverkaufen.🤪
 
Keine Ahnung wie Instabilität sich mit einem nicht schlecht verträgt. Wenn die Treiber nicht das Minimum an Stabilität erfüllen ist die Leistung total egal. Da ist jeder Euro bei der Konkurrenz besser angelegt.
 
Hm, was soll man jetzt dazu sagen?

Da sich der DG1 als Notebook GPU schlecht verkauft hat und man davor wohl nach positiveren Prognosen etwas viel am Lager hat, soll jetzt der Chip als 25W TDP Karte ein 2. Leben finden.
Ansich hat das Marketing bzw der Produktmanager den richtigen Gedanken, denn im Markt fehlen Low Budget Karten mit aktuellen Funktionen in Hardware (H.264 und H265 eingeschlossen).
Eine low Budget Karte unter 100€ mit aktuellen Standards wäre voll ok und würde sicherlich die Lücke bei einigen Office Rechnern schließen. Nicht jede CPU hat iGPU an Board und eine Nvidia 1030 ist für mich keine Lösung.


Was allerdings gar nicht geht, sind Treiberprobleme bzw. mangelnde Stabilität, denn wie schon geschrieben steht und fällt alles an positiven Merkmalen mit der Praxistauglichkeit.
 
Zuletzt bearbeitet:
Intels eigene I-Gpu ist schneller, die Karte ist reine Ressourcenverschwendung.

... jain, einfach den Chip auf eine single Slot pcie 4x passiv gekühlte Karte packen (sollte ja bei 15W Verbrauch gehen) und tada, meine ideale pass-through Gpu ist geboren 😁

100-120€ wäre mir die wert
 
Intels eigene I-Gpu ist schneller, die Karte ist reine Ressourcenverschwendung.
das ist sicherlich eine Sache des Treibers, denn an der eigentlich identischen Hardware wird es ja nicht liegen, oder?
Mal davon ab, nicht jeder hat ne CPU, wo auch entsprechende iGPU verbaut ist. Um einem älteren non iGPU PC ne aktuelle Grafikkarte für Office und co zu spendieren, die möglichst wenig zusätzlichen Strom schluckt, wäre das durchaus tauglich. Früher flogen die FX5200, Radeon 9200SE oder ATI/AMD 4350 in Masse nur so über die Ladentheke und heute sieht man kaum noch low Budget Karten, weil aufgrund von Mangel einfach die hochpreisigen Karten in den Serien bedient wurden. Normale Reaktion der Hersteller, wenn es um Prios im Mangel geht.

In CN oder Indien werden nicht überall die neuesten CPUs so rumliegen. Das kostet auch viel Geld und eine entsprechende Karte findet ihre Abnehmer in diesen Märkten.
Oder unterstellst du, Intel weiß nicht, was sie da tun? Ist doch ne gute Idee, in diesen Märkten in Masse erst einmal weitere Erfahrungen zu sammeln und sich weiter zu entwickeln, bevor man sich in USA/EU dem großen erwartungsgeschwängertem Shitstorm aussetzen muss.
 
Was ist bei der Leistungsaufnahme passiert, wie habt ihr das denn gemessen? Board Power sind 25W, vielleicht sind 15W GPU only. Aber wieso vergleicht ihr GPU power gegen komplettes System? Die iGPU vom 6900HS wird sicher keine 80 Watt verbrauchen, das ist höchstens CPU+iGPU. Das gleiche beim 12900HK. Der Vergleich macht kein Sinn.

Irgendwie sieht die 680M nicht gut aus, der Abstand zur Xe LP vom 12900HK ist erstaunlich gering.
 
Ich finde die Leistung eigentlich nicht schlecht, in Anbetracht der Leistungsaufnahme.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh