Radeon Vega Frontier Edition mit Gaming Mode – Wechsel zwischen Profi- und Consumer-Treiber möglich

Naja eins der Probleme an GCN war schon immer dass sie in die Breite gehen, während Nvidia "nach oben" i.e. Takt geht. Ne breite GPU ist immer schwerer auszulasten als ne dünnere und dafür schneller getaktete.

Und das Problem schiebt AMD seitdem vor sich her im high end. Die breite voll zu nutzen schaffen spiele dann meist erst, wenn so breite gpus im midrange angekommen sind, aber dann ist halt zu spät.

Sent from OP3T
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
mmhh also AMD geht nicht in die Höhe?

Polaris geht 1400+Mhz, Vega 1600+Mhz
Fiji war bei 1100Mhz wobei da andere Dinge gebremst haben... aber ja AMD geht NICHT in die Höhe :rolleyes:
 
Zuletzt bearbeitet:
mmhh also AMD geht nicht in die Höhe?

Polaris geht 1400+Mhz, Vega 1600+Mhz
Fiji war bei 1100Mhz wobei da andere Dinge gebremst haben... aber ja AMD geht NICHT in die Höhe :rolleyes:
Ja. Schön. Damit ist AMD also auf Stand von Maxwell (2015). Fiji kam auf den Stand von Kepler (2012).

GCN ist gezielt auf Breite ausgelegt. So ziemlich immer hat das GCN Flaggschiff mehr Kerne als das Nvidia Counterpart. Aber das gibt halt Probleme in Spielen.

Sent from OP3T
 
Du kannst doch nicht den Takt von AMD mit dem von Nvidia vergleichen *facepalm*
Sind doch unterschiedliche Architekturen.
 
Doch kann ich. Das ist doch grad der Punkt.

AMD: Mehr cores, dafür weniger takt
Nvidia: Weniger cores, dafür mehr takt

Ich treffe keine Aussagen zur Leistung. Die Architekturen kann ich aber definitiv vergleichen, bzw zumindest die grundlegenden Designstrategien.

Wenn du mal ne Chance hast, unterhalt dich mit nem AMD Engineer, der wird dir das bestätigen können.

Sent from OP3T
 
550W sind locker genug um ne 300W Karte zu befeuern.
Das denkst du. Das kann sich schnell aufsummieren, ja nachdem was du an CPU, Board, Laufwerken, zusätzlichen Karten, Lüftern, etc im System hast. Und da ist noch nicht mal OC berücksichtigt. Die mindestens 850W von AMD mögen übertrieben erscheinen, aber es ist halt auch nur eine Empfehlung.

Und der "prosumer" quark ist doch auch nur geschwafel. Die treiber beinhalten selbst den game mode ...
Nur bewirkt der Game Mode bei Pro Karten nix. Scheint dort nur eine Art Compatibility Mode zu sein.

rx vega wird exakt die gleiche gpu, pcb etc werden, nur in andrer kühlerfarbe.
Die gleiche GPU, sicherlich. PCB könnte schon noch etwas anders werden. Das ist in dem Kontext aber nebensächlich. Der springende Punkt ist, über den Treiber kann gesteuert werden, wie die Pipeline arbeitet, welche Einheiten zB genutzt werden usw. Und natürlich kann das einen erheblichen Unterschied machen. Gerade bei einer so radikal umgestrickten Architektur wie Vega.

Ist doch auch logisch der score. 12TF. Wann hat AMD das letzte mal aus nem TF so viel rausgeholt wie Nvidia? Richtig, ich kann mich auch nicht dran erinnern. Bei gleicher Rohleistung ist AMD mittlerweile immer langsamer als Nvidia im Schnitt, und hier ists genauso. Erwartet hier ernsthaft jemand dass AMD plötzlich mit Vega all das überwindet?
Warum nicht? Schliesslich sind die CUs bei Vega anders als bei allen anderen GCN Generationen aufgebaut. Und dass FPS nicht einzig auf TFLOPS zurückzuführen sind, sollte auch klar sein. TFLOPS kommen vor allem bei Computing zum Tragen. Und da scheint die Vega FE die Titan Xp laut bisheriger Tests ziemlich nass zu machen. AMD holt hier also mehr tatsächliche Performance aus der Rohleistung raus als Nvidia. Was aber auch keine allzu grosse Neuigkeit ist. Das hat man teils auch schon in der Vergangenheit.


Naja eins der Probleme an GCN war schon immer dass sie in die Breite gehen, während Nvidia "nach oben" i.e. Takt geht.
Nicht wirklich. Nvidia hat nach dem Debakel mit Thermi doch das gleiche gemacht wie AMD. Weg von den Hot Clocks, hin zu vielen Shadern und niedrigem Takt. Daran ändert auch Pascal erstmal nur wenig. Die Architektur wurde dort zwar etwas angepasst für höhere Taktraten. Der Hauptanteil kommt aber vermutlich vom 16nm TSMC Prozess.

Ne breite GPU ist immer schwerer auszulasten als ne dünnere und dafür schneller getaktete.
Was genau soll denn schwerer auszulasten sein? Tatsache ist, viele Einheiten und niedriger Takt ermöglicht bei Parallelarchitekturen wie GPUs immer mehr Effizienz als wenige Einheiten und hoher Takt. Nur sollte man halt auch wissen, dass Spiele nicht nur von den ALUs/FPUs der GPU abhängen. Daher ist das mit der schweren Auslastung zwar eine nette Anekdote, in der Praxis aber nur ein Teil der Problematik.
 
Das denkst du. Das kann sich schnell aufsummieren, ja nachdem was du an CPU, Board, Laufwerken, zusätzlichen Karten, Lüftern, etc im System hast. Und da ist noch nicht mal OC berücksichtigt. Die mindestens 850W von AMD mögen übertrieben erscheinen, aber es ist halt auch nur eine Empfehlung.


Tatsache ist, viele Einheiten und niedriger Takt ermöglicht bei Parallelarchitekturen wie GPUs immer mehr Effizienz als wenige Einheiten und hoher Takt. Nur sollte man halt auch wissen, dass Spiele nicht nur von den ALUs/FPUs der GPU abhängen. Daher ist das mit der schweren Auslastung zwar eine nette Anekdote, in der Praxis aber nur ein Teil der Problematik.
Zu 1: nicht denken, das weiß ich. Hab ne 980Ti bei knapp 1500mhz zusammen mit nem i5, leds im case, ner handvoll platten, laufwerk etc mit nem 520W 80+B betrieben.
Selbst nachdem aus dem i5 ein ryzen 1700 bei 3.9ghz wurde, hätts noch gereicht. Kam damit bisher noch nie über 450W ohne gezielt stresstest auf sowohl cpu als auch gpu laufen zu lassen. Benchmarks sind fast lachhaft dagegen.
Für nen Benchmark ists allemal genug.

Zu 2: das trifft auf die theorie zu, vlt auf gpgpu mit hochparallelisiertem code. Aber nicht unbedingt auf spiele. Da wirds schwer breit auszulasten, weil eben oftmals shadercode etc genug verzweigung hat, dass ein großer teil der einheiten nur stalled, und dann rettet einen nur mehr takt.


Sent from OP3T
 
Zuletzt bearbeitet:
Zu 2: das trifft auf die theorie zu, vlt auf gpgpu mit hochparallelisiertem code. Aber nicht unbedingt auf spiele. Da wirds schwer breit auszulasten, weil eben oftmals shadercode etc genug verzweigung hat, dass ein großer teil der einheiten nur stalled, und dann rettet einen nur mehr takt.
Nein. Ich wiederhole es nochmal. Lesen und verstehen!
Tatsache ist, viele Einheiten und niedriger Takt ermöglicht bei Parallelarchitekturen wie GPUs immer mehr Effizienz als wenige Einheiten und hoher Takt. Nur sollte man halt auch wissen, dass Spiele nicht nur von den ALUs/FPUs der GPU abhängen. Daher ist das mit der schweren Auslastung zwar eine nette Anekdote, in der Praxis aber nur ein Teil der Problematik.
Wenn andere Grafik relevante Einheiten limitieren, dann helfen dir weder mehr Shader noch höherer Shadertakt was. Dann musst du mehr von diesen anderen Einheiten implementieren oder die vorhandenen höher takten. So oder so, das Prinzip bleibt das gleiche. Mehr Einheiten + niedrigerer Takt = mehr Energieeffizienz. Das gilt auf allen Ebenen. So zumindest die Theorie, da hast du Recht. In der Praxis spielen natürlich auch andere Faktoren noch eine Rolle, wie Flächeneffizienz. Diese kann mit mehr Einheiten bei niedrigerem Takt abnehmen, was wiederum kontraproduktiv für das Gesamtdesign sein kann. Hier gilt es einfach, den besten Kompromiss zu finden. Niedrigerer Takt ermöglicht zB den Einsatz von HD Bibliotheken, was die Flächeneffizienz wiederum verbessern kann.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh