Bild soll Referenzdesign der Radeon RX Vega zeigen

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
amd-vega-logo.jpg
Nachdem es heute weitere, vermeintlich neue Benchmarks zur Radeon RX Vega gab, ist nun ein Bild aufgetaucht, welches die Referenzversion der Radeon RX Vega zeigen soll. Dabei soll es sich um die Variante mit Vega-10-GPU im Vollausbau handeln, die per Radiallüfter gekühlt wird. Als zweite Variante ist noch eine solche mit AiO-Wasserkühlung im Gespräch und die Boardpartner werden sich offenbar mit einer abgespeckten GPU begnügen müssen.Auf dem Bild zu sehen ist das von der Polaris-Serie bekannte Design mit der...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sieht langsam aus.
 
Zuletzt bearbeitet:
Also der große vorteil von HBM => Platzersparnis (PCB) ist schon mal komplett weg...
 
Bei 300 W tdp und einem wohl annähernd ähnlichen Verbrauch von 300 Wattsekunden, sieht es nach nach sehr warmen Wetter aus.
Nun ist plötzlich doch die 1080 ti der Sparringpartner?
Edit: Frage beantwortet von "Kyle_Bennett": "Because I wanted to. AMD wanted me to use a 1080."
 
Zuletzt bearbeitet:
Warum steht hier dass sie sich mit ner 1080ti battlet? Dachte sie ist gerade mal so schnell wie ne normale 1080.
 
Also der große vorteil von HBM => Platzersparnis (PCB) ist schon mal komplett weg...

Letztendlich scheitert es aber an der (zu) hohen TDP. Bei einer fiktiven Vega Nano mit geringerer TDP sähe es wieder anders aus.
 
Sieht aus wie die Referenzdesigns der RX 400er Reihe von AMD.

Sowie wenn die RX Vega 400 -520 Dollar Kosten soll, ist es auf jeden fal ne Kampf ansage zur GTX 1080. Etwas besser als ne GTX 1080 , aber Preislich schon zum Preis einer GTX 1070 zu haben. Könnt mir gut vorstellen , das die nächsten Monate die Preise der GTX 1070/1080 etwas fallen werden.
 
also wenn das wirklich der Referenzkühler für eine 300Watt+ Grafikkarte sein soll - hat man aus dem Debakel bei der Markteinführung der 290er Karten aber absolut rein gar nichts gelernt und man könnte sich echt nur noch fragen welche Volld****** bei Amd am Werke sind

damals war man bei >250Watt und hatte eine Turbine in dieser Bauweise am Start, jetzt reden wir von >300Watt - ich möchte gar nicht dran denken was dieses Radiallüfterchen veranstalten muß um 300 Watt an Wärme abzuführen - wenn das so kommt fehlen mir einfach nur noch die Worte
 
Mit aktivem TBR und gescheitem Treiber scheint die 1080 non-Ti doch weiter hinten zu liegen.

Na schauen wir mal wie nah man an eine 1080 Ti rankommt.
 
Mit aktivem TBR und gescheitem Treiber scheint die 1080 non-Ti doch weiter hinten zu liegen.

Na schauen wir mal wie nah man an eine 1080 Ti rankommt.
Oder es war der VRM-Zusatz SoC für mehr PowerLimit, Spannung war gestern! :banana:
 
Ziemlich clever von AMD da FreeSync und G-Sync mit einzubeziehen denn wenn man dann alles in UHD/4K präsentiert was es ja aktuell nur in 60Hz gibt
reichen 60FPS aus (weil sonst ist man außerhalb der Range und es gibt Tearing) und das schafft man mit den richtigen Settings in jedem aktuellen Spiel!

es geht um die drops und nicht um avg fps.
fallout4_3840x2160_drl3ksp.png
 
Die drops merke ich gerade gewaltig mit der 1080 trotz 2000 mhz. 4K ohne freesinc ist der graus hoffentlich kommt vega bald. Meinen freesinc moni möchte ich nicht tauschen müssen.
 
Zuletzt bearbeitet:
Vega dropt nicht und es ist alle ingame. Brauchst die pascals nicht gut reden, die droppen in 4k ohne Ende.

fallout4_3840x2160_ftphsm8.png
 
Ändert nichts an den drops der pascals. Deswegen hat AMD auch smoothes Gaming beworben statt hohe avg-balken. Schau dir doch einfach die framerange an und komm selbst drauf.
 
Da ist ein Verkaufspreis von 400,- US$ nicht wirklich realistisch?
Die XL soll ja der Cut sein, da sind 400$ schon wahrscheinlich wenn bei XT bzw XTX nicht mehr Leistung kommt als 1080-Niveau.

Wird spannend ob XL nicht in 2 Varianten kommt, nämlich 4+8GB HBM2.

Irgendwie schade, dass in einer Woche alles vorbei ist.
Das glaube ich nicht, denn AMD wird auf der Siggraph zwar Vega launchen und uns ein paar cherry picked Balken zeigen (wie jeder andere Hersteller bei einer Produktvorstellung auch)

Aber ich glaube nicht dass wir sofort darauf Reviews von unabhängigen Quellen sehen werden.
 
Zuletzt bearbeitet:
Vega dropt nicht und es ist alle ingame.

1. Vega droppt ebenfalls.
2. Die 1080 ti hat sogar in diesem Drop smoothere Frametimes als die ach so smoothe Vega
3. Der Drop entsteht genau da, wo die Stadt verlassen wird und wo die Texturen für die Weitsicht nachgeladen werden müssen.

Meh, streng dich mal etwas mehr an bei deiner Propaganda ;)
 
Zuletzt bearbeitet:
Der drop wird von Vega recht smooth weggeglättet während die pascals richtig droppen. Man sieht auch, dass die 1080 einen längeren Balken hat, spricht mehr avg fps aber bei den min fps stärker dropt.
Der zweite drop ist bei der 1080ti am heftigsten. Von 70 fps auf 40fps. Die ganzen max fps der 1080ti sind nutzlos.

Allgemein sieht pascal sehr anfällig aus:
Bei der 1080ti könnte man ja meinen, sie wirft >100fps bei 1440p raus .... denkste ;)

hitman_2560x1440_drop1pscn.png
 
Zuletzt bearbeitet:
Du sagst also auf einem UHD/4K 60Hz Monitor mit aktiviertem G-Sync @60FPS gibt es mit einer GTX1080(Ti) Framedrops ?
In welchem Spiel soll das sein und auf wie viel FPS dropt es denn von 60 runter ? Die Antwort würde ich mir gut überlegen !

Im Blindtest mit RX Vega@Freesync vs 1080@GSync vernimmt man schon Unterschiede, es sind die kleinen "drops" oder stottern die dann stören ;)
Smooth mit AMD, und das 300$ günstiger im Gesamtpaket.
1080ti jetzt mal rausgenommen, ist ja kein schlechter Salvage, nur die guten customs kratzen ja an 1000€.

Was du meinst ist LFC (low framerate compensation), dass man <30fps noch "smooth" agieren kann. Bei AMD geht das, weiß nicht wie es bei Nvidia funktioniert.
 
Zuletzt bearbeitet:
Der drop wird von Vega recht smooth weggeglättet während die pascals richtig droppen. Man sieht auch, dass die 1080 einen längeren Balken hat, spricht mehr avg fps aber bei den min fps stärker dropt.
Der zweite drop ist bei der 1080ti am heftigsten. Von 70 fps auf 40fps. Die ganzen max fps der 1080ti sind nutzlos.

Allgemein sieht pascal sehr anfällig aus:
Bei der 1080ti könnte man ja meinen, sie wirft >100fps bei 1440p raus .... denkste ;)

Warum jetzt auf einmal der 1440p Bench und nicht der 4k Bench?!
Ach stimmt in 4k gibt es keine Drops, da alle Grafikkarten unter 80 FPS liegen.
Irgendetwas begrenzt die FPS auf 80 in der markierten Szene, daher kommen die drops nicht von den Grafikkarten.

Hitman_3840x2160_OFPS.png
 
Sämtliches AMD vs. Nvidia hat in der Realität keinerlei Bedeutung.

<30fps könne Spiele schon fallen:

minfpss5ypx.png



Ich weiß dass die 20 min fps bei AMD sich deutlich besser anfühlen als 15 fps bei Nvidia ;) oder 18fps vs 13fps
Es gibt sehr viele Spiele, die in niedrigen fps-Range auch "smooth" operieren.
 
Zuletzt bearbeitet:
Also meine 1080ti die bis ca 2150mhz boostet droppt in 4k auch, das ist schon relativ nervig wenn ich bedenke das ich 700€ auf den Tisch gelegt habe. Mal abwarten was AMD da zaubert.
 
Die VEGA wird an der GTX1080 nicht vorbei kommen. Es dauert ca. 2-3 Monate (nach Release) bis man "finale" Treiber bekommt und auch HBM2 ist keine Wunderwaffe. OC gleich Null. Mehr Verbrauch & deutlich mehr Abwärme.

Erst die nexte NV / AMD Gen. (kein Refresh) wird richtig interessant. Das hier ist nur Show. Wie RyZen. Erst die 2. Gen. wird interessant (und hoffentlich weniger verbugt) :p
 
Die VEGA wird an der GTX1080 nicht vorbei kommen. Es dauert ca. 2-3 Monate (nach Release) bis man "finale" Treiber bekommt und auch HBM2 ist keine Wunderwaffe. OC gleich Null. Mehr Verbrauch & deutlich mehr Abwärme.

Erst die nexte NV / AMD Gen. (kein Refresh) wird richtig interessant. Das hier ist nur Show. Wie RyZen. Erst die 2. Gen. wird interessant (und hoffentlich weniger verbugt) :p

Das könnte man so unterschreiben.
 
Ich gehe davon aus, dass AMD diese Blindtests möchte, weil man mit dem HBM2 dank niedrigerer Latenzen deutlich seltener unter 16ms bis zum nächsten Bild kommen müsste.

Das bedeutet, auch wenn die Karte tatsächlich im Durchschnitt nicht ganz so schnell wäre, kann AMD damit punkten, dass das Bild trotz schlechterer theoretischer Zahlen (wenn man nur, wie meistens, die FPS betrachtet) in der Praxis tatsächlich gleichmäßiger ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh