Radeon RX Vega: AMD stellt Direktvergleich zur GeForce GTX 1080 her

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
950 EUR für "Topdog" Technologie, die aber nicht über nv 1080 Leistung hinausgeht :confused::wut:
 
950 EUR für "Topdog" Technologie, die aber nicht über nv 1080 Leistung hinausgeht :confused::wut:

wer weiß.. vllt ist das ding mit finalem treiber auch deutlich flinker als die 1080ti^^

dann kann so ein preis durchaus berechtigt sein.

ist das unwarscheinlich? joa..
ist das undenkbar? nö..
 
Na gut macht die Sache ja noch spannender, muss der gaming Driver halt +50% draufhauen ;)
 
Find ich recht teuer, aber es gibt ja Leute, die sich ne Titan Xp für mehr gekauft haben.
 
wenn das stimmt sollte die Leistung entsprechend gut sein .... ansonsten ist die Käuferschicht nicht größer als die Nvidia Titan XP Käufer .....
 
Ich denke die Theorie des "wegdroppen" bei NV ist dennoch interessant und sollte es würdig sein in zukünftigen Tests mal überprüft zu werden oder nicht?
Ich hab zwar die Posts des AMD-Extrem-Fanboys nicht gelesen weil der seit langem auf der Ignore-Liste steht, aber der Drops ist ja schon lange in fast allen Reviews gelutscht weil auch die Min-fps angegeben werden.
Aber bleibt ruhig dran an dem Thema, ihr seid etwas Großem auf der Spur.
 
Ja ok schon gut, was er meint ist wohl das man die Drops bei nv wohl merkt, daher das smooth, aber egal will mich da nicht weiter einmischen, sicher alles übertrieben, dennoch interessant... ;)
 
:lol::lol:

Ich will ja jetzt keinen zu Unrecht bashen aber das Bild ist echt genial :d

Ja, ich würde es auch begrüßen, wenn die Frametime hauptsächlich angeschaut wird, besonders weil man hier eben ein Duell zwischen HBM2 und GDDR5X haben wird, was einfach am Ende ausschlaggebend sein kann.
Aber wie ich die Tester einschätze, wird das nicht passieren, weil ja in der Regel nicht mal Perzentile angegeben werden.

Natürlich wäre es auch sehr wichtig, mit HighEnd-Intel-Systemen gleichermaßen wie mit Ryzen zu testen, doch auch da weiß ich schon, dass die meisten diese teure Karte einfach in ihren 6700K reinkloppen werden, um die AVG-FPS auszulesen und hinzuknallen, weil sie für das Review ein paar Euro bekommen, die keinen höheren Aufwand rechtfertigen.

Insofern wird AMD nichts anderes übrig bleiben, als in dem altbekannten, schnöden AVG-FPS rausprügeln zu gewinnen und damit die Leute vergleichen können, wer den längeren Balken hat.
Da bin ich jedoch zuversichtlich, denn auch wenn ich nicht weiß, wie viel die neuen Treiber bringen, weiß ich, dass die aktuelle Leistung einfach keine Endleistung darstellen kann und Vega mit Sicherheit noch einiges gegenüber den aktuellen Benchmarks zulegen wird. Eine Leistung auf 1080Ti-Niveau halte ich persönlich für realistisch, aber ich kann es wegen der neuen Architektur nicht genau einschätzen und so wird sich Vega nahe der 1080 Ti positionieren müssen, ohne dass ich ausschließen möchte, dass sie diese sogar merkbar schlägt.
 
Selbst deine auf 2Ghz hochgetaktete 1080 wird bei hoher Last wegdroppen, sowohl vom Takt als auch min fps. HBCC von Vega schaufelt das weg.

Gibt es eigentlich irgendwo Beweise für das was du ablässt? Weder auf meiner RX580 noch auf meiner vorherigen GTX 580 gabs geheimnisvolle Drops.
Hast du mal geschaut was der HBC eigentlich tut?:fresse:
 
Zuletzt bearbeitet:
Was bitte ist das das denn für ein bescheuerter "Blindtest", wenn selbst ein Blinder an Hand der Monitore die Grakas zuordnen kann?

Dann noch an der Bildqualität(/-einstellungen?) rumgeschraubt, damit auf beiden Monitoren ein "vergleichbares Bild" angezeigt wird und aus "Zeitgründen" nur Doom. Schon klar.
Da kann man sich ja zusammenreimen, wohin die Reise geht.
 
Was bitte ist das das denn für ein bescheuerter "Blindtest", wenn selbst ein Blinder an Hand der Monitore die Grakas zuordnen kann?

Dann noch an der Bildqualität(/-einstellungen?) rumgeschraubt, damit auf beiden Monitoren ein "vergleichbares Bild" angezeigt wird und aus "Zeitgründen" nur Doom. Schon klar.
Da kann man sich ja zusammenreimen, wohin die Reise geht.

Du kannst also an den abgeklebten Monitoren erkennen welcher PC welcher ist? Interessant. Das bezweifel ich mal stark. Woran würdest du das denn fest machen?
 
Zuletzt bearbeitet:
- doom war doch das Spiel das mit Vulkan & AMD Polaris super performt hat .... Also kein besonders vertrauenerweckende Spielwahl
- 300$ Aufpreis das Nvidia System? Wie teurer ist der G-Sync Monitor? Wie teuer ist der Free-Sync Monitor - der Preis einer 1080ti ist bekannt, daraus kann man sich dann den Vega Preis errechnen.

Man sagt ja immer G-Sync Monitore sind 150$ teuerer als die vergleichbaren Freesync Monitore, also müsste die ~ Vega 150$ unter der 1080ti liegen
 
monitore und deren technik sind doch völlig unabhängig von der graka leistung um die es hier hauptsächlich geht.
 
- doom war doch das Spiel das mit Vulkan & AMD Polaris super performt hat .... Also kein besonders vertrauenerweckende Spielwahl
- 300$ Aufpreis das Nvidia System? Wie teurer ist der G-Sync Monitor? Wie teuer ist der Free-Sync Monitor - der Preis einer 1080ti ist bekannt, daraus kann man sich dann den Vega Preis errechnen.

Man sagt ja immer G-Sync Monitore sind 150$ teuerer als die vergleichbaren Freesync Monitore, also müsste die ~ Vega 150$ unter der 1080ti liegen

When we are asking questions about value in our interviews, this is where the "$300 difference in cost" comes from, however it is a bit more than that. AMD did not tell us what the RX Vega video card's MSRP would be, so we did not consider this in our value question.
 
Es ist aber das gleiche Prinzip wie von AMD auf deren Tour nur das dort glaube UHD/4K 60Hz Monitore genutzt wurden und die Spiele halt mit 60FPS liefen.
Man will gar nicht damit werben SCHNELLER zu sein sondern damit, dass man dem Gamer ein GLEICH GUTES GAMEPLAY zu einem günstigeren Preis bietet.

das werden wir leider wohl nicht bekommen. UND das Gameplay hängt immer noch von dem Spiel ab.
 
- doom war doch das Spiel das mit Vulkan & AMD Polaris super performt hat .... Also kein besonders vertrauenerweckende Spielwahl
- 300$ Aufpreis das Nvidia System? Wie teurer ist der G-Sync Monitor? Wie teuer ist der Free-Sync Monitor - der Preis einer 1080ti ist bekannt, daraus kann man sich dann den Vega Preis errechnen.

Man sagt ja immer G-Sync Monitore sind 150$ teuerer als die vergleichbaren Freesync Monitore, also müsste die ~ Vega 150$ unter der 1080ti liegen

Steht doch im Text. 720 Dollar die Freesync-Variante und 1300 die G-Sync. Also 580 Dollar Differenz.
 
Aber wenn es auf 60Hz mit 60FPS bzw. auf 100Hz mit 100FPS läuft und FreeSync sowie G-Sync nach dem gleichen Prinzip funktionieren
wie willst du dann Unterschiede merken ? Da bleiben nur Microruckler durch zu wenig Arbeitsspeicher oder Unterschiede beim Paneltyp !

Nö. Die Implementierung ist unterschiedlich gut. Sei es bei Freesync: Flicker wenn es Richtung unterer Frequenzbereich und darunter geht (C34F791), bestimmte Spiele bei denen in dem Bereich Sync nicht mehr greift (Prad-Tests) oder allgemein bei AMD und NV der Inputlag (gerade im Grenzbereich). Plus andere Vorkommnisse.

Unterschiedliche Systeme... unterschiedliche Resultate möglich...
 
Zuletzt bearbeitet:
Es geht um die drops unterhalb der sync-range. Und bei Doom blindtest dropt die 1080ti wohl häufiger als RX Vega aus der range raus.
 
Die schweren Ruckler waren dann auch das typische Verhalten der 8800GTS bei DX10 (Crysis). Die HD4870 lief insgesamt vom avg fps her niedriger, aber hatte nicht die heavy drops. Auf ner X1950XTX konnte ich mich sogar bei 1680x1050 Very high <10fps bewegen. Da ging bei Nvidia nichts mehr, weil alles überladen war. U.a. Die Texturen waren dann verschwommen, sekundenlanger Stillstand usw.
Blöderweise hat zumindest der G80 einen Serienfehler drin, der sich besonders bei der 8800GTS 320 bemerkbar macht: der VRAM läuft durch fehlerhaftes Management nämlich irgendwann über. Nvidia wollte das irgendwann per Treiber lösen oder zumindest mindern und hat es wenn ich mich richtig erinnere auch getan. Das übliche Cherrypickung also.
Und wenn du schon eine 4870 hernimmst, dann vergleiche sie gefälligst mit der GTX260. Dann passts auch vom VRAM her halbwegs.
Logo, auf ner X1950 mit DX9 hast du auf Very High gespielt. Sicher...
 
Du brauchst nicht mit irgendwelchen Zahlen aus der Nase zu kommen beim blindtest ;)

Die heavy drops bei pascal sind recht gut dokumentiert.
 
Auf UHD 60Hz sind aber Drops von 100 auf 60FPS nicht existent wenn die FPS auf 60 begrenzt sind
genau wie es bei UWQHD 100Hz keine gibt wenn die FPS von theoretisch 144 auf 100 fallen würden.

Das stimmt eben nicht. FPS ist nur ein Durchschnittswert. Wenn die FPS rapide für sehr kurze Zeit fallen ändert sich in dem Moment die Frametimes extrem. Das wird das als Mikroruckler wahrgenommen. Dabei kann dein AVG Wert trotzdem noch recht hoch liegen.
 
Es geht um die drops unterhalb der sync-range. Und bei Doom blindtest dropt die 1080ti wohl häufiger als RX Vega aus der range raus.

Der Sync Intervall liegt bei Freesync und G-sync Monitoren dank LFC fast beliebig tief, da die Hertz Zahl einfach intern verdoppelt wird. So tief liegen die FPS dort nicht.
Um Schlussfolgerungen zu ziehen bedarf es erstmal eines technischen Verständnisses, zumindest sollte man die Specs der Technik selbst und die der Monitore kennen.
Esoteriker gehen in etwa ähnlich vor wie du.

Die heavy drops bei pascal sind recht gut dokumentiert.

Esoteriker war dann doch ein bisschen zu hochgegriffen.
Bezahlt dich jemand für deine Show die du abziehst? Lisa Su etwa?:shot:
 
Zuletzt bearbeitet:
Es geht um die drops unterhalb der sync-range. Und bei Doom blindtest dropt die 1080ti wohl häufiger als RX Vega aus der range raus.
Klar, jetzt hab ich mal ein nettes Bildchen für dich, mit fps-Perzentilen falls du weißt was das bedeutet
Schau dir mal die fps der 0,1% Percentile an

Vergleich einer Hybrid Vega FE (also Vega FE OC mit Custom-WaKü bei 150% PT und ~140W Mehrverbrauch als eine Standard Vega FE)
AMD Vega Hybrid Mod: Fixing Power Leakage for Higher OC | GamersNexus - Gaming PC Builds Hardware Benchmarks

Keine der beiden Karten fällt bei Doom in 4k (und der Blindtest war nicht mal 4k) außerhalb einer Sync-Range, du laberst einfach nur irgendeinen Schrott dahin
 

Anhänge

  • vega-hybrid-doom-4k.png
    vega-hybrid-doom-4k.png
    19,7 KB · Aufrufe: 95
Zuletzt bearbeitet:
Das wird ihn nicht interessieren.
 
Genau darum ging es mir, das ganze war ein Vergleich der beiden Monitore und nichts anderes.
Keine der beiden Karten, auch eine 1080, hat in Doom irgendein Problem die Frames konstant genug zu halten damit ein Sync-Setup flüssig wirkt.
 
Du kannst also an den abgeklebten Monitoren erkennen welcher PC welcher ist? Interessant. Das bezweifel ich mal stark. Woran würdest du das denn fest machen?

Haben sie die Füße auch abgeklebt?

Auf dem Bild mit beiden Monitoren steht z.B. der G-Sync vorn und der Freesync hinten.

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh