Radeon RX Vega: AMD stellt Direktvergleich zur GeForce GTX 1080 her

Wird schwer für AMD den Leuten klar zu machen, dass es nicht nur darauf ankommt wer die meisten FPS hat sondern wie man sie am besten nutzt.
Sobald Benchmarks mit bunten Balken kommen wird danach beurteilt ohne darüber nachzudenken wie viel Leistung man eigentlich wirklich braucht.

In UHD gibt es so etwas wie "zu viel Leistung" bei Grafikkarten noch nicht. "Mehr" ist hier nunmal besser.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
genauso ist es diese ganzen Features sind nett für fhd und meinetwegen 1440p aber in 4K bin ich meist froh wenn ich es irgendwie halbwegs in die Sync Range schaffe und da hilft nur Leistung, Leistung und nochmal Leistung ... naja noch 5 Tag bis wir hoffentlich wissen was Sache ist
 
Haben sie die Füße auch abgeklebt?

Auf dem Bild mit beiden Monitoren steht z.B. der G-Sync vorn und der Freesync hinten.


Immer schön erstmal meckern und die Quelle nicht richtig lesen. Du guckst dir den eigentlich wichtigen Teil der Quelle garnicht erst an. Der Andere spekuliert über den Preis (300$) ohne sich die zwei Sätze dazu in der Quelle mal durchgelesen zu haben und der dritte schreit direkt drauf los ohne überhaupt mal reingeschaut zu haben.
So macht das ganze hier echt Spaß :d Selbst wenn man dich drauf aufmerksam macht und du nochmal auf der Seite vorbei schaust fällt dir dein Fehler nicht auf...
 
lol, hab mir den text nicht durchgelesen, aber das video angesehen und da wird halt den "Blind" Testern explizit gesagt ob sie bereit wäre für das gesamte Sys. 2 (Nvidia ) 300$ mehr zu bezahlen.

Wenn der G-sync. Monitor 1300$ kostet und der Freesync Monitor 720$ kostet macht das eine Differenz von 580$

"When we are asking questions about value in our interviews, this is where the "$300 difference in cost" comes from, however it is a bit more than that. AMD did not tell us what the RX Vega video card's MSRP would be, so we did not consider this in our value question."


AMD hat zwar keinen UVP/MSRP gesagt und selbst wenn man die 300$ + "bit more than that" grosszügig addiert kann man sich wohl denken das es keine gezeigt Vega für unter 500€ gibt.


Diese Aussage und das man mal wieder Doom als Demo genommen hat, welches unter Polaris/Vulkan schon extrem besser performt hat lässt die bestehende Skepsis nicht sinken ... in 5 Tagen wissen wir mehr.

Ich lege mich mal fest - in etwa 1080 Leistung overall, bei höherem Stromverbrauch und höheren Anschaffungspreis, das ist das was ich denke bei Vega kommt.
 
Zuletzt bearbeitet:
Klar, jetzt hab ich mal ein nettes Bildchen für dich, mit fps-Perzentilen falls du weißt was das bedeutet
Schau dir mal die fps der 0,1% Percentile an

Vergleich einer Hybrid Vega FE (also Vega FE OC mit Custom-WaKü bei 150% PT und ~140W Mehrverbrauch als eine Standard Vega FE)
AMD Vega Hybrid Mod: Fixing Power Leakage for Higher OC | GamersNexus - Gaming PC Builds Hardware Benchmarks

Keine der beiden Karten fällt bei Doom in 4k (und der Blindtest war nicht mal 4k) außerhalb einer Sync-Range, du laberst einfach nur irgendeinen Schrott dahin

Deins ist ohne TSSAA. Der Tester sollte das mal anschalten ;)

Außerdem ist ein blindtest länger als ein Benchmark und die empfindlichen drops sind abhängig von der Fallhöhe (min <-> max Differenz).
Die Framerange ist bei Vega bei Doom sowieso besser, die Schwankungen kleiner, einfach smoother.

vegadoom94s26.png
 
Ich lege mich mal fest - in etwa 1080 Leistung overall, bei höherem Stromverbrauch und höheren Anschaffungspreis, das ist das was ich denke bei Vega kommt.
Unwahrscheinlich. Vega Preis über 500 Euro - dann ist sie tot, von Anfang an. Sie muss merklich unterhalb einer GTX 1080 liegen, um überhaupt wahrgenommen zu werden. Und selbst dann ist nicht klar, ob die Interessenten die höhere Abwärme (und damit Systemlautstärke) zu akzeptieren bereit sind.
Der Preis des Monitors spielt in solchen Überlegungen keine Rolle, denn der Monitor ist üblicherweise deutlich langlebiger als eine Grafikkarte.
 
Zuletzt bearbeitet:
wir werden sehen, ich persönlich hätte gern mal wieder ein bisschen Konkurrenzkampf ab der GTX1070 ... aber da bin bei dem bisher gezeigten mal wieder skeptisch. Und das HBM2 VRAM nicht gerade billig ist lässt meine Hoffnung schrumpfen, das die Karten um die 400€ liegen .....
 
Naja AMD muss den richtigen Preispunkt zur leistung setzen, sonst kann das nichts geben....

Vielleicht hat es AMd diesemal tatsächlich geschafft die Leistung so lange Geheim zu halten, um dann mal mit einer Leistungsbome zu überraschen, wäre doch mal wünschenwert oder nicht? ;)
 
Es gibt halt nicht nur Doom in 4K, sondern andere Spiele die weitaus HW-hungriger sind und 1440p/144Hz ;)
 
Welcher Teil war nochmal wichtig, die Aussagen von den "230 Jahren Kompetenz in Gaming"?
Oder die Stelle, wo man selbst mit abgedeckter Halterung sieht, das im Video der hintere/rechte Monitor das Modell mit G-Sync sein muß.

Allein die hier gezeigten und beschriebenen Testbedingungen machen diesen Vergleich wertlos.

Warum nur 100 HZ Monitore und dann noch verschiedene Paneltypen.
Welche "Anpassungen" an Bildqualität wurden gemacht? Das kann alles mögliche bedeuten.
 
Welcher Teil war nochmal wichtig, die Aussagen von den "230 Jahren Kompetenz in Gaming"?
Oder die Stelle, wo man selbst mit abgedeckter Halterung sieht, das im Video der hintere/rechte Monitor das Modell mit G-Sync sein muß.

Allein die hier gezeigten und beschriebenen Testbedingungen machen diesen Vergleich wertlos.

Warum nur 100 HZ Monitore und dann noch verschiedene Paneltypen.
Welche "Anpassungen" an Bildqualität wurden gemacht? Das kann alles mögliche bedeuten.

Ich hab dich doch beim ersten mal schon gefragt woran du das sehen willst. Jetzt nochmal. Woran willst du bei dem abgedeckten Monitor erkennen welcher der G-Sync ist?
Ich wette mit dir dass wenn man dich auf die gleiche weise testen würde du das nicht heraus finden könntest.
 

Erstens, Link zur Quelle macht Sinn (übersetzt ja jeder Browser ausreichend gut), denn dann braucht man nicht darauf vertrauen dass im Reddit-Fanboy-Sektor ordentlich Infos wiedergegeben werden.
Rykte: Svenska riktpriser för Radeon RX Vega

Liest man das ganze dort klingt es so.
Laut Distributoren wird Vega (ich gehe mal von XTX aus) 7000 SEK ohne Mwst kosten und somit bei ~9000 SEK landen im Geschäft.
Eine 1080 liegt in Schweden bei 6500SEK inkl Mwst.

Das Fazit von den schwedischen Kollegen ist dass Vega in etwa gleich teuer wird wie die 1080Ti ;)
 
Auf UHD 60Hz sind aber Drops von 100 auf 60FPS nicht existent wenn die FPS auf 60 begrenzt sind
genau wie es bei UWQHD 100Hz keine gibt wenn die FPS von theoretisch 144 auf 100 fallen würden.

hier geht es darum die erbrachte leistung aufzuzeigen und nicht darum die leistung durch einen limiter zu begrenzen.

was will ich mit einem gpu test mit framelimiter?
 
Erstens, Link zur Quelle macht Sinn (übersetzt ja jeder Browser ausreichend gut), denn dann braucht man nicht darauf vertrauen dass im Reddit-Fanboy-Sektor ordentlich Infos wiedergegeben werden.
Rykte: Svenska riktpriser för Radeon RX Vega

Liest man das ganze dort klingt es so.
Laut Distributoren wird Vega (ich gehe mal von XTX aus) 7000 SEK ohne Mwst kosten und somit bei ~9000 SEK landen im Geschäft.
Eine 1080 liegt in Schweden bei 6500SEK inkl Mwst.

Das Fazit von den schwedischen Kollegen ist dass Vega in etwa gleich teuer wird wie die 1080Ti ;)

Stimmt, mein Fehler wobei ich das mit den schwedischen Preisen woanders gelsen hab + selber nachgeschaut/gerechnet.
Sind dort sowieso viel höher als hier in DE... aber der hohe Preis macht auch Hoffnugn auf 1080Ti Leistung ;)
Nichtsdestotrotz bleibt es aber ein Gerücht.
 
@ Gubb3L

Guck dir einfach die Halterungen an und dann nochmal ins Video bei 3-4 Minuten. -> Klick
Vielleicht merkst du es jetzt ja auch von allein.


Und wenn auch nur einige der Tester halbwegs kompetent, bzw. bemüht waren, einen ordentlichen Job (im Rahmen der von AMD gesteckten Grenzen) zu machen, dann wußte jeder von denen an welchem System er sitzt.

Deswegen ereifere ich mich auch so über den Test, bzw die Art und Weise, wie das einem aufgetischt wird.
 
Zuletzt bearbeitet:
Ich lege mich mal fest - in etwa 1080 Leistung overall, bei höherem Stromverbrauch und höheren Anschaffungspreis, das ist das was ich denke bei Vega kommt.

Ich halte es für möglich, eher wahrscheinlich, dass das ganze Trara rundherum zu groß war und die Karte die generierten Erwartungen nicht erreicht.
Auf der Gegenseite glaube ich allerdings auch, dass AMD von den Dingern was verkaufen möchte. Das wird in dem von dir skizzierten Szenario nicht passieren. Dann verkaufen sie 100 Stück weltweit, an Bauern die kein Internet haben und diesen veni vidi vicci Typen hier im Forum. Das wäre eine klassische Totgeburt und die gesamten Entwicklungs und Fertigungskosten hätten sie dann auch versaufen, verkoksen und verhuren können.
Das halte ich für genau so unwahrscheinlich wie 1080ti + 15% Leistung für 600 Euro.

Aber natürlich gilt wieder: Keiner weiß was. Mich packt jetzt allerdings eine gewisse Ungeduld.
 
Vielleicht haben die auch garnicht viel mehr als 100 Stück, wer weiß :fresse: Bleib spannend!
 
@ Gubb3L

Guck dir einfach die Halterungen an und dann nochmal ins Video bei 3-4 Minuten. -> Klick
Vielleicht merkst du es jetzt ja auch von allein.


Und wenn auch nur einige der Tester halbwegs kompetent, bzw. bemüht waren, einen ordentlichen Job (im Rahmen der von AMD gesteckten Grenzen) zu machen, dann wußte jeder von denen an welchem System er sitzt.

Deswegen ereifere ich mich auch so über den Test, bzw die Art und Weise, wie das einem aufgetischt wird.

Das kann doch nur nen Scherz sein oder bist du einfach nur so verblendet?
Du gehst echt davon aus das JEDER Tester im Vorfeld ohne vermutlich zu wissen an welchen Bildschirmen er sitzen wird jeden Monitorarm/ständer von jedem in Frage kommenden Hersteller lernt um dann im abgedecktem Zustand erkennen zu können welcher Monitor wohl zu welchem System gehört. :wall: Nur weil du genau die Monitormodelle kennst, dir Bilder dazu angesehen hast weißt du das. Ein normaler Tester hat davon keinen Plan.
Ein halbwegs kompetenter Tester der sich Mühe gibt und einen ordentlichen Job macht lernt erstens nicht die ganzen verschiedenen Monitore auswendig und zweitens versucht er garantiert nicht absichtlich heraus zu finden welches Gerät welches ist sondern versucht so wenig wie möglich die Ergebnisse des Tests durch Vorwissen zu beeinflussen. Das was du als kompetenten Tester ansiehst ist genau das Gegenteil und sollte kein Tester sein dürften.
 
Zuletzt bearbeitet:
Die Framerange ist bei Vega bei Doom sowieso besser, die Schwankungen kleiner, einfach smoother.
Du spielst sicher mit einer 5650 oder sowas. Da ist die Framerange nochmal geringer und "smoother". So zwischen 0 und 2 FPS wird sich der Verlauf bewegen, also 2FPS Framerange. Da kannste Vega echt in die Tonne kloppen. ;)

Der Preis des Monitors spielt in solchen Überlegungen keine Rolle, denn der Monitor ist üblicherweise deutlich langlebiger als eine Grafikkarte.
Nicht nur das. Er ist normalerweise auch bereits vorhanden. Ich würde meinen 2 Jahre alten auch nicht wegen Freesync oder G-Sync eintauschen.

- - - Updated - - -

Vielleicht hat es AMd diesemal tatsächlich geschafft die Leistung so lange Geheim zu halten, um dann mal mit einer Leistungsbome zu überraschen, wäre doch mal wünschenwert oder nicht? ;)
Theoretisch ja. Praktisch bringt es wenig, wenn sich bereits fast alle aufgrund eben dieser Geheimniskrämerei längst eingedeckt haben.
 
ich habe mich eine ganze Zeit lang intensiv mit Panelen/Paneltechnik auseinandergesetzt. In dieser Zeit wusste ich ungefährt, was welche Panele zu leisten im Stande waren. Und entsprechend habe ich die TVs optisch auseinanderhalten können. Rahmen, Standfuß, Positionierung und Farbe der LED. Das kam mit der Zeit, ich habe das nicht absichtlich auswendig gelernt.
Da bist du also vielleicht ein wenig voreilig Gubbel ;)
Neben dem Punkt sei auch angemerkt, dass hier niemand irgendwem irgendeine Kompetenz absprechen kann. Wir sind hier in nem popeligen Internetforum. Und ausser deiner beachtlichen Anzahl an Posts kann ich an dir keinerlei Kompetenz entdecken ;) Also bleiben wir doch alle ein wenig entspannt :wink:
 
Das kann eigendlich nur bedeuten, dass die Leistung zumindest mit 1080ti vergleichbar ist!
Wie kommst du darauf? Weil sie 60$ mehr als eine 1080 kosten soll?
Die verlinke Aussage ist wertlos, da sie nichts darüber sagt in welchem Land Vega 850$ kosten soll. Und mit 790$ für eine 1080 scheint mir Schweden ein Sonderfall zu sein. Hierzulande gehts trotz Miningbooms bei 540€ los.
 
@audioslave
Du hast dich eine Zeit lang speziell mit Panelen und Techniken auseinandergesetz. Daraus auf die Tester zu schließen würde bedeuten, dass genau dass jeder gemacht hat und es gibt ja nicht nur Modelle von Asus sondern LG, Samsung, Acer und Co. Bei dem Blindtest wird man den Nutzern garantiert nicht gesagt haben, welche Monitore es sind sondern sie ganz einfach davor gesetzt haben. Jeder der sich nicht explizit mit den verfügbaren 21:9 Monitoren auseinandergesetzt hat wird wohl kaum bei einem abgeklebten Gerät an einem Hubbel (darauf spielt er vermutlich an) auf der Rückseite vom Bildschirm unter dem Stofftuch erkennen dass genau dieses Gerät der G-Sync Bildschirm sein muss. Wenn da jetzt eine einzige Person dabei war die das ggf. konnte wäre das schon viel.
 
Zuletzt bearbeitet:
Man kauft ja auch seine VGA auf längere Sicht, und auch wenn VGA xy jetzt bei Spiel yz genügend FPS liefert muss das ja nicht bei Spiel xz welches in 3 Monaten erscheint der Fall sein.
Logischerweise will man die VGA haben die vom P/L die längsten Balken liefert und das am besten nicht nur in einem Spiel.
 
Wie kommst du darauf? Weil sie 60$ mehr als eine 1080 kosten soll?
Die verlinke Aussage ist wertlos, da sie nichts darüber sagt in welchem Land Vega 850$ kosten soll. Und mit 790$ für eine 1080 scheint mir Schweden ein Sonderfall zu sein. Hierzulande gehts trotz Miningbooms bei 540€ los.

Die Währung ist doch egal, die Leistung der Grakas ist aber doch in jedem Land die selbe, oder nicht, daher meine Annahme. ;)

Edit:

Den Miningboom habe ich dabei nicht berücksichtig!
 
Zuletzt bearbeitet:
Ist schon klar was du meinst, trotzdem würde ich das nicht so einfach von der Hand weisen. Die Plasmas von Sony konnte ich ohne Blick auf den Rahmen unterscheiden von den Panasonics/LGs und ich bin kein ausgewiesener "Experte". Bei abgeklebten Rahmen kann man noch den Rand zwischen Rahmen und Panel sehen, da gab/gibt es zumindest bei Fernsehern Unterschiede, die man feststellen kann wenn man im Thema drin ist. Weiß ich nicht wie das am PC Monitor aussieht. Dieses Drama steht mir jetzt als nächstes bevor, ihr werdet dann von mir im Kaufberatungsthread lesen ;)

e: hups, das war an dich gubbel. Haben sich alle dazwischengedrängelt :O
 
Zuletzt bearbeitet:
Die Währung ist doch egal, die Leistung der Grakas ist aber doch in jedem Land die selbe, oder nicht, daher meine Annahme. ;)!
Klar, die Leistung ist überall gleich sofern kein GPS-Chip drin ist, der die Leistung je nach Ort einschränkt. :d Aber eben nicht der Preis. Wenn ich einen schwedischen Preis von Produkt A mit dem Amerikanischen von Produkt B vergleiche, kann ich keine Rückschlüsse daraus ziehen wie gut das P/L-Leistungsverhältnis beider Produkte ist, da wie man sieht der Preis in Schweden abartig hoch ist. Entweder aufgrund des Minigbooms oder weil Nvidia dort den Preis nicht gesenkt hat. Ich tippe auf Ersteres. AMD wird in die UVP jedoch sicher nicht den Miningboom einberechnen.

Zudem ist so eine Angabe wie "ein Händler aus XYZ soll gesagt haben" etwas was sich jeder aus den Fingern saugen kann. In ein paar Tagen wird AMD die Hosen runterlassen und dann kennen wir die UVP. Bleiben danach immer noch Fragen offen, dann sollten sie Vega besser erst gar nicht mehr veröffentlichen...
 
Bleiben danach immer noch Fragen offen, dann sollten sie Vega besser erst gar nicht mehr veröffentlichen...

Jap, hab ja immer gesagt, dass Navi das interessantere Produkt von beiden sein wird, aber wir werden sehen. :coffee:

BTW: In einer UVP darf so ein Umstand wie das Mining eigendlich garkeine Berücksichtigung finden, es sei denn AMD hat zu weing Output/Menge.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh