AMD Radeon RX Vega 64 und 56 offiziell vorgestellt – Preise, Details und mehr

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja die 2 8er Stecker sind nur zur Zierde da. Die Vega holt sich ihre ganze Power aus dem PCIe-Slot.
 
Ja die 2 8er Stecker sind nur zur Zierde da. Die Vega holt sich ihre ganze Power aus dem PCIe-Slot.

Theoretisch sind dann 375 Watt möglich, richtig?

Zum Glück hat AMD ein Mittel dagegen: Chill
 
Zuletzt bearbeitet:
+1. watn dämlicher 4k-Hype ...

Habe einen 4K Monitor in der Firma und jetzt daheim mit Freesync. Kann mich bisher nicht beschweren. Höhere Auflösung ist mehr Inhalt auf dem Bildschirm. Was viele vergessen mit einem 4K Monitor kann problemlos eine niedrigere Auflösung gefahren werden, je nach Spiel oder sonstigen Bedarf. Es ergeben sich viel mehr Möglichkeiten, seine Wünsche, Qualität und Performance anzupassen. Das Einzige was mich an Vega stört ist der hohe Stromverbrauch und die vorraussichtlich nicht optimale Performance der AMD Treiber zum Start. Bei GCN 1.0 haben die über die Jahre einen ordentlichen Sprung gemacht von 20-30%.
 
Zuletzt bearbeitet:
Theoretisch sind dann 375 Watt möglich, richtig?

Zum Glück hat AMD ein Mittel dagegen: Chill
Chill muss doch auf spiel-basis implementiert werden? Dann wirds eh keine arg verbreitete lösung.

Und wenn die karte ihre leistung ausfahren soll/muss, wird sie die 375W auch genüsslich nutzen.

TDP heißt bei GPUs ja schon lange das gleiche wie max Power Draw und im Alltag boosten die Dinge halt, bis sie das erreichen, sofern sie nicht davor überhitzen.

FE zeigte ja auch, dass Vega das PT nutzt.

Mal hoffen, dass die AIBs das richtig hinkriegen. Wenn MSI da versucht ne Armor zu pushen...gut nacht.

Sent from OP3T
 
Zuletzt bearbeitet:
Amor wäre immer noch besser als die ASUS Turbo oder sonstige Billigblower :d
 
Chill muss doch auf spiel-basis implementiert werden? Dann wirds eh keine arg verbreitete lösung.
AFAIK läuft das mit Profilen, die dann AMD erstellt werden bzw. es gibt eine Whitelist, die auch nicht groß zu sein scheint:
Radeon Chill


Es scheint auch nur in halbwegs ruhigen Szenen wirklich etwas zu bringen, also wenn man im 3D-Shooter stillsteht. sobald man rennt verpufft der Effekt, da wieder hohe FPS benötigt werden:
AMDs Chill: Treiber-Feature als Wunderwaffe fürs Stromsparen?
Es kann auch nur dann etwas bringen, wenn man von den FPS her genug Puffer nach unten hat. Ist die Karte also schon nah am Limit, holt man entsprechend wenig raus. Ich sehe das daher eher als nette kleine Schadensbegrenzung an.

01-FPS-Bar-Graphs.png


06-Power-Consumption.png



Mal hoffen, dass die AIBs das richtig hinkriegen. Wenn MSI da versucht ne Armor zu pushen...gut nacht.
MSI und Vega? Das scheinen mir zwei Dinge zu sein, die nicht zusammenpassen. :d
 
Zuletzt bearbeitet:
Wenn Anti Aliasing (Kantenglättung) und Anisotrope Filterung (Texturschärfung) in einem Zug genannt werden sieht man schon, daß Leute gar nicht wissen was es ist.
Da es um UHD/4K geht macht es eigentlich keinen Sinn über AA zu reden weil es zu viel Performance kostet aber AF ist optisch immer wichtig und senkt die FPS kaum.
Klassisches AA wie MSAA lohnt sich selbst in FHD nicht und mit 4x DSR sieht das Bild besser aus. Das optisch beste AA SGSSAA geht seit DX10 ja leider nicht mehr. :shake:

Selten so einen Bullshit gelesen. Natürlich braucht man bei UHD immer noch AA, teilweise stört das Aliasing sogar mehr als unter FullHD, da es (weil feiner) sehr viel mehr flimmert und flackert. Das gute an UHD ist wiederum, das man in der regel viel weniger AA braucht als unter FHD um das weg zu bekommen. DSR ist aufgrund der enormen Rechenleistungsverschwendung nur was für Menschen, deren Monitor absolut unterdimensioniert ist. Das hatte vor QHD und UHD noch eine Berechtigung (irgendwie), aber jetzt wo man UHD recht billig haben, ist es nur noch Blödsinn.
Wieso sollte man UHD berechnen lassen und dann nur auf FHD anzeigen, wenn man es auch gleich in UHD (+ 2x oder 4x AA - kostet meist kaum FPS) haben kann.
Vor meinem ersten UHD, hatte ich auch die Hoffnung, das man dann keine Filter mehr braucht (wenn man dafür empfindlich ist, ist ja auch wieder eine extrem subjektive Sache), wurde dann aber schnell eines besseren belehrt.
 
@ Performer: Du hast echt 0 Ahnung von was du hier schreibst. Komischerweise laufen selbst Spiele wie Battlefront, Warthunder bei mir mit durchgängig 60 FPS, obwohl alles auf Ultra + volle Filter. Lediglich Spiele wie Mass Effect Andromeda usw. brauchen ein paar Anpassungen in den Einstellungen (laufen dann aber auch mit AA für die größten Teile des Spiels mit 60 FPS, einige Gebiete auch mal bis auf 40 runter, jedoch keine Gebiete in denen gekämpft wurde).
Auch hast du wohl noch keine UHD TN Panel gesehen, den deren Qualität ist um Meilen besser, als die der FHD (und sind auch gut genug für diverse Designer die ich kenne, aber hey, die verdienen ja nur ihr Geld damit ;) ). Aber was weiß schon jemand, der sich einen Teilzeit "IPS" Monitor kauft und sich dann darauf was einbildet ;). Auch ist deine Aussage von "mehr als 60HZ" schon Schwachsinn, den bei neueren Spielen bleibt bei deinem DSR und deiner niedlichen 1080 (aus welcher Hölle kommt den dein PC, unter Höllenmaschine versteht man normalerweise etwas anderes) erst recht keine 60 FPS, womit dir die mehr HZ auch nicht mehr viel bringen.
Vielleicht solltest du dich erst einmal informieren und in dich gehen, um zu wissen was du wirklich willst, bevor du hier wild Dinge durcheinander wirfst, die sich massiv widersprechen ;).
 
Zuletzt bearbeitet:
Oh man, jetzt vergleichst du TN mit OLED. Darüber hinaus ist deine Liste auch Schwachsinn, weil das meiste sind keine Panel, sondern Technologien, die man mit Paneln kombinieren kann (du kannst Direct LED und Dimming auch mit einem TN bauen - also widersprichst du dir mal extrem, schon wieder). Und jemand mit FHD braucht von Bildqualität in Zeiten von UHD nicht reden ;). Was hast du von etwas besseren Farben, wenn das Bild nur Matsch ist? Am Ende nutzt du noch die ganzen tollen "Gaming" Features (wie massives Overdive, das zu massiven Ghosting führt) und hast deinen Monitor auch 0 kalibriert (dann hast du eh total falsche Farben und Kontraste und komm jetzt nicht damit, das du ein paar Optionen verstellt hast, zum kalibrieren braucht man ein eigens dafür gebautes Gerät). Aber das reicht jetzt auch wieder mit Offtopic, war mal wieder Lustig deine underperformence zu sehen ;), hatte einiges zu Lachen, also danke dafür :).
 
Zuletzt bearbeitet:
Ahh ich soll meine Karte drosseln. Hm kann ich bei Nvidia auch. Nennt sich Frameratenbegrenzung. Oder ich senke per Afterburner die TDP ab.
 
Sorry für mehrere Seiten back-Quotierung.

Jetzt hast du ihn aber argumentativ ausgehebelt, Glückwunsch.
Keine Ahnung ob das Ironie sein soll oder nicht, aber ich gehöre zu diesen 0,77% und von daher: Nö, hat er nicht. Was der Rest der Welt macht kann für meinen Einsatzbereich egal sein. AMD ist der Rest der Welt natürlich nicht egal, weil die ja Geld verdienen müssen. Nur: Ich bin nicht AMD - ich kaufe was zu meinem Einsatzzweck passt. (Und der ist Star Citizen)

btw - es gibt frisch vom Bäcker frische Brötchen und Linux Benchmarks:

https://www.phoronix.com/scan.php?page=article&item=radeonsi-beats-wingl&num=2

Linux ist TROTZ Ports (nochmal, die kosten im gut programmierten Port 10-15%, im Durchschnitt ~30% und bei schlechten Ports 50% und mehr Leistung) sehr nahe an Windows 10 dran. Für zukünftige native Vulkan-Spiele (mein Einsatzfall) wäre es ein Schuss in meinen eigenen Fuß, wenn ich nicht auf Linux+AMD setze.

0,77% hin oder her - die Treiber unter Linux sind besser und zu mindest sind für mich alle Spiele drin, die mich interessieren. Das ist aber ein subjektiver Punkt und von daher macht es wenig Sinn meine Spiele-Bibo mit der von anderen Leuten zu vergleichen. Das muss halt jeder selbst einschätzen.

Ansonsten steht mein Punkt: "Echte Gamer" optimieren stundenlang ihr System für gute Performance und ne zweite SSD mit Linux drauf sollte für die kein Problem sein.
 
Zuletzt bearbeitet:
Hat die Luftgekühlt Variante eigentlich auch 2×8Pin oder ist das noch nicht bekannt?
Wäre ja cool da ein 345W Bios von der Liquid drauf zu packen und dann einen Ek Wasserkühler zu montieren und an meinen Mora 3 hängen
345W könnten bei OC auch schon recht früh limitieren.
Mal schauen ...wen die Preise mal fallen würde ich so ein Kärtchen auch mal ausprobieren .
Mich würde mal interessieren was da Max Takt mit der guter Kühlung und mehr Spannung geht.
Ob man da vielleicht doch so an die 1900 schaft.
Ich erinnere mich an meine HD7970 Perle mit 1390 MHZ.
 
Zuletzt bearbeitet:
Hat die Luftgekühlt Variante eigentlich auch 2×8Pin oder ist das noch nicht bekannt?
Wäre ja cool da ein 345W Bios von der Liquid drauf zu packen und dann einen Ek Wasserkühler zu montieren.
Mal schauen wen die Preise mal fallen würde ich so ein Kärtchen mal ausprobieren.

Ich habe zu mindest noch keine "nicht 2x8 Pin" Version gesehen - von daher kannst du wohl mit gutem Gefühl davon ausgehen, dass alle Vega 64 Karten 2x8 Pin haben werden. Wie gut es unter Wasser läuft, kannst du ja mit Lüfter auf 100% "simulieren". In jedem Fall hat GN schon herausgefunden, dass Vega von der Reduzierung der Leckströme profitiert, wenn du die Karte unter Wasser setzt. Die 1700 MHz sollten dort in jedem Fall drin sein. HBM2 ist ne andere Geschichte, aber 1100 MHz sind da imho das zu erreichende Ziel zum overclocken.
 
Zuletzt bearbeitet:
Mit Luft OC Simulieren geht gut im Winter .
Meine 980Ti 360 W konnte ich mit dem Mora unter bei um die 35°C halten .
 
Ich habe zu mindest noch keine "nicht 2x8 Pin" Version gesehen - von daher kannst du wohl mit gutem Gefühl davon ausgehen, dass alle Vega 64 Karten 2x8 Pin haben werden. Wie gut es unter Wasser läuft, kannst du ja mit Lüfter auf 100% "simulieren". In jedem Fall hat GN schon herausgefunden, dass Vega von der Reduzierung der Leckströme profitiert, wenn du die Karte unter Wasser setzt. Die 1700 MHz sollten dort in jedem Fall drin sein. HBM2 ist ne andere Geschichte, aber 1100 MHz sind da imho das zu erreichende Min-Ziel zum overclocken.



Hoffe sehr, dass mit mora mehr als nur gerade 2% oc drin liegen. ;)
Aber bin schon mega gespannt, was da noch geht. Obwohl im moment ja eigentlich alles nach "bereits an kotzgrenze" aussieht.
 
Die Stock-Varianten kommen halt an die 80°C ran (FE) und 35°C bedeutet eine merkbare Reduzierung der Leckströme - ergo auch besseres overclocken. Was du unter Luft an OC findest ist also worst-case für WaKü. Buschfunk sagt, dass AMD sehr konservativ ist, was Voltage settings angeht und dass da zu mindest ne Menge Undervolting-Potential drin sein soll. Die 1.2V sind ja von Haus aus schon grenzwertig.

Was bleibt ist zu gucken, in wie weit den HBM2 übertaktet bekommst. Dort hängt anscheinend ne Menge Performance drin und Vega skaliert mit Core+HBM2 Übertaktung wesentlich besser als nur mit dem Core. Zum Glück kann man dem Speicher problemloser höhere Voltage an den Kopf werfen als dem Core - wo dann eigentlich nur noch der Speichercontroller selbst als Limit übrig bleibt.

Ich warte mal Buildzoids overclocking-Resultate ab und guck mal, in wie weit man HBM2 tweaken kann. Den sehe ich nämlich als Haupt-Flaschenhals an.

edit:

Hoffe sehr, dass mit mora mehr als nur gerade 2% oc drin liegen. ;)
Aber bin schon mega gespannt, was da noch geht. Obwohl im moment ja eigentlich alles nach "bereits an kotzgrenze" aussieht.

Jupp - ist an der Kotzgrenze. Ist wohl dem Release-Sprint geschuldet und AMD hatte wohl einfach keine Zeit dort zu optimieren und haben dort einfach die "sicheren Voltages für die funktionierenden Chips nach den ersten paar Batches genommen". Anders kann ich mir die 1.2 Volt nicht erklären. Ist halt einfach "Hiermit laufen alle Karten" und nicht "Soweit können wir runtergehen".

GN hat mit etwas getweake ja schon enorme Verbesserungen in Taktstabilität, Stromverbrauch etc gesehen. Ist natürlich Chip-Lotto - wenn man Pech hat und ne Möhre abgreift sitzt man halt auf den 1.2 V fest, das ist aber bei allen Karten so (auch von Team grün).

Meine kürzlich verstorbene 7970 war im ASIC 54% und war damit im 6% Bereich der Gauss-Kurve - also eigentlich die letzte Kartoffel. Ich hab sie trotzdem auf 1150/1450 übertakten können und sie hat 6 Jahre lang gehalten.
 
Zuletzt bearbeitet:
Hier mal ein bisschen was zum Overclocking und unter Wasser setzen der luftgekühlten Version
Die 1700 Mhz als "das schaffen alle" sind ein bisschen unrealistisch, wenn man sich das Fazit von Gamers Nexus durchliest (und wenn man überlegt dass die Wakü-Variante mit Boost von 1665 MHz verkauft wird, ist eigentlich OC-Potential gleich 0, vom HBM2 abgesehen)

The Vega FE Hybrid mod posted reasonable gains in overclocking over the air-cooled counterpart, something we originally thought was due to more aggressive clock scaling at lower temperatures ? similar to what?s seen on Pascal. We later learned it was to do with power leakage and power limitations on the GPU, as we?ll dig into momentarily. We were able to max-out our stock card overclock at around 1660MHz with an 1100MHz HBM2 OC, which we ultimately found to govern performance gains most heavily.
The Hybrid card, with the help of some fans pointed at the VRM components, was able to overclock to 1705MHz completely stable, with an 1105MHz HBM2 OC. We ended up running all our tests at 1700/1100 for now, but will be revisiting with slightly higher clocks later. The VRM fans proved unnecessary after more testing, but we?ll get to that momentarily.
Pushing to 1710MHz resulted in a near-instant crash, and measuring at the PCIe cables shows that this is when power throttling begins to occur with greater frequency (causing the instability and subsequent crash). We?re hoping to attempt some BIOS mods ? no promises ? to increase TDP. Just depends on what tools are made available to us, or what we can figure out through external tools.
AMD Vega Hybrid Mod: Fixing Power Leakage for Higher OC | GamersNexus - Gaming PC Builds Hardware Benchmarks
 
Zuletzt bearbeitet:
Na ja, die Liquid Varianten kommen Stock mit 1.677 MHz - ich denke schon, dass die 1.700 dort drin sind. Kann natürlich sein, dass das schon speziell ausgesuchte Versionen sind - was XTX ja sein könnte. Oder es ist nix ausgesucht und es wird einfach nur XTX genannt, weil ne WaKü drauf ist. (Hier gibts aber auch wieder das Gegenargument, dass es XTX für Air geben soll - also noch ziemlich viel grauer Nebel hier)

Die 1100 auf HBM2 hätte ich aber schon gerne.
 
vega 56 könnte mit oc durchaus interessant werden was preis/leistung angeht
Radeon RX Vega 56 Reportedly Beating GTX 1070 by 20%

Ergebnisse, bei denen 2 Benches bei einer Karte auf das Zehntel genau die selben FPS haben betrachte ich grundsätzlich äußerst kritisch, da die Wahrscheinlichkeit dafür gen 0 tendiert. Entweder Kopierfehler bei einer der Werte oder aber eben keine echten Werte.

Ansonsten wäre es wenig überraschend, dass die 1070 von einer Vega 56 geschlagen wird. Die Unterschiede zwischen 56 und 64 Vega sind nicht so markant wie zwischen 1070 und 1080.

PS: es macht übrigens wenig Sinn, die genau selben geleakten Daten 20Minuten und 2 Posts später nochmal aus einer anderen Quelle zu verlinken, die auch nur abschreibt...
 
Zuletzt bearbeitet:
vega 56 könnte mit oc durchaus interessant werden was preis/leistung angeht
Radeon RX Vega 56 Reportedly Beating GTX 1070 by 20%

Hmm dann dürfte zwischen Vega 56 und 64 aber so gut wie gar kein Unterschied sein, die 1080 ist ja schon nur 21% schneller als die 1070, dann wäre Vega 56 ja etwa auf dem Niveau der 1080, damit müsste die 64er sogar bei ~14,2% mehr Shader ~10% schneller sein als die 1080.
Dazu hat die bisher als zur 1080 gleichwertig angesehene Vega 64 Liquid auch noch 14% mehr Takt als die 56er, irgendwas passt da nicht, kommt Vega 64 LQ dann vielleicht doch knapp unter die 1080 Ti?
Wäre doch etwas merkwürdig, dann hätte AMD doch ganz anders dafür geworben.
 
Zuletzt bearbeitet:
Hmm dann dürfte zwischen Vega 56 und 64 aber so gut wie gar kein Unterschied sein, die 1080 ist ja schon nur 21% schneller als die 1070, dann wäre Vega 56 ja etwa auf dem Niveau der 1080, damit müsste die 64er sogar bei ~14,2% mehr Shader ~10% schneller sein als die 1080.
Dazu hat die bisher als zur 1080 gleichwertig angesehene Vega 64 Liquid auch noch 14% mehr Takt als die 56er, irgendwas passt da nicht, kommt Vega 64 LQ dann vielleicht doch knapp unter die 1080 Ti?

Prozentrechnung einfach erklärt ;)
 
Nicht vergessen, AMD zeigte keine durchschnitts FPS sondern 99 Percentile Werte bzw. Mindestfps. Daraus kann sich die Differenz hier ergeben. Ansonsten halte ich die AMD eigenen Angaben für glaubwürdiger als "geleakte" FPS Werte. Soweit ich weiß gab es bisher weder Samples noch sind die KArten kaufbar. Es ist also fraglich, wie dieses geleakten Werte enstanden sein sollen.
 
Die TDP ist extrem hoch und der Speichertakt ziemlich gering, immerhin haben sie dafür die Preise angepasst, wäre die Vega 64 auf 1080Ti Niveau geblieben wär das ein Griff ins Klo
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh