Warum sollte man nur wegen einem unnötigen Feature - gerade bei einem Monitor mit so einer hohen Anzahl an Hz, wo Tearing so gut wie nicht mehr erkennbar sein sollte - auf ein drittel Leistung verzichten? Was bringt es dir?
Wärst du von einer 1080 auf eine Vega64 umgestiegen nur wegen Freesync, dann wäre das ja noch irgendwo verständlich, weil kaum Unterschiede bei der Leistung, aber dafür den geringen Vorteil durch Freesync, welcher mir persönlich nicht einmal das Umbau der Karten wert wäre. Aber du nimmst hier deutliche Nachteile in Kauf. Verzicht auf 3GB Vram und gut ein Drittel weniger Leistung. Diese Nachteile überwiegen auch locker den Vorteil, welchen du aus Freesync ziehst. Mit so einem 240hz Monitor bist du doch an High-FPS-Gaming interessiert. Durch dieses Downgrade verlierst du deutlich an Leistung. Dieser massive Verlust an FPS wirkt sich extrem negativ auf der Spielerlebnis aus und Freesync kann dies nicht im geringsten kompensieren..
Halber Stromverbrauch bei mehr Leistung, ist schon ein starkes Stück, mein Durchschnitts verbrauch ging von 420w auf 280w Gesamtsystem runter, im Test erreicht sie gute werte
Klaaaar und du hast vergessen anzugeben, dass sich der Vram auch noch verdoppelt hat.
Bis jetzt war ich nicht einmal enttäuscht über den Wechsel oder habe irgendwo einschnitte bemerkt, ich spiele auch nur in Full HD mal angemerkt.
Du möchtest uns hier also echt weismachen, dass du bei dem Downgrade von einer 1080ti auf eine Vega56 keinerlei Einschnitte bei der Leistung bemerkt haben willst, obwohl da mal eben gut ein drittel an Leistungsverlust auf dem Zettel stehen?
Es ist ja bekannt, dass so ein Ryzen die 1080ti teilweise nicht ganz auslasten kann und an der ein oder anderen Stelle limitiert. Ich bezweifle aber ein bisschen, dass der Ryzen so schwach ist, dass der eine 1080ti bei Full HD so dermaßen einbremst, dass ein Unterschied zur Vega56 nicht mehr erkennbar ist..
Hier wird ganz gut gezeigt wie Effizient Vega sein kann, meine ist noch ein Stück effizienter 0.89v, unter last liegen aber 0.9v an
AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx
Tja, nur das irgendwie keine andere Redaktion die erreichten Werte aus diesem Test reproduzieren konnte. Angaben darüber, wie stabil die Karten mit den Settings auch abseits der Tests gelaufen sind, sucht man vergebens sowie Angaben dazu, ob die Settings auch in Langzeittests stabil waren. Zwischen eine Karte hart auf Grenze zu undervolten, sodass diese paar kurze Tests für paar Minuten standhält, und eine Karte so zu undervolten, dass sie auch wirklich in jeder Lebenslage stabil ist, können teils schon ziemlich große Unterschiede bei der Leistungsaufnahme ausmachen. Igor schrieb z.B. folgendes: "
Doch was erreicht man mit derart massiven 400 Watt Leistungseinsatz? Wenn wir die unrealistischen, ohne echte 3D-Last in AutoCAD 3D erreichten Spitzen von knapp 1800 MHz einmal weglassen und uns stattdessen auf echte Durchschnittswerte bei echten Spielen konzentrieren, die zudem noch über 30 Minuten stabil und sauber gehalten werden können, dann fällt das Ergebnis (immer in Abhängigkeit zur benötigten Leistung) weitaus magerer aus. Also entweder haben wir einen absoluten Potato-Chip erwischt, oder andere Tester hatten Golden Samples bzw. haben veraltete, fehlerbehaftete Treiber genutzt (siehe Einführung). Dazu kommt der Umstand, dass Wattman aktuell für filigraner ausgetestete Übertaktungen trotz Update noch nahezu unbrauchbar ist. Die manuelle Takt- und Spannungsvorgabe der beiden höchsten DPM-States ist mangehhaft und führt sehr schnell zu einem unerwarteten Verhalten (bis hin zu Abstürzen). Einzig die prozentuale Taktanhebung ließ sich ansatzweise nutzen. Unigine Heaven in niedrigsten Settings schaffte es bei Full-HD immerhin noch auf knapp 1,7 GHz, während Doom in Ultra-HD nur bis 1673 MHz stabil lief. Unser Stabilitätstest Witcher 3 hingegen schafft es bei Ultra-HD nur noch auf 1,6 GHz. All dies ist ein weiterer Indikator dafür, dass hier die zugeführte Leistung der limitierende Faktor ist."
Da fragt man sich doch, haben die da wirklich nur einen Potato-Chip erwischt oder liegt es daran, dass die mehr auf Stabilität geachtet haben?
Bitte sieh davon ab diesen komischen Vega-Huldigungsthread zu verlinken. Das letzte Mal als ich da reingeschaut habe, da haben sich User gegenseitig angezickt und der Lüge bezichtigt.
Dir ist aber schon bewusst, dass die 3GB Version der 1060 auch weniger Shader hat als die 6GB Version und der Leistungsunterschied wohl eher daraus resultiert?
Nvidia GeForce GTX 1060 3GB vs 6GB review Eurogamer.net
Erst bei 1440p fängt die 3GB Version an zu straucheln..
Man muss abwarten, es ist auch nicht ausgeschlossen, dass Nvidia noch eine Version der RTX2060 mit 8GB nach schiebt, wenn der Druck zu groß wird.
Ach nur weil da jetzt wieder ein paar Deppen versuchen einen Skandal zu sehen, werden die wohl nicht diesen Aufwand betreiben. Vor allem weil es ja nicht nur mal eben 2GB dranlöten ist..
Laut den den ganzen Kritikern war die 1060 mit 6Gb ja schon eine Totgeburt und schon lange nicht mehr nutzbar.