ASUS zeigt die ROG STRIX RX Vega 64 OC Edition

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
asus-vega.jpg
Heute Nacht kündigte AMD die Radeon RX Vega 64 und 56 in vier Varianten an. Diese sollen allesamt ab dem 14. August verfügbar sein. In einem ausführlichen Bericht zu Radeon RX Vega 64 und 56 schauen wir uns die Karten, die Vega-Architektur und alle Details zu Vega genauer an.Bekannt is auch: Später im Jahr soll es auch Custom-Modelle der Radeon RX Vega geben. AMD spricht für die Verfügbarkeit dieser Karten offiziell vom vierten Quartal. Einige Hersteller könnten auch schneller sein – so AMD. Nun hat ASUS die ROG STRIX...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Natürlich mit DVI,wenn man nen DVI Monitor und die Grafikkarte auch . Kann man unter umständen 60 HZ Monitor (Auf FULL HD) per DVI Anschluss und zb. EVGA PIXEL OC auf 120 HZ + bringen. HDMI /Display port kriegt man Maximal auf um die 75 hz.
 
Hmm... scheint so, als ob Asus die Strixx-Linie vollautomatisiert hat - auch im Design. DVI macht imho keinen wirklichen Sinn, aber so lange HDMI 2 und DP 1.4 dabei sind, kanns einem egal sein.

Warum nicht die XTX als Strixx-Version?
 
sieht aus wie jede andere strix von asus, das könnte im bild genau so gut ne rx 480, gtx 1060/70/80(ti) oder was weiß ich alles sein..da wirklich was neues sehe ich da nicht
 

Den Part verstehe ich auch nicht ganz. Wer soviel Geld für eine Karte zahlt wird vermutlich auch keinen Monitor mit DVI haben. Stattdessen noch einen DP wäre edel :) (Würde mir aber dieses Jahr eh nicht viel bringen)
Alternativ noch warten und gucken was die Nano am Ende leistet :)
Schwierig wenn man plötzlich die Wahl hat :P
 
Kann ja eigentlich nicht mehr als 499€ kosten weil sonst kauft man eine GTX1080 die weniger Strom verbraucht !?

Logik zieht hier diesmal nicht, die normale Vega kostet ja schon 499€(wenn 1:1 umgerechnet wird, wie eigentlich immer).
Der einzige Vorteil bei der Vega wird eben sein, dass Freesync billiger ist als Gsync.
Bei dem Preis, kauf ich mir lieber eine gtx1080, wenn die mal wieder für 450-480€ im Angebot ist.
 
Zuletzt bearbeitet:
mein 190 euro dell u2414h hat direkt 2 dp für daisy chain. also teuer sind DP monitor nun wirklich nicht^^
 
Storm41 hab bei mir an mein 2ten PC nen 29 Zoll ASUS PB298Q Monitor mit 2560x1080p er verfügt über DVI /HDMI /Displayport bzw. er hat standardmässig 60 HZ. Mit Displayport erreich tman mit glück 85-86 HZ beim Monitor Overclocking bei HDMI um die 75 HZ ,bei DVI hab ichs auf 120 HZ laufen 122/123 herz gehen auch . Habs seit 1 Jahr so laufen , würd zumindestens mit den Monitor nicht mehr auf HDMI /Display port wechseln. Mein Hauptmonitor am richtigen PC läuft über Dispayport bei einer auflösung von 3440x1440p auf 75 hz .
 
Warum nicht die XTX als Strixx-Version?
Weil XTX nur die WaKü- Referenzkarte von AMD genannt wird.
Ist aber völlig egal, die höhere TBP können die Hersteller im BIOS sowieso umsetzen und es kommen sicher andere Hybrid oder WaKü-Versionen.
 
Weil XTX nur die WaKü- Referenzkarte von AMD genannt wird.
Ist aber völlig egal, die höhere TBP können die Hersteller im BIOS sowieso umsetzen und es kommen sicher andere Hybrid oder WaKü-Versionen.

Hmm... Videocardz berichtet von XTX (Air) für AiBs. Deswegen wundert es mich, dass die Strixx nicht direkt auf XTX geht. FALLS es ein Binning gibt, hätt ich gerne die "guten". Falls nicht, isses egal und ich hol mir ne Standard Vega 64 XT und klatsch ne custom WaKü drauf.
 
bin da vllt eine minderheit, aber mein 1440p monitor hat zb nur dvi.

Nö bist du nicht. Mein 1600p Display besitzt auch "nur" DVI. Ohnehin mechanisch das beste Kabel und keine Kompatibilitätsprobleme wie bei DP und HDMI.
Bin immer wieder froh, dass die Hersteller die Designfehler von AMD im Nachhinein ausbügeln.
 
...wenn 1:1 umgerechnet wird, wie eigentlich immer)...
Ich meine Ryzen war nicht 1:1 umgerechnet, bin mir sicher dass da die Preise in Europa real umgerechnet wurden. Müsste aber selbst erstmal nachgucken und lege die Hand nicht ins Feuer :)



bin da vllt eine minderheit, aber mein 1440p monitor hat zb nur dvi.

Ok, der Part überrascht mich. Hätte echt nicht erwartet, dass DVI jenseits von 1080p Verwendung findet. Dann lag es damals wohl an meinem Monitor, mit dem hatte ich das Problem das ich bei gewissen Anschlüssen einen Deckel bei der Bildwiederholung hatte (aber keine Ahnung mehr welcher Monitor das war, glaube irgendeine Krücke von Acer)
 
Ok, der Part überrascht mich. Hätte echt nicht erwartet, dass DVI jenseits von 1080p Verwendung findet. Dann lag es damals wohl an meinem Monitor, mit dem hatte ich das Problem das ich bei gewissen Anschlüssen einen Deckel bei der Bildwiederholung hatte (aber keine Ahnung mehr welcher Monitor das war, glaube irgendeine Krücke von Acer)

das ding was ich hier stehen hab ist nen X-Star DP2710 koreaner den ich bei bedarf auch mit 110hz betreiben kann, die dinger waren 2013/2014 aus p/l-sicht mit ihren 300€ der absolute geheimtipp, ich hab für das ding ein jahr später sogar nur 180 bezahlt^^

das ding macht nen super bild und aufgrund des single-imputs haben die dinger auch kein imputlag oder ghosting.


aber mal was anderes.. falls mir meine 1080 in 1-2 jahren wieder zu lahm ist und es dann vllt wirklich nur noch grafikkarten mit displayport gibt, reicht dann ein einfacherer adapter?

das es solche adapter prinzipiell gibt ist mir schon klar, aber funktionieren die auch bei dvi-duallink?
 
Zuletzt bearbeitet:
Pfff AMD hätte dem Topmodell ruhig 16GB Speicher gönnen können. Ist ja wie bei der Fury X vs. 980Ti.
 
imputlag oder ghosting bei einem Monitor, ok :popcorn:
iNputlag, maybe.

Aber DVI ist halt schon sehr in die Jahre gekommen, kenn das Problem leider aus Konferrenzräumen, Laptop entweder VGA oder HMDI Anschluss, helfen nur ein paar Adapter.
 
das ding was ich hier stehen hab ist nen X-Star DP2710 koreaner den ich bei bedarf auch mit 110hz betreiben kann, die dinger waren 2013/2014 aus p/l-sicht mit ihren 300€ der absolute geheimtipp, ich hab für das ding ein jahr später sogar nur 180 bezahlt^^

das ding macht nen super bild und aufgrund des single-imputs haben die dinger auch kein imputlag oder ghosting.


aber mal was anderes.. falls mir meine 1080 in 1-2 jahren wieder zu lahm ist und es dann vllt wirklich nur noch grafikkarten mit displayport gibt, reicht dann ein einfacherer adapter?

das es solche adapter prinzipiell gibt ist mir schon klar, aber funktionieren die auch bei dvi-duallink?

Klar funktionieren die. Hast dann aber maximal Singlelink. Du brauchst dann noch einen aktiven Adapter um auf 120 Hz zu kommen. Einer der Gründe, wieso ich mir jetzt einen neuen Monitor angeschafft habe.
 
Vermutlich weniger stark als die fehlende Leistung. Eine GTX 1080TI ist doch gar nicht der direkte Konkurrent.
 
Wirken sich die 8GB Speicher gegenüber den 11GB bei Nvidia stark aus? Was meint ihr?

Unter 4k ist es egal. 4k kann mit schlecht optimierten Spielen knapp werden, sollt aber gerade eben ausreichen - 4k auf halbwegs ordentlich programmierten Spielen sollte ebenfalls kein Problem sein. Sollte es trotzdem mal eng werden, ist HBM und die die neue Speicherverwaltungstechnologie so gut kombiniert, dass du selbst im Falle des Swappens kaum was davon mitbekommst - im Gegensatz zu früheren Generationen.

Alles in allem sollten 8 GB also "genug" sein.
 
Sollte es trotzdem mal eng werden, ist HBM und die die neue Speicherverwaltungstechnologie so gut kombiniert, dass du selbst im Falle des Swappens kaum was davon mitbekommst
Zuerst einmal haben wir die Auswirkungen von HBCC noch nie wirklich gesehen außer in irgendwelchen Marketing-Slides, zweitens muss der Entwickler bzw die Spieleengine die Nutzung von HBCC aktiv freigeben, von Haus aus ist HBCC deaktiviert. (siehe zB HWLX-Infoartikel über Vega)

Aber der VRAM-Vergleich gegen die Ti ist eigentlich unfair da sich Vega sowieso mit der 1080 misst und nicht mit der Ti und die beiden haben 8GB VRAM.
 
Zuletzt bearbeitet:
Zuerst einmal haben wir die Auswirkungen von HBCC noch nie wirklich gesehen außer in irgendwelchen Marketing-Slides, zweitens muss der Entwickler bzw die Spieleengine die Nutzung von HBCC aktiv freigeben, von Haus aus ist HBCC deaktiviert. (siehe zB HWLX-Infoartikel über Vega)

Aber der VRAM-Vergleich gegen die Ti ist eigentlich unfair da sich Vega sowieso mit der 1080 misst und nicht mit der Ti und die beiden haben 8GB VRAM.

Ja, HBCC muss vom Entwickler unterstützt werden - HBM2 an sich hat aber im Vergleich zu GDDR5 bessere Latenzen und das Swappen sollte weniger Einfluss (selbst ohne HBCC) auf das Spiel haben. Ansonsten hast du natürlich Recht, dass wir da erst einmal Benchmarks abwarten müssen, die genau das untersuchen. Bei den Standard-Balken Reviews werden wir das wohl kaum finden - da werde ich die Youtube-Reviewer abwarten. (Gamers Nexus etc)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh