AMD Radeon RX Vega 64 und RX Vega 56 im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Don, und welcher Algo gemined wird.
War nicht ne SHA-256 Einheit im Vega integriert?

Ethereum verwendet Ethash und keines der SHA-256-Derivate. Derzeit ist auch nicht bekannt, dass diese speziellen Instruktionen der Vega-Architektur von einer Mining Software auch schon verwendet werden.
 
Don, das war mir beides bewusst, ich meine nur, wenn die Einheit im Vega steckt, könnte noch was ganz dummes rumkommen. Mit dem steigenden Kurs von BTC könnte sich da ein Nische für "Hobbyminer" ergeben.
 
Ok, so war das gemeint. Ja beim aktuellen Bitcoin-Kurs könnte das sicherlich möglich sein.
 
Ja ne ist klar, ne 1080 non Ti ist für 4K gar nicht fähig 60+ Frames widerzugeben.

Ihr könnt nur misst schreiben.

Gesendet von meinem SM-G935F mit Tapatalk

Sorry, aber das ist Mis(s)t.
Mit meiner GTX1080 spiele ich einen relativ aktuellen Titel wie Battlefield 1 auf 4k, mit konstanten 60Hz, niedriges AA=on V-Sync=on, (leider ein Freesync Monitor) und die Ingame-Qualitätseinstellungen zwischen "mittel" und "hoch".
Würde ich AA und VSync aus lassen, würde ich an 3stelligen FPS kratzen.
Es geht besser (Ultra-Einstellungen sind nicht drin), aber das ist ja wohl locker als "4K-fähig" zu bezeichnen.
 
Zuletzt bearbeitet:
Lach, ich kann sogar mit einer GTX960 spiele in 4k spielen, die müssen nur alt genug sein ;)

Es kommt auf die genauen Rahmenbedingungen an. Auch eine 1080Ti kann nicht bei jedem Game und alles auf Anschlag 4k auf 60 FPS halten. Wer das von einer GPU erwartet, hat irgendwo den Sinn der Regler nicht verstanden ;)
 
wie schaffen sie es wieder so eine müllkühlung drauf zu packen, da limitiert man sich ja schon ab werk, nicht mal den boosttakt halten bei den refernzkarten :wut:

absolut unverständlich(und idiotisch), ich warte auf die customs, gehen die 56er um die 400 weg mit gescheiten kühlkonzept, wie meine alte trix, dann greife ich da vlt zu (P/L passt ja von den Frames schon und werden ja maximal schneller :d)
 
Zuletzt bearbeitet:
Gibtbes infos zu einer Nano version?
 
Ich habe übrigens vorhin mein Reward Code von MF erhalten.

War Prey und Sniper Elite 3 statt 4 :hust:
Ist jetzt für mich nicht schlimm, da für mich ehh nur Prey interessant war


Ich habe trotzdem mal ein Ticket geschrieben :fresse:
 
Zuletzt bearbeitet:
Danke für die Info Don.
 
cb hat Vega taktbereinigt mit Fury veglichen und die neue Architektur bringt sage und schreibe 6% Leistungsplus bei gleichem Takt - was soll man da noch sagen...
 
Sorry, aber das ist Mis(s)t.
Mit meiner GTX1080 spiele ich einen relativ aktuellen Titel wie Battlefield 1 auf 4k, mit konstanten 60Hz, niedriges AA=on V-Sync=on, (leider ein Freesync Monitor) und die Ingame-Qualitätseinstellungen zwischen "mittel" und "hoch".
Würde ich AA und VSync aus lassen, würde ich an 3stelligen FPS kratzen.
Es geht besser (Ultra-Einstellungen sind nicht drin), aber das ist ja wohl locker als "4K-fähig" zu bezeichnen.

Geil ne 1080 kaufen und auf Mittel zocken um Hauptsache 4K zu generieren. Dann lieber 1440p mit allem @Ultra und AA. Das sieht deutlich besser aus, als ein 4K mittel wischwasch...
 
Geil ne 1080 kaufen und auf Mittel zocken um Hauptsache 4K zu generieren. Dann lieber 1440p mit allem @Ultra und AA. Das sieht deutlich besser aus, als ein 4K mittel wischwasch...

Das ist dermaßen verallgemeinert, dass es schon fast zu schade ist, Zeit für diesen Kommentar dazu auf zu wenden.

Aber ich mache es trotzdem.
Es ist schlicht zu allgemein gehalten, sich über "Regler nicht ganz rechts, aufzuregen. Bei einigen Games merkt man selbst in 4k kaum einen unterschied, aber der Auflösungsunterschied wird durchaus schnell deutlich.

Außerdem darf wohl jeder so spielen, wie es ihm beliebt. Mir wirft ja auch keiner an den Kopf, das ich doof sei wenn ich WoW auf einer Intel-IGP spiele, weil es mir da für bestimmte Situationen völlig reicht.

De facto spielen in diese Diskussion so viele Faktoren rein, dass man eben nicht einfach sagen kann, 4k ist Blödsinn, ultra Details sind Blödsinn, ...
Hier muss jeder für sich und für das jeweilige Game usw. die entsprechende (Auf)Lösung finden.
 
Das ist dermaßen verallgemeinert, dass es schon fast zu schade ist, Zeit für diesen Kommentar dazu auf zu wenden.

Aber ich mache es trotzdem.
Es ist schlicht zu allgemein gehalten, sich über "Regler nicht ganz rechts, aufzuregen. Bei einigen Games merkt man selbst in 4k kaum einen unterschied, aber der Auflösungsunterschied wird durchaus schnell deutlich.

Außerdem darf wohl jeder so spielen, wie es ihm beliebt. Mir wirft ja auch keiner an den Kopf, das ich doof sei wenn ich WoW auf einer Intel-IGP spiele, weil es mir da für bestimmte Situationen völlig reicht.

De facto spielen in diese Diskussion so viele Faktoren rein, dass man eben nicht einfach sagen kann, 4k ist Blödsinn, ultra Details sind Blödsinn, ...
Hier muss jeder für sich und für das jeweilige Game usw. die entsprechende (Auf)Lösung finden.

Genauso ist es. Mal abgesehen davon, dass es nichts mit dem Thema "GTX1080 nicht 4K fähig" zu tun hat, aber manchmal muss mal halt einfach mal andere Leute pauschal für doof erklären, um das eigene Selbstwertgefühl zu heben.
Weiterhin bin ich nicht auf den Kopf gefallen und habe natürlich andere Auflösungen durchprobiert, bevor ich mich entschieden haben, bei 4K und nur mittleren Einstellungen zu bleiben. Ergebnis: Ein hohes AA brauche ich bei 4K sowieso nicht, der Qualitätszuwachs durch die "Ultra" Einstellungen war überschaubar, aber der Qualitätsverlust durch's Upscaling deutlich sichtbar.
Das einzige, was ich mir ich nicht so optimal gelöst habe, ist G-Sync-Karte und Freesnyc-Monitor, so dass ich V-Snyc brauche. Aber beim Monitorkauf war ich noch fest davon überzeugt, die GTX bald durch eine Vega zu ersetzen ... :wall:
 
Zuletzt bearbeitet:
Finde das jetzt echt schade mit Vega. Habe extra meine 290x im Miningboom verkauft, immerhin habe ich 270€ auf Ebay dafür bekommen. :d

Allerdings steht der nächste Grafikkarten kaufen eh frühestens im Winter an. Bis dahin tut sich hoffentlich noch was. Die 290x hat bis jetzt immerhin auch ausgereicht, obwohl sie schon "alt" war.

Ich hoffe einfach wieder auf die Treiber bei AMD.

Andernfalls wird es wohl doch eine gebrauchte 1080 oder TI.

Der Verbrauch ist mir egal. Ich zocke eh maximal 6 Stunden die Woche. Da fällt das nicht ins Gewicht. Wenigstens musste ich mit der OC 290X nicht mehr mein kleines Arbeitszimmer heizen. :d
 
@celsi
Geht mir auch so hab nen freesync 4k und ne 1080 V-sync bringt aber trotzdem nicht das was ich mit der 295X2 freesync gesehen habe als ich die noch hatte.
Ich hoffe jetzt mal das es die 56 er vega für ca 400 geben wird. Zur not hol ich mir dann zwei davon ich kam mit der X2 und damals mit 7970 crossfire auch gut zurecht. Meinen moni möchte ich nicht tauschen.
 
Zuletzt bearbeitet:
willkomen im Club :(

Ich hab freesync damals gekauft weil ich gehofft habe das nVidia den offenen standart doch mal supportern würde und es egal wäre welche karte ich kaufe, tja pustekuchen - und leider ist die vega zu schwach um diesbezügliich mehr druck auf nvidia auszuüben.

Und nun heißts warten bis es die 64 liquid um 600€ gibt oder doch ne 1080 neu oder ne 1080ti gebraucht irgendwo bekommen.
 
Mal davon abgesehen dass er seine Kündigung direkt abholen kann wenn er sich hinstellt und den Stuss NICHT verzapft. Dann doch lieber Stuss verzapfen, so eine lächerliche Petition einfach abprallen lassen und gut :d
 
Ja, wir benötigen dringend einen Sündenbock. :mad:
Ein Sinnbild wo wir all unseren Frust ablassen können. Er ist schuld an dem Mega-VEGA-Fail und nicht die User, die ständig nur an AMDs Radeons etwas auszusetzen haben, weil diese ein paar Frames langsamer sind und mehr Strom verbrauchen.

Nicht die ständigen - Ich hoffe das AMD erfolgt hat und kaufe mir trotzdem eine GTX-Karte, weil die dann günstiger werden - Leute, oder die ständigen - Ich hasse AMD und ihre Drecks-Produkte und jeder der AMD kauft ist ein debiler strunz doofer Vollpfosten! - Kommentargeber in jedem Forum...
Schuld ist alleine AMD an dem Rückstand im GPU-Sektor und deshalb kauft ja nicht AMDs-Radeons, sonst könnte sich tatsächlich auch mal etwas daran ändern.

Ich freue mich trotzdem auf meine bestellte VEGA mit Wasserkühlung. Sie ist schnell genug.

- - - Updated - - -

wie schaffen sie es wieder so eine müllkühlung drauf zu packen, da limitiert man sich ja schon ab werk, nicht mal den boosttakt halten bei den refernzkarten :wut:

NVIDIAs Founders-Edition war da nicht viel besser. Man hat aber gerne 100 Euro extra für ihn bezahlt. ;)

Von AMDs VEGA gibt es einen guten Refernzskühler. Nur der wurde hier eben noch nicht getestet.
 
Nicht unüblich, soll aber nicht unerwähnt bleiben: Offenbar lässt AMD GPU, Interposer und HBM2 von zwei Firmen zusammenbringen, was dazu führt, dass es Unterschiede in der Höhe zwischen dem HBM2 und der GPU gibt. Dies bedeutet wohl auch, dass der Kühler dementsprechend angepasst sein muss bzw. bei einem Höhenunterschied mehr oder weniger Wärmeleitpaste vorhanden ist. Gegenüber Hardware.info wurde dies von einem AiB bestätigt und auf den Bildern ist auch ein Unterschied zu erkennen. Mal sehen, ob wir noch eine News dazu machen, weil für dem Käufer einer Karte sollte es letztendlich keinen Unterschied machen.

Hardware.Info Nederland
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh