AMD Radeon RX Vega 64 und RX Vega 56 im Test

Du bist doch son Korinthenkacker. Er sagte klar ÜBER 4,2 GHZ. Mit Links mit 4,2GHZ belegst jetzt genau seine Aussage...


realmaddog sprach von 400-600 mhz. 600 mhz entsprechen bei einem 1800x 4.2GHz. Wenn du jemanden "Korinthenkacker" nennen willst, dann solltest du bei Shadow anfangen... Aber ist ja inzwischen bekannt das du dich gerne lächerlich machst. Naja, jedem das seine.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also der Turbo geht beim 1800 auf 4 ghz. Wo stand das man vom Basistakt ausgehen muss? Es ging ums übertakten, wenn der Turbo schon bis 4 ghz geht fängt für mich das OC ab 4 Ghz an.

PS: Geht dir eigentlich einer ab oder hast du Tourette? Frage nur weil irgendwie bei dir kein Post ohne persönliche Anfeindung von statten geht.
 
Zuletzt bearbeitet:
Wenn dann, muss man vom AllCore-Turbo ausgehen und der leigt bei 3,7 GHz. Also sind 200-500 MHz Übertaktungsspielraum.
 
Dann wären es aber auch 4,3 Ghz in der Spitze. ;)

Punkt ist, gefordert waren mehr als 4,2 Ghz, geliefert wurden 4,2 Ghz. Wie man auf die 4,2 Ghz kam, ist dann doch nebensächlich. Den die einschließlich 4,2 GHz hat Shadow nie in Abrede gestellt.
 
Zuletzt bearbeitet:
Also der Turbo geht beim 1800 auf 4 ghz. Wo stand das man vom Basistakt ausgehen muss? Es ging ums übertakten, wenn der Turbo schon bis 4 ghz geht fängt für mich das OC ab 4 Ghz an.

PS: Geht dir eigentlich einer ab oder hast du Tourette? Frage nur weil irgendwie bei dir kein Post ohne persönliche Anfeindung von statten geht.

Du kommst um die Ecke und betitelst mich als "Korinthenkacker" wenn ich nichtmal mit dir geredet habe. Und du wunderst dich wieso ich dich dann "anfeinde"? Schön wieviel du verstehst - damit Willkommen auf meiner Ignore Liste, hast du dir redlich verdient.
 
A) Könnte Ihr Euch das Flaming sparen? Schreibt Euch bitte per PN, dann könnt Ihr Euch gegenseitig anschnauzen solange Ihr wollt
B) Für Diskussionen zu Ryzen gibt es das CPU-Forum, da könnt Ihr die ewig gleichen Diskussionen weiter führen
 
@sheena, ich kann am Handy nicht alles prüfen, aber bei nem 1800x müssten bei 600MHz dann auch Single-Core auf 4600MHz gehen, das hab ich bisher nun mal nicht gesehen.
Deswegen halte ich Ryzen nicht für schlecht. Und empfehlenswert ist Ryzen für mich auch, aber AMD lässt ihn nahe des möglichen laufen, viel Spielraum ist nicht.

Vega sehe ich da ähnlich, auch hier ist nicht nur Schlechtes zu finden, trotzdem ist für mich da an einigen Stellen Verbesserungsbedarf.

AMD dürfte hier gern Anfang 2018 n Refresh mit besserem Spannungs-Takt-Verhältnis bringen.
 
Den Preis bekommt man nicht angezeigt, wenn man direkt auf den Artikel geht.
Einfach im Menü auf Mindstar klicken und dann erscheint sie - zumindest aktuell.

EDIT: Gerade nochmal auf den Link von Zahgurim geklickt und es wurden doch direkt 509 EUR angezeigt. Faszinierend, das ist nämlich regelmäßig auch Thema bei Mydealz wenn ein Mindstar Deal beworben wird.
 
Zuletzt bearbeitet:
weiß wer, ob es von den beiden Vega 16GB Ableger geben wird?
 
Gibt es doch schon. Nennt sich Frontier Edition

Gesendet von meinem ONEPLUS A3003 mit Tapatalk
 
Jup, zum doppelten Preis und nicht ganz prickelnder Performance beim Spielen.

Warum 16GB ist auch schnell beantwortet. Soweit ich mich erinnere, ...

1. liegen die Daten im CF auf beiden Karten
2. wären für 4K 8GB nicht die schlechteste Wahl
3. wären wir für ein CF in 4K schon bei 16GB
4. hätte ich gerne, bei Anschaffung eines neuen Systems 3 Vega (vorzugsweise 56)

Deshalb meine Frage nach 16GB.

Oder hat sich bei 1./2. was geändert oder liegen hier gar Fehlinformationen meinerseits vor? Kann ja sein, das ich da mal was falsch aufgeschnappt habe.

Und bitte keine Frage nach dem Sinn von 3-Wege CF und Stromverbrauch! Bitte. :wink:
 
Du hast bei CF weder 2x8=16GB, noch 8GB/2=4GB, sondern immernoch 8GB. Die Daten liegen hier gespiegelt in beiden Speichern vor.

Ich will aber anmerken, dass ich mir beim HBCC nicht mehr ganz sicher bin.
 
Daran ändert HBCC nur wenig, es kann sein, dass dadurch sinnvoll begründete leichte Datendifferenzen vorliegen, aber das wars wohl auch.
 
Wenn HBCC aktiv ist, speichert er natürlich nicht die Texturen usw. doppelt im RAM, sondern nur einmal. Das trifft allerdings dann "nur" auf ca. 32GiB VRAM zu(wenn man 64GiB RAM hat, bei 32GiB RAM kann man "nur" 16GiB als zusätzlichen VRAM nutzen). Die Texturen, die im HBM2 (8GiB) sind, werden wahrscheinlich auf beiden Karten vorgehalten, um den schnelleren Zugriff von beiden Karten aus zu ermöglichen.
Aktuell wird meistens der zusätzliche VRAM wahrscheinlich noch nicht in Anspruch genommen, weil 8GiB häufig noch ausreichen.
 
Zuletzt bearbeitet:
Ach das, ja, das wäre nur einmal, aber ja auch nur „Zusatzspeicher“, dessen Geschwindigkeit deutlich unter dem echt VRAM liegt.
 
Leider gibt's bisher nur wenige Details bzgl. CF bestehend aus zwei oder mehr Vegas.
Mit DirectX12 wäre der Nutzbare Grafikspeicher doch tatsächlich die Summe des VRAMs aller Grafikkarten - zumindest habe ich das bei der Ankündigung von DirectX12 so verstanden, genauso wie die Grafikchipherstellerunabhängig Unterstützung von Multi-GPU.

Spiele derzeit auch mit dem Gedanken zwei Vegas zu verwenden, aber wenn es am Ende kaum Mehrwert bietet kann ich mir das auch sparen.
 
Schon weg

Gesendet von meinem SM-A520F mit Tapatalk

Ach Quatsch, guck mal genau! :)

Den Preis bekommt man nicht angezeigt, wenn man direkt auf den Artikel geht.
Einfach im Menü auf Mindstar klicken und dann erscheint sie - zumindest aktuell.

EDIT: Gerade nochmal auf den Link von Zahgurim geklickt und es wurden doch direkt 509 EUR angezeigt. Faszinierend, das ist nämlich regelmäßig auch Thema bei Mydealz wenn ein Mindstar Deal beworben wird.

:bigok:
Das lustige daran ist, wenn MF die wieder auf 659€ hochsetzten und dabei immer noch Sonderpeis steht! :fresse:

Ich sag nur bei 509€ fühllt man sich nicht beschi..en! ;)
 
Zuletzt bearbeitet:
grundsätzlich sind die stockkarten gerade beim veag 64 einfach viel zu laut - gut der frisst auch massiv strom...
Und dieses extreme übertaklten undervolting versuche mit irgendwelchen zauberwerten weil hinten und vorn nix passt ist einfach ärgerlich.
War auch der grund warum ich die karte wieder retour gesendet habe und mit dann für 50 euro weniger ne 1080 geholt habe die deutlich leiser ist, die hälfte strom braucht und ca. die gleiche performance liefert ohne irgend ein OC rumgegimpe. Die Ryzen lassen sich echt gut OC'nm aber die VEGA's sind einfach mist.

Schade um den Freesync aber es macht einfahc keinen spass das seit der 7000er serie einfach nicht mehr viel nachgekommen ist.
 
Zuletzt bearbeitet:
Leider gibt's bisher nur wenige Details bzgl. CF bestehend aus zwei oder mehr Vegas.
Mit DirectX12 wäre der Nutzbare Grafikspeicher doch tatsächlich die Summe des VRAMs aller Grafikkarten - zumindest habe ich das bei der Ankündigung von DirectX12 so verstanden, genauso wie die Grafikchipherstellerunabhängig Unterstützung von Multi-GPU.

Spiele derzeit auch mit dem Gedanken zwei Vegas zu verwenden, aber wenn es am Ende kaum Mehrwert bietet kann ich mir das auch sparen.

Ggf. sollte das bei DX12 mal möglich sein, muss aber mit Sicherheit tief in der API hinterlegt sein und derzeit ist mir nichts bekannt, wo das zum tragen käme und ich zweifele dran, dass das noch erfolgt, da sowohl Nvidia als auch AMD CF und SLI nicht mehr weiter vorantreiben. Man darf getrost sagen, dass CF/SLI tot ist und man in keiner weise empfehlen kann, darauf noch zu setzen.
 
Ggf. sollte das bei DX12 mal möglich sein, muss aber mit Sicherheit tief in der API hinterlegt sein und derzeit ist mir nichts bekannt, wo das zum tragen käme und ich zweifele dran, dass das noch erfolgt, da sowohl Nvidia als auch AMD CF und SLI nicht mehr weiter vorantreiben. Man darf getrost sagen, dass CF/SLI tot ist und man in keiner weise empfehlen kann, darauf noch zu setzen.
:) Das wird schon wieder. Nur weil die Hersteller kein Crossfire/SLI Profile erstellen müssen, bedeutet das nicht, dass es nicht mehr genutzt wird.
Wenn ein Programmierer mehr als zwei GPUs nutzen will muss er es nur programmieren, sofern sein Code das zulässt.
Windows 10 kann bis zu 8 AMD + 8 nvidia Karten verwalten, ist nur die Frage ob es die Hardware kann und die ist für Multi-GPU inzwischen vereinheitlicht.
Also man muss auch nicht mehr auf Crossfire oder SLI optimieren, es reicht einmal den Code zu schreiben.
 
Das haben sie schon nicht gemacht, als Nvidia und AMD voll dahinter standen. Aber jetzt auf einmal soll das so sein? Junge, hör doch mal auf zu träumen und so einen ausgemachten Blödsinn zu erzählen. CF und SLI musste schon immer durch Nvidia und AMD als Profile bereitgestellt werden, das ist noch nie von den Programmierern der Games gemacht worden.

Vor allem, wenn bereits erste Karten schon nicht mal mehr die Hardware Voraussetzungen für SLI/CF haben...

PS: Nur weil Win10 8 Karten verwalten kann, heißt das noch lange nicht, dass es auch die Karten zur Berechnung in Games kombinieren kann...
 
Zuletzt bearbeitet:
Das haben sie schon nicht gemacht, als Nvidia und AMD voll dahinter standen. Aber jetzt auf einmal soll das so sein? Junge, hör doch mal auf zu träumen und so einen ausgemachten Blödsinn zu erzählen. CF und SLI musste schon immer durch Nvidia und AMD als Profile bereitgestellt werden, das ist noch nie von den Programmierern der Games gemacht worden.

Vor allem, wenn bereits erste Karten schon nicht mal mehr die Hardware Voraussetzungen für SLI/CF haben...

PS: Nur weil Win10 8 Karten verwalten kann, heißt das noch lange nicht, dass es auch die Karten zur Berechnung in Games kombinieren kann...
Also bei Rise of the Tomb Raider kann ich in den RADEON Einstellungen CrossFire deaktivieren, das interessiert das Spiel nicht, es werden weiterhin beide GPUs genutzt und asugelastet mit D3D12AFR. ;)

Das hat nichts mit Träumen zu tun, sondern ob man es will oder nicht. :)
 
Willst du mich verkohlen? Für das Games gibt's CF Unterstützung seit über einem JAhr, also lange bevor AMD Crossfire nicht mehr supportet hat und ergo logischerweise ein CF Profil bereitgestellt hat... Dass meine Aussage sich LOGISCHERWEISE auf neue Games bezieht und kommende und nicht auf Games, die ihre Profile längst haben sollte klar sein. Mann, mit was für Leuten muss man hier diskutieren...
 
Ich glaube, hier gibt es ein Missverständnis. Unter D3D12 läuft kein ,,Crossfire/SLi", sondern hier greift die allgemeine Multi-GPU-Unterstützung von D3D12. Das muss der Publisher in der Programmierung vorsehen. Da ist es dann aber egal, ob man CF/SLi im Treiber aktiviert oder nicht. Crossfire/SLi läuft bis D3D11 und da benötigte man die Profile der Hersteller, um es zu erwingen.
 
Wenn Multi-GPU-Unterstützung von DX12 aktiv ist brauchts kein profil ob das in neuen games dann auch so ist wird man sehen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh