Die ersten Nutzertests der Radeon Vega Frontier Edition treffen ein (Update)

Warum sollte die Karte keinen Vega RX-Testtreiber erkennen?
Wenn die Device ID passt sollte das funktionieren, die HW darunter ist ja gleich.

Was mich immer noch interessiert ist die ominöse ECC-Geschichte, hat Vega FE wirklich ECC?

Die Radeon-Crimson Software guckt auf die ID der Karte und wird dir dann sagen, ob der Gaming-Treiber mit der Karte kompatibel ist oder nicht. Die Gaming-Treiber der RX Serie werden die FE-Karte zwar erkennen, aber sagen, dass die Karte für die Software "nicht unterstützt" wird. Das liegt weniger daran, dass es nicht laufen würde, sondern eher daran, dass AMD keine Garantie dafür geben kann. Dann hast du ne Profi-Karte mit halb-verlässlichen Treibern und die schmiert dann evtl. in Spielen ab. Das ist im Profi-Bereich ein no-go und deswegen händigt AMD da nur die "stabilen" aus.

Hinzu kommt, dass die RX-Gaming Treiber dann mit ECC umgehen müssten - obwohl das gar nicht vorgesehen ist. Das könnte ziemlich unangenehm werden und zu unvorhergesehenen Ergebnissen führen, die man - im Profi Bereich - absolut nicht haben will.

Die Vega FE edition ist - wenn überhaupt - nur zum sanity-check für Spiele gedacht. Bugs, Darstellungsfehler und sonstige Fehler. Performance kannst du dann auf der RX Vega testen.
AMD hat mit der FE aber durchaus eine elegeante Möglichkeit für Spieledesigner geschaffen ihre Inhalte zu generieren um sie dann mit einem einfach Click auch gleich abtesten zu können. Ich würde es zwar schöner finden, wenn das beides gleich in einem Paket drin ist, es scheint da aber sowas wie Zwänge von Kunden zu geben, die den "Pro Bereich" separat haben wollen. Ist halt mal wieder ne Industriesache die historisch gewachsen ist und und aus Anwender-Sicht null Sinn ergibt, aber die Unternehmen glücklich macht.

Das könnte auch ein Auslesefehler seitens GPU-Z sein. Oder gibt es da bereits präzisere Information zu? Und auch wenn ECC-fähiges HBM verbaut ist, so muss dieser ja nicht zwangsläufig auch im ECC-Modus laufen.

Du kannst ECC nicht einfach deaktivieren - das ist fest drin. Entweder du hast ECC-Speicher oder nicht. Es wäre mir neu, wenn es ECC Speicher gäbe, den man per Knopf in den nicht-ECC Modus schalten könnte. ECC kostet Performance, ist dafür aber "sicher".
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
auch wenn ECC-fähiges HBM verbaut ist, so muss dieser ja nicht zwangsläufig auch im ECC-Modus laufen.
Ich bin mir gerade auch unsicher, ob nicht jedes HBM ECC kann, und der nur deaktiviert wird. Denn die Stacks sind ja zum Beispiel auch von den Ausmaßen vorgegeben, während man bei DDR-RAM ein Modul dazupackt.
 
AMD hat mit der FE aber durchaus eine elegeante Möglichkeit für Spieledesigner geschaffen ihre Inhalte zu generieren um sie dann mit einem einfach Click auch gleich abtesten zu können. Ich würde es zwar schöner finden, wenn das beides gleich in einem Paket drin ist, es scheint da aber sowas wie Zwänge von Kunden zu geben, die den "Pro Bereich" separat haben wollen. ".

Wage ich anzuzweifeln. Viele Entwickler nutzen in den PCs, auf denen die Spiele auch mal getestet werden, normale gaming gpus. Prosumer oder Workstation karten kommen da nur für spezifische maschinen in frage.

Macht bei den preisen und dem use case ja auch eher sinn.

Sent from OP3T
 
Du kannst ECC nicht einfach deaktivieren - das ist fest drin. Entweder du hast ECC-Speicher oder nicht. Es wäre mir neu, wenn es ECC Speicher gäbe, den man per Knopf in den nicht-ECC Modus schalten könnte. ECC kostet Performance, ist dafür aber "sicher".

Grundsätzlich ist das definitiv möglich. Es sollte über den Treiber steuerbar sein. Ich wüsste nicht was dagegen sprechen sollte.

@oooverclocker

Die benötigten ECC-Pins/Leitungen können ja durchaus immer vorhanden, man muss sie ja nicht nutzen.
 
AMD wirbt jedenfalls nur bei der Instinct MI25 mit ECC-Memory. Ich gehe daher nicht davon aus, dass die Frontier Edition dieses Feature auch hat. Allgemein, welche Prosumer Karten gibt es denn mit ECC?
Eben keine und wenn die FE dies als Alleinstellungsmerkmal hätte, dann würde AMD es aktiv bewerben.
Zusätzlich gibt es sogar Fire Pro (oder wie die aktuelle Pro-Serie jetzt eben heißt) ohne ECC, warum sollte die im Vergleich günstige FE plötzlich ECC haben?
Mir geht es bei dem Thema vor allem darum dass es nur einen Reddit-Post von einem angeblichen Game-Developer gibt der plötzlich von ECC redet und schon springen alle darauf an.

Die Radeon-Crimson Software guckt auf die ID der Karte und wird dir dann sagen, ob der Gaming-Treiber mit der Karte kompatibel ist oder nicht. Die Gaming-Treiber der RX Serie werden die FE-Karte zwar erkennen, aber sagen, dass die Karte für die Software "nicht unterstützt" wird. Das liegt weniger daran, dass es nicht laufen würde, sondern eher daran, dass AMD keine Garantie dafür geben kann.
Du hast den Zusammenhang nicht begriffen
Es ging darum dass AMD das Chaos jetzt bereinigen könnte wenn sie ein paar Testredaktionen mit einer Karte + einem Treiber versorgt der brauchbare Gaming-Leistungen bringt. (dazu brauchen sie nur in Ihren bestehenden Beta-Treiber für die Vega RX die Device-ID der FE hinzufügen)
Es geht nicht darum dass AMD in Zukunft einen Vega RX Treiber auf der FE lauffähig macht.

Außerdem zitiere ich wieder mal die AMD-Produktseite:
To playtest and optimize the gaming experience, the exclusive ability of the Radeon™ Vega Frontier Edition to switch from Radeon™ Pro Settings to Radeon™ Settings and back with a couple of clicks enables rapid switching between software features for faster iteration during development workflows.
When in “Gaming Mode” the full suite of gaming features of Radeon™ Software are made available, including Radeon™ Chill 5 and Radeon™ WattMan
Was ist jetzt wahr? AMD hat die ganzen Gaming-Features wie TBR usw (noch) nicht integriert, dann wäre hier ein "coming soon" angebracht und wäre weitaus besser von der Marketing-Seite her gewesen.

PCPer sag relativ klar dass die FE jegliche Gaming-Features nutzen kann, außer alle Optimierungen die in der Zeit zwischen FE-Release und Vega RX-Release kommen. (immer Zeitpunkt der Qualifizierung der Treiber)
Die Infos kommen von AMD selbst die von PCPer über den Test informiert wurden.
Radeon Vega Frontier Edition LIVE Benchmarking - YouTube
Die Infos hört ihr in dem Video ab Minute 23 und noch mal deutlich bei Minute 25

Du kannst ECC nicht einfach deaktivieren - das ist fest drin. Entweder du hast ECC-Speicher oder nicht. Es wäre mir neu, wenn es ECC Speicher gäbe, den man per Knopf in den nicht-ECC Modus schalten könnte. ECC kostet Performance, ist dafür aber "sicher".
Natürlich lässt sich ECC prinzipiell deaktiveren, bei NV Workstationkarten kann man das Feature ECC im Treiber deaktivieren
Hast du überhaupt schon mal auf einer Workstation mit einer solchen GPU gearbeitet?
 
Zuletzt bearbeitet:
TL: DR der letzten Nacht:

Die VEGA FE ist derzeit Leistungsmäßig wie ne 1400Mhz Fury X, was sie knapp unter 1080 Performance Level bringt, bei >300W Verbrauch.
Jedoch sind faktisch alle VEGA Arch. Verbesserungen wie Tiled rasterization im Treiber noch nicht aktiv, sodass da noch einiges an Leistungsverbesserungen rumkommen könnte wenn das in zukünftigen Treibern aktiviert wird.

Worstcase: Die VEGA Arch. Verbesserungen bringen zusätzlich wenig bis nichts = 1080 Performance Level = VEGA DOA
Bestcase: Die VEGA Arch. Verbesserungen bringen zusätzlich deutlich spürbare Performance Verbessungen = 1080Ti Level oder besser = endlich wieder Konkurenz für Nvidia

Das ist zumindest mein Eindruck nach dem Lesen von versch. Foren/Reddit.
 
Das könnte auch ein Auslesefehler seitens GPU-Z sein. Oder gibt es da bereits präzisere Information zu? Und auch wenn ECC-fähiges HBM verbaut ist, so muss dieser ja nicht zwangsläufig auch im ECC-Modus laufen.

Das ist richtig, tut er wohl auch bei der FE nicht. Allerdings kann man wohl nicht bit-weite lesen, sobald ECC-Speicher verbaut wurde, weil die Leitungen für ECC gebraucht werden - der Interposer bliebt wohl gleich, nur der Speicher nicht. Eine kleine Einschränkung gibt es wohl doch. Der ECC-HBM könnte auch von Samsung kommen, ist aber völlig offen. Sicher ist denke ich nur, dass die 8GB unbuffered sind und die 16GB ECC.



Übrigens ist grad in Beyond3D und im 3Dcenter-Forum nachgewiesen worden, dass die FE tatsächlich im Polaris-Mode läuft kein definitiv kein binning aktiv ist. Der Kernfeature der neuen µArch geht also noch nicht. Da könnten also 25-50% Leistung einfach flöten gehen, weil alles in der Speicherbandbreite hängenbleibt und viel weniger HSR passiert als es könnte. Die jetztigen Benchmarks zeigen also nachgewiesenermaßen nicht mal im Ansatz die wirkliche Leistungsfähigkeit auf.
Man stelle sich vor, Maxwell wäre ohne binning gebencht worden, das wär auch unterirdisch geworden.
 
Zuletzt bearbeitet:
Wieso reden eigentlich plötzlich alle von ECC? Nur weil dieser eine "Game developer" auf reddit davon geredet hat? Gibt's dazu auch verlässliche Quellen?

Gesendet von meinem SM-G901F mit Tapatalk
 
Zuletzt bearbeitet:
Wieso reden eigentlich plötzlich alle von ECC? Nur weil dieser eine "Game developer" auf reddit davon geredet hat? Gibt's dazu auch verlässliche Quellen?

Gesendet von meinem SM-G901F mit Tapatalk

Da braucht man keine Quellen für, das ergibt sich aus der Logik. AMD wird zwei Arten von HBM-Stacks beziehen, 4GB-Stacks unbuffered und 8GB-Stacks ECC. Das sind zwei Packages, mehr werden die auf keinen Fall bauen. Die 16GB-Varianten sind auch samt und sonders für die Profikarten vorgesehen (FE, Pro (SSG), MI25). Die können auch, wie bei der FE, ohne ECC laufen, erreichen aufgrund des verwendeten Interposers aber trotzdem nicht die volle Leistungsfähigkeit des unbuffered-HBM, weil die Pin-Belegung anders ist. Dazu passt auch, dass AMD für die RX nur 8GB HBC anbieten will.
 
Zuletzt bearbeitet:
Natürlich lässt sich ECC prinzipiell deaktiveren, bei NV Workstationkarten kann man das Feature ECC im Treiber deaktivieren
Hast du überhaupt schon mal auf einer Workstation mit einer solchen GPU gearbeitet?

Ja, nur habe ich nie mit ECC rumgespielt. Aber gut, wenn es ne Option gibt es zu deaktivieren muss das ja einen Sinn haben. Schnelle Google Suche spricht von "Kompatibilitäts-Modus" bei solchen Sachen. Hmpf... unbefriedigend als Antwort, ob das Performance bringt oder ob die Latenzen gleich hoch bleiben nur "ohne Fehlerkorrektur". (Darum gehts hier ja)

Ansonsten hast du natürlich Recht damit, dass AMD es besser kommunizieren sollte, was grad mit den Treibern los ist. Die "volle Gaming Fähigkeit" ist mit Vega definitiv nicht aktiviert, da Tiled-Rendering nicht aktiv ist. Allein da sollte AMD sagen: "Tut uns leid Jungs und Mädels, aber das ist noch im Feinschliff."

Das wäre allemal besser als gar nix zu sagen. Die jetzigen Features sind alle Polaris ohne oder nur mit wenigen Vega-Architektur-Verbesserung. Die Shader-Performance ist gleich (und sollte laut AMD bei Primitive-Shadern 2.6x höher sein - aber hier sind evtl. die Spieleentwickler gefragt - kein Plan), Tiled-Based Rendering ist noch nicht da, der Vega chip soll 8 anstatt 4 Geometrie-Cluster haben (was den Flaschenhals der Breite auflösen soll) aber im Treiber wird der Chip noch wie "4" behandelt (reddit ist da noch etwas ominös in der Beschreibung - das lasse ich mal lieber jemanden Testen der da tiefer in der Materie steckt) usw...

Kurz gesagt: "Es läuft"... aber mit voll angezogener Handbremse.

Auf der anderen Seite: Stell dir mal vor, das würde jetzt alles da sein und funktionieren... könntest du dir vorstellen, dass AMDs Andeutungen von "sieht gut aus gegen 1080 Ti und Xp" dann feuchte Augen erzeugen?
Ich persönlich wäre nicht überrascht, wenn AMD mal wieder nen braunen Treiberhaufen als Munni für die Nerf-gun abgeladen hat, welche die Karte um ~50% langsamer macht.

Ändert natürlich nix dran, dass es ne Marketing-Katastrophe ist - da sind wir alle einer Meinung.

edit: Um es noch einmal extra zu erwähnen. Die Clock-für-Clock Leistung der Karte liegt ungefähr auf Polaris Niveau und einige berichten, dass es unter Fury-X Niveau liegt (da bräuchte ich jetzt die genauen Vergleichsergebnisse um das genauer auszurechnen, ich glaube es aber einfach mal)

Alles, wirklich ALLES deutet darauf hin, dass die Treiber die Vega-Architektur noch nicht ausnutzen - es fehlen Grundfunktionen und ganz zu schweigen von optimierten Grundfunktionen die das volle Potential ausnutzen.
Reddit-Kurzzusammenfassung des zweiten Benches: https://www.reddit.com/r/Amd/comments/6katp6/radeon_vega_frontier_edition_live_benchmarking/djkrrz7/

So böse das auch aussieht. Dafür dass der Treiber so schlecht ist, ist die Performance noch halbwegs "brauchbar". Man stelle sich mal vor, wie die Karte laufen würde, wenn der Treiber gut wäre. Aber hätte, hätte Fahrradkette - bringt nix darüber zu mutmaßen - wir können es eh nicht ändern. (Wobei... auf Linux könnten wir das schon... xD )
 
Zuletzt bearbeitet:
also wie befürchtet doch eher "nur" maximal 8 GB auf den Consumer Varianten - na dann werd ich auf jeden fall abwarten bis hbcc ausgiebig getestet wurde - auf fury 2.0 wo man ja damals auch behauptet hat das 4GB locker reichen hab ich keine Lust...
 
Mein System sollte auch nicht über 500 W ziehen, saugt laut Strommesser aber auch hier und da mal über 600 aus der Dose.

Jo, und wieviel % davon braucht dein System wirklich ? Was hat dein Netzteil denn für eine Effizienz wenn du schon sagst dass du das "aus der Dose" misst ??
 
Wäre es nicht möglich, dass das Fehlen von TBR bei der FE gewollt ist?
Als Entwickler würde ich das ganze so berechnet haben wollen, wie es erstellt wurde und keine Tricks sehen wollen. Wenn ein Spiel dann später nicht so gut läuft, ist das ein Problem der GPU Hersteller und der Consumer Treiber. Als Entwickler kann mir das egal sein... Oder aber es werden Details bei der Entwicklung nicht angezeigt auf der FE sieht alles gut aus, aber bei release, bei den Kunden dann das böse erwachen in z.B. resident evil hüpfen rosa Einhörner durch die Gegend. Das will doch keiner haben.
 
Jo, und wieviel % davon braucht dein System wirklich ? Was hat dein Netzteil denn für eine Effizienz wenn du schon sagst dass du das "aus der Dose" misst ??

1 kW be-quiet Dark Power pro 10 (gold)

Wie viel mein System wirklich braucht kann ich nur schätzen. Ich habe ein leicht übertaktete CPU auf 1.2V und leicht übertakteten RAM auf 1.65V und meine GPU (7970) war auf "GHz" Einstellung, als ich gemessen hab. Wenn ich alle Komponenten zusammennehme, kommt da ein Wert von ~400 - 450W raus, was ich verbrauchen sollte. Beim Stromzähler schwanke ich unter Last zwischen 550 und 600 am Kaltgerätestecker des PCs. Bedeutet: Ich verschätze mich gehörig, was bedeutet, dass die Hauptstomfresser wie CPU und GPU wohl doch etwas mehr Saft ziehen, als ich es erwarte.

Wäre es nicht möglich, dass das Fehlen von TBR bei der FE gewollt ist?
Als Entwickler würde ich das ganze so berechnet haben wollen, wie es erstellt wurde und keine Tricks sehen wollen. Wenn ein Spiel dann später nicht so gut läuft, ist das ein Problem der GPU Hersteller und der Consumer Treiber. Als Entwickler kann mir das egal sein... Oder aber es werden Details bei der Entwicklung nicht angezeigt auf der FE sieht alles gut aus, aber bei release, bei den Kunden dann das böse erwachen in z.B. resident evil hüpfen rosa Einhörner durch die Gegend. Das will doch keiner haben.

Puh... graues Fahrwasser. Willst du eine exakte Repräsentation wie im wissenschaftlichen Bereich, oder hast du kein Problem damit, Performance durch technische Tricks rauszuholen? Im Spiele-Bereich wird an allen Ecken und Kanten gespart, wo man Performance sparen kann mit Methoden, wo sich Wissenschaftler in Sachen Reproduzierbarkeit und Genauigkeit die Haare raufen würden (wobei, beim heutigen Stress im Bereich Forschung und Wissenschaft gibts kaum noch jemanden mit Harren auf dem Schädel)

Wenn du deine Assets testen willst, ob sie "okay" sind, willst du das evtl. in einer "ehrlichen" Umgebung machen und wenn die dann "okay" sind, gibst du sie eine Stelle weiter zum Optimierer der "gaming" Performance. Bin mir aber nicht sicher, ob Spielestudios wirklich so arbeiten. Ich hab eher den Eindruck, dass das alles ein und die selbe Person machen darf.
 
Zuletzt bearbeitet:
Woher willst du wissen ob das die selben Gaming Treiber wie bei der RX Vega sind?

die Vega FE ist für mich ein Zwitter mit starker Tendenz zur Prosumer Seite (was die Titan mal WAR!)
mMn. bekommt die Vega FE abgespeckte Gaming sowie abgespeckte Pro Treiber denn da wären ja noch die RX Serie + Pro Serie...
Wie groß werden denn die Unterschiede zwischen dem RX und FE Treiber sein? Sehr gering im Vergleich zu anderen alten Serien von AMD. ECC und der Fokus auf höherer Stabilität. Das ist nichts was einer kompletten Neuentwicklung bedarf und sollte bereits zum Launch fertig sein, wenn man schon damit wirbt. Wie oben schon geschrieben, AMD hat alleine durch die Lieferprobleme mit HBM2 verdammt viel zusätzliche Zeit gehabt. Es kann doch nicht sein, dass die nur einen "Prototypentreiber" fertig bekommen haben. Wenn es um die Stabilität geht hätten sie das ganz einfach machen können: einen finalen (der, der zum Release der Karte kam) und einen Betatreiber. Ich denke dann sollte alles klar sein, denn Beta nutzt man im professionellen Bereich nicht. Dann könnte man erste Tests machen (wie gesagt mit dem Hinweis, dass mit der RX [wahrscheinlich] mehr Leistung kommt wegen ECC usw.). Jetzt werden halt auch erste Tests gemacht und die werden AMD sicher nicht schmecken. Jedenfalls nicht, wenn bei AMD noch ein Funken Hirn übrig geblieben ist. Denn durch die jetzigen "Ergebnisse" werden wieder Leute zu Nvidia getrieben. So wie das schon seit min. 2 Jahren der Fall ist...
Dass sich AMD die Treiber für den RX Release in ca. einem Monat aufhebt, damit Nvidia mit Volta nicht reagieren kann wie schon vermutet wurde, halte ich für kompletten Unfug, denn diesen einen Monat könnte Nvidia noch warten. Bis Volta käme würde wohl eh noch über ein halbes Jahr vergehen, da kommt es auf einen Monat nicht an. Und die Preise der bisherigen Karten sind notfalls innerhalb eines Tages anpassen.

Ich kann deine Sichtweise verstehen, aber es passt halt leider nicht so ganz wie wir es gerne hätten.

Profi-GPUs müssen stabil sein. Ein halbfertiger Gaming-Treiber ist ein absolutes no-go im Profi-Bereich. Lieber auf 50% der Leistung verzichten, als halbstabile Treiber im Einsatz zu haben.

Die Treiber für den gaming-Modus sind "sicher" - soll heißen: Stabil genug, damit ein QA-Tester damit Bugs identifizieren kann. Das sind die Gaming-Treiber für die RX-Vega wohl nicht und werden es wohl auch die nächsten paar Monate nicht sein und noch einige Hügelchen zum glattbügeln bekommen -dafür sind sie schnell.

Du wirst mit der RX Vega deinen schnellen Gaming-Treiber bekommen, den wirst du aber nicht ohne hack auf der FE-Version kriegen, weil die nur die sichere Variante bekommt.
Mit der Stabilität stimme ich mir dir überein. Letztendlich ist aber auch ein Leistungsverzicht keine Lösung für eine Karte, die 1000€ kostet.
Wie über deinem Zitat geschrieben wäre die Situation sehr einfach zu lösen gewesen: einen finalen Treiber (den es ja gibt) und einen Betatreiber (der sicher niemanden im Profibereich anspricht).
Inwiefern jetzt ein Treiber, der aus dem Januar zu sein scheint bereits derart stabil sein soll, weiß ich nicht. Das hört sich doch etwas merkwürdig an, da es damals nur Prototypen gab und die Treiberentwicklung garantiert noch nicht abgeschlossen sein konnte. Wobei man auch sagen muss, dass diese Versionsnummer eigentlich nichts aussagt, da AMD auch hätte 15.3.xxxxx wählen können, dann wäre der Treiber plötzlich aus dem Jahr 2015. :haha: Es besteht hier auch die Möglichkeit, dass AMD in die Irre führen möchte. Hat denn bereits jemand verifizieren können, dass es sich tatsächlich um so einen alten Treiber handelt?
 
Da die Grundkomponenten der Vega-Architektur nicht oder nur sehr bedingt genutzt werden, ist es halt kein Gaming-Treiber. Die Performance-bringenden Eigenschaften werden nicht genutzt und entsprechend sitzen wir mit Polaris-Performance an, welche rein von der Shaderanzahl auf die Benchmarks skaliert. Wie "alt" der Treiber wirklich ist, kann nur AMD sagen.
 
Das ist doch nur ein temporäres Problem, das würd ich nicht so hoch aufhängen. Es wird sicherlich einen voll funktionsfähigen Treiber auch für die FE geben - welcher i.Ü. auch die Performance mit CAD usw. verbessern wird, denn auch hier, wirkt sich der neue Rasterizer durchaus aus. Angezogene Handbremse ja, aber eben nur bei der FE. Dann kommen erst mal die RX mit beta-Treiber und später die Pro mit Finaltreiber mit TBR. Ein Drama kann man daraus erst machen, wenns bei der RX immer noch nicht läuft. Vorher ist das lächerlich.
 
Zuletzt bearbeitet:
Das ist richtig, tut er wohl auch bei der FE nicht. Allerdings kann man wohl nicht bit-weite lesen, sobald ECC-Speicher verbaut wurde, weil die Leitungen für ECC gebraucht werden - der Interposer bliebt wohl gleich, nur der Speicher nicht. Eine kleine Einschränkung gibt es wohl doch. Der ECC-HBM könnte auch von Samsung kommen, ist aber völlig offen. Sicher ist denke ich nur, dass die 8GB unbuffered sind und die 16GB ECC.



Übrigens ist grad in Beyond3D und im 3Dcenter-Forum nachgewiesen worden, dass die FE tatsächlich im Polaris-Mode läuft kein definitiv kein binning aktiv ist. Der Kernfeature der neuen µArch geht also noch nicht. Da könnten also 25-50% Leistung einfach flöten gehen, weil alles in der Speicherbandbreite hängenbleibt und viel weniger HSR passiert als es könnte. Die jetztigen Benchmarks zeigen also nachgewiesenermaßen nicht mal im Ansatz die wirkliche Leistungsfähigkeit auf.
Man stelle sich vor, Maxwell wäre ohne binning gebencht worden, das wär auch unterirdisch geworden.

Dann poste doch bitte auch die Quelle dazu -.-

Ich hatte gestern einen "schwachen" Moment und habe mal nach Gsync Monitor (27" 1440p 144hz) + 1080ti geschaut... NOPE, es wird definitv Vega :fresse2: + mein im Februar gekaufter BenQ XL2730Z

AMD enttäuscht derzeit auf ganzer Linie mit ihrer Strategie/PR aber wenn man Ende doch was brauchbares rauskommt ist es im Nachhinein auch egal.
 
Zuletzt bearbeitet:
Du kannst ECC nicht einfach deaktivieren - das ist fest drin. Entweder du hast ECC-Speicher oder nicht. Es wäre mir neu, wenn es ECC Speicher gäbe, den man per Knopf in den nicht-ECC Modus schalten könnte. ECC kostet Performance, ist dafür aber "sicher".

Doch das geht. Die großen Nvidia Quadros und die Teslas können das. Da gibt's dann eine Einstellung im Nvidia Control Panel mit der ECC aktiviert und deaktiviert werden kann, braucht allerdings einen Reboot damit er das übernimmt. Per Nvidia-SMI geht's ebenfalls.
 
@H_M_Murdock Meine Antwort darauf ist wahrscheinlich untergegangen, aber:
a) Ja, ich habs jetzt auch gefunden
b) Hauptproblem an ECC sind die zusätzlichen Latenzen. Ändern sich diese tatsächlich, wenn ich ECC per Knopfdruck deaktiviere, oder ist das nur ein Kompatibilitäts-Modus für sanity-Checks? Ne Messung dazu wäre cool. Ich hab hier grad keine Quadro rumfliegen. xD
 
Ist es so abwegig, dass AMD die richtigen Game Treiber die Performance bringen für die RX VEGA (Consumer/Gamer GPU) aufspart, inklusive weiteren Feinschliffs, anstatt sie einer Prosumer Karte die dafür nicht gemacht ist (auch wenn es nen Gaming Mode gibt der aber nicht für Gaming sondern für Ingame Tests da ist) zur Verfügung zu stellen?
Ein Prosumer, für den die Karte gemacht wurde, (andernfalls könnte er zur günstigeren RX Vega greifen) will seine erstellten Models (u. a. kleine Spielestudios/Entwickler) ingame Testen ohne eine 2te GPU/Rechner gekauft zu haben.
Vega FE ist einfach ein nettes Nischenprodukt für alle denen die Pro Serie zu teuer/unflexibel ist und genau so sollte man sie auch sehen/behandeln.
Klar es wird die selbe GPU verwendet, das gilt aber ebenso für die Pro Version von Vega von daher finde ich dieses Argument nicht sinnvoll.

mMn. liegt die Verzörgerung von Vega an HBM2, da wirds falls sich das bewahrheitet, auch sicher Vertragsstrafen gegenüber Hynix geben.

Wir werden in einem Monat sehen wer mit welcher Spekulation Recht hatte.
 
Zuletzt bearbeitet:
ich könnte mir fast vorstellen, dass die karte nur aufgrund der versprechungen gegenüber den aktionären noch irgendwie auf biegen und brechen in Q2 released wurde, egal ob fertig oder nicht (softwareseite).

würde zumindest erklären warum kein ton der PR kommt und auch sonst eher stillschweigen bewahrt wird
 
Ich seh das wie def - den Aktionären wurde Vega im H1 2017 versprochen, also wurde es im H1 rausgebracht mit "was auch immer" für Treibern.

3Dcenter hat es schön zusammengefasst. Es liegen eventuell mehr als 50% der Leistung auf der Strecke. Sollte das stimmen, sind die bisherigen Ergebnisse aus Hardware-Sicht sogar recht beeindruckend.
 

Nach der gezeigten Leistung wäre alles andere auch verwunderlich. Ich hab es paar Seiten vorher schon kurz angesprochen. Ob RX Vega die Features bekommt ist damit aber auch nicht sicher. Man könnte es sich auch für den Refresh aufheben. Allerdings, will man die Karten irgendwo bei 600,- Euro in den Markt schicken muss man es eigl. schon bringen.
 
Was macht es für einen Sinn, ein nicht wirklich konkurrenzfähiges Produkt zu veröffentlichen nur um sich die Features für ein Refresh aufzuheben... dafür gibts hardwareseitige Anpassungen + Softwarefeinschliff.
 
Wenn das stimmt, dann ist der Treiberstatus von VEGA katastrophal.
Kann doch nicht sein dass man eine neue Architektur auf den Markt bringt und dann keinen Treiber hat der sie richtig anspricht.

Im Falle der Frontier Edition kann ich es aber schon noch verstehen. TBR könnte hier nämlich sogar kontraproduktiv sein. Es macht auf einer reinen Gamingkarte wesentlich mehr Sinn.

- - - Updated - - -

Was macht es für einen Sinn, ein nicht wirklich konkurrenzfähiges Produkt zu veröffentlichen nur um sich die Features für ein Refresh aufzuheben... dafür gibts hardwareseitige Anpassungen + Softwarefeinschliff.

Es kommt wie immer auf den Preis an wie konkurrenzfähig ein Produkt ist.
 
Ich hab von AMD bisher nicht den Eindruck gehabt, dass die Features absichtlich aus Karten raushalten. Bei Team grün ist das ne leicht andere Sache.

Die können sich den shitstorm gar nicht leisten, der da ausbrechen würde wenn die Kernfeatures nicht liefern. Künstliches nerfen der Performance macht für AMD keinen Sinn.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh