[Sammelthread] AMD RX VEGA Sammelthread + FAQ

AMD RX Vega Sammelthread + FAQ




Die technischen Daten der AMD Radeon RX Vega in der Übersicht:




Was zur Netzteilleistung: Einige User haben mit Netzteilen bei einer Leistung um 500 Watt von Stabilitätsproblemen berichtet, nach Tausch auf ein NT mit einer Leistung um 700 Watt sind diese behoben worden, die Empfehlung von AMD als Minium ein NT mit 750 Watt Leistung zu verwenden, scheint hier in der Praxis sehr relevant zu sein. Es empfiehlt sich außerdem zwei getrennte Stränge der 8-Pin Stecker vom NT zu verwenden.

User Erfahrungen und Empfehlungen/Ergänzungen:

VEGA-FEATURES
- Shader Insintrincs (nur unzureichend bei den Dev´s eingesetzt)
- TressFX (performant)
- AMD-Schatten (performant und präziser als GW)
- VR (Cyan Room stark verbessert)
- Async Compute (flexibel + performant)
- DX11 (bei 1080p stark verbessert)
- Tess. ( bis 16x besser als 1080)
- Mining (eigene Liga)
- Bios (V56-->V64LC bei Bedarf - nur Ref.)
- Wattmann (Hardwaresettings: Profile+OSD+Chill+Tess.-opt.+fps-Limiter+Framepacing+flex.Sync)
- Undervolting (7..10%)
- Energieeff. (Bsp. RX56 UV Bios 2 PT-10 = 138W)
- ALLONE STANDING FEATURES
primitive Shader (kommen 2018 nach und nach)
HBCC (bei 32GB bis zu 20GB - sinnvoll für echte 4k-Texturen und im prof. Bereich z.Bsp.TByte-Punktewolken aus Scan + 4k HDR-Videoediting)
Freesync 2 (Tonmapping im Monitor entfällt --> schnellere Darstellung+weniger Lag und preiswerte+lieferbare Monitore HDR600)
HDR10 (FP16-10bit - bei PASCAL NA)
FP16 ( 2x16 gleichzeitig)
- P/L (Bsp. RX56= 1070, RX64= 1080 - Customs +59,-€; 2x RX56ref.= Ti6GBs; 2x RX64LC= Txp, 2xFE<Tv)
- Lieferbarkeit (noch nicht top)
- Treiber (low level ready - Dev´s sind noch nicht Alle ready)
- Ref.-Karten (Kühlerqualität gegenüber Polaris stark verbessert)
- Wakü. (lieferbar - ab RX64 zu empfehlen bei OC)
OVERCLOCKING
- Chiplotterie (wie immer, aber sinnvoll )
- eff.Takt ( mit UV+ OC+PT >100 gegenüber Reviews - PT mit Bedacht einsetzen, i.d.R. UV besser;
VEGA mag es COOL-->Lüfter+Zieltemp.!)





Aktuelle Treiber: noch keiner, nur Beta:
Radeon Software Crimson ReLive Edition for Radeon RX Vega Series Release Notes


Radeon Software Crimson ReLive Edition 17.8.1 Release Notes


Radeon Software Crimson ReLive Edition 17.8.2 Release Notes


Radeon-Software-Crimson-ReLive-Edition-17.9.1-Release-Notes


Radeon-Software-Crimson-ReLive-Edition-17.9.2-Release-Notes


Radeon Software Crimson ReLive Edition 17.9.3 mit verbesserter mGPU-Unterstützung - Hardwareluxx

Radeon Software Crimson ReLive Edition 17.10.1 Release Notes



Radeonâ„¢ Software Crimson ReLive Edition 17.10.2 Release Notes


Radeonâ„¢ Software Crimson ReLive Edition 17.10.3 Release Notes


Radeon Software Crimson ReLive Edition 17.11.1 Release Notes


Radeonâ„¢ Software Crimson ReLive Edition 17.11.2 Release Notes


Radeonâ„¢ Software Crimson ReLive Edition 17.11.3 Radeon RX Vega Hotfix Release Notes


New Version Adrelanie
Radeon Software Adrenalin Edition 17.12.1 Release Notes



Treiber für Mining:
Radeon Software Crimson ReLive Edition Beta for Blockchain Compute Release Notes

Anmerkung: User haben berichtet, dass im Gegensatz zum Beta Treiber mit dem Mining Treiber CrossfireX aktivieren lässt!

Bzgl. CF Support hat AMD in Aussicht gestellt, das dieser zu einem späteren Zeitpunkt in gewohnter Form wieder zur Verfügung steht:
"There is no difference regarding CF but as we said previously, it's support for RX Vega will come at a later point."

Tool zum Boisflash:
ATI Winflash - Download - CHIP

Und Bios Kollektor
VGA Bios Collection | TechPowerUp

[/B][/B]Tool zum einstellen der P-States:
WattTool: A simple tool that combines overclocking with VRM monitoring/tweaking for RX 400 series

Tutorial zum Watt tool:
Vega 56 OC + UV gut oder Müll? - YouTube

saaphire trixx funktioniert offiziell mit vega
SAPPHIRE Technology

Custom Karten: noch keine ab Oktober 2017

Radeon RX Vega 64 56: Die Custom-Design-Situation ist ein Chaos

Asus ROG Strix RX Vega64 O8G Preview - YouTube

RX VEAG64 Umbau auf Morpheus 2 Core Edition von RAIJINTEK by user pickebuh
[Guide] RX VEAG64 Umbau auf Morpheus 2 Core Edition von RAIJINTEK

User BerntBrandon gibt folgendes zu bedenken bzgl. RX Vega56/64 und Raijintek Morpheus II Core Edition

Anscheinend ist die Kombination aus RX Vega56/64 und Raijintek Morpheus II Core Edition nicht zu empfehlen.
Das Problem bei montierten Morpheus II Core Edition ist eine gegenüber der GPU ca.65°C und HBM ca.70°C Temperatur stark erhöhte HotSpot Temperatur, teilweise in einen bedenklichen bereich von weit über 90°C. (Temperaturen sind je nach Belüftung und Last abweichend)
Der Referenz Kühler weißt keine so hohe Abweichung auf. 4Stroke hat Werte zu Verfügung gestellt.
Mehr vergleichswerte ob vom Referenz Kühler oder anderen sind erwünscht, gemessen wurde mit: Unigine Valley Benchmark @ DX11, Quality:Ultra, AA 8x, 1920x1080p, bitte die GPU /HBM/ HotSpot Temperaturen und GPU Chip Power angeben.

Die Ursache des Problems ist anscheinend das der Morpheus II im Gegensatz zum Referenzkühler nur mit einer relativ kleinen Fläche direkt auf dem Vega10 Chip aufliegt.
Was ein vergleich der Verteilung von Wärmeleitpaste auf Referenzkühler und Morpheus II Core Edition aussagt.

Morpheus: Anhang anzeigen 417227
Referenzkühler:Anhang anzeigen 417228

Vermutet wird das der Morpheus II Core Edition einen leicht konvexen schliff hat, wenn das so ist hat das gute Gründe und wäre kein Mangel!
Raijintek wurde auf Facebook gefragt ob die Kupferbasis des Morpheus II Core Edition plan ist, wenn eine Antwort vorliegt wird das hier ergänzt.

Das soll keine Kaufwarnung sein, es sollte aber beachtet werden das der Morpheus II Core Edition vom Hersteller nicht für die RX Vega56/64 freigegeben ist!

User Beitrag original lüfter von rx64@lc als pull betrieb:
hier das bild von push/pull betrieb.

wie man vll sieht ist der original lüfter von rx64@lc als pull betrieb verlegt von mir und der push lüfter ist ein nzxt air rgb 140mm.

und den nzxt lüfter steuere ich über den msi tool command center, da ich den lüfter direkt an das mainboard angeschlossen habe.

den original lüfter steuere ich natürlich über wattman.

Falls die Karte fiept eine Lösung von User ragman1976:

Vielleicht ergänzend falls es immer noch fiept:

Gehäuse aufschrauben und den Stecker im Bild (roter Kreis) abziehen. Somit ist zwar die Beleuchtung (Schriftzug und Quadrat im Eck) aus, aber das Fiepen, bei mir zumindest, gänzlich verschwunden.

Anhang anzeigen 426044

Gruß






Test/Multimedia:
AMD Radeon RX Vega 64 und RX Vega 56 im Test - Seite 46

AMD Radeon RX Vega 64 und Vega RX 56 im Test: Heiße Vega?

Seite 4: Radeon RX Vega 64 Liquid Cooled - Vergleich mit Nvidias GTX 1080 (Ti) - GameStar

The RX Vega Liquid Edition Review - YouTube

UV mit Vega im Test:
AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx

TechPowerUp GPU-Z v2.3.0 Released | techPowerUp

user Review:

[User-Review] XFX AMD Vega 64 Air - Unboxing und Einbau

Aktuelle Preise:
amd rx vega bei idealo.de

Overclocking guide:
RX Vega 56 Overclocking Undervolting GUIDE - YouTube

Overclocking Ergebnisse user: (Auszug, beste Ergebnisse)
Fire Srtike vega64 Grafik Score 23124 OC: 1750mhz 1750/1015 @Holzmann
Pic-Upload.de - strike.png

Fire Strike vega64 Grafik Score 24421 stock @RoughNeck mit vega 64 LC
Forum de Luxx

Fire Strike vega64 Grafik Score 24651 OC: 1752/1070 stock @Shevchen
Generic VGA video card benchmark result - Intel Core i7-4930K,ASUSTeK COMPUTER INC. RAMPAGE IV BLACK EDITION
Generic VGA video card benchmark result - Intel Core i7-4930K,ASUSTeK COMPUTER INC. RAMPAGE IV BLACK EDITION


25235 GPU Score @DerEisbär
AMD Radeon RX Vega 64 video card benchmark result - Intel Core i5-6600K,ASRock Z170 Gaming K4


20423 GPU Score Vega56 Undervolted Vega 56, Eingestellt 1700 Mhz Core, 900 Ram, 850mv Vcore, PT 50% @salzcracker
Bild: vegaturbowruvk.jpg - abload.de

24299 GPU Score Vega56 1750-1200mV/1100 HBM mit 64 LC Bios @Spankmaster

26115 GPU Score Vega64 1655/1100 HBM @iLLuminatusANG
AMD Radeon RX Vega 64 video card benchmark result - Intel Core i7-6700K,ASUSTeK COMPUTER INC. Z170 PRO GAMING

25490 GPU Score Vega 64 lc P7: 1752 MHZ/1240mV HBM: 1150MHz/1005mV @ragman1976
AMD Radeon RX Vega 64 Liquid video card benchmark result - Intel Core i5-4690K,MSI Z97 GAMING 5 (MS-7917)



Superposition Score vega64 4536 OC: 1750mhz/1015 @Holzmann


Superposition Score vega64 4259 OC: 1700/1100 @Shevchen
Forum de Luxx
Superposition Score 5078 mit VegaLC @ignis
Pic-Upload.de - Superposition_Benchmark_v1.0_5078_1503375389.jpg

Superposition Score 5006 vega64 OC@G3cko
XFX Vega 64 @ EKWB
GPU-P6 1600MHz @ 1080mV
GPU-P7 1660MHz @ 1150mV (real liegen "nur" 1630MHz an)
HBM2 1100MHz @ 1050mV

Super Position Score 5220 1750mhz@hbm2@1100mhz mit 64LC @crynis
http://saved.im/mja5otq0azjl/04-09-_2017_01-14-51.jpg

Super Position Score 5311 Vega64 mit 1780 mhz und HBM 1150mhz / Bios von der Vega LC version. GPU UV 1080 mVolt.
Treiber 17.9.1 @Motkachler
[Sammelthread] AMD RX VEGA Sammelthread + FAQ - Seite 16

Super Position Score 4434 mit Vega56 1750-1200mV/1100 HBM / mit 64 LC Bios air @Spankmaster

Super Position Score 4827 Vega56 1680/1100 @ 1,05V (Vega64 Air Bios). Effektiv liegen 1,05V an durch den VDrop, Wattmann eingestellt 1712 GPU Takt @Spankmaster
[Sammelthread] AMD RX VEGA Sammelthread + FAQ - Seite 64

Superposition Score Vega 64 LC 5359 OC: 1741/1150 @blazethelight


Auf User Wunsch wird die Übersicht auf Bench: Time Spy aufgebohrt, entsprechend höhere Scores werden hier nachfolgend eingetragen :




Für die Analen tu ich doch alles :bigok:

Hier noch ein weiterer Versuch - wobei ich mit P6 noch nicht hoch genug bin?

Sag mir doch einfach direkt, was ich einstellen soll :cool:

Habe HBM von 1150 auf 1180 erhöht.

Die 56 / 45 FPS schaffe ich auch noch...

Anhang anzeigen 421180



Heute Morgen ging es in die nächste Runde, die 55 FPS Grenze in TimeSpy Grafiktest 1 lies mir keine Ruhe :-)

GPU: RX Vega 64 lc
BIOS-Typ: lc Performance Mode
P7: 1740 MHz
HBM: 1150 MHz
PT: +50
GPU only Watt: 318 W
CPU-Takt: 4500 MHz
Ram-Takt:

Macht Grafiktest 1 55,1 FPS (Grafikscore 8015):

AMD Radeon RX Vega 64 Liquid video card benchmark result - Intel Core i5-4690K,MSI Z97 GAMING 5 (MS-7917)






Last but not least

eine Einstellungsempfehlung mit freundlicher Unterstützung von User GerryB mit Fokus auf Leistung bei möglichst geringem Verbrauch für 24/7:

@Holzmann >5366

24/7-SETUP für REFERENZKARTEN

Ziel:
Bei realem Gaming soll die Air-Graka mit ca. GPU 60°C betrieben werden.
Damit ist eine Gute Effizienz bei niedrigen Spannungen möglich.
Benchmark-Scores sollen damit nicht erzielt werden = unwichtig.

Zusammen mit fps-Limit verwenden!
!!! Im Zweifelsfall ist fps-Limit im Wattman unter Globale Settings der sicherste Weg !!!
Bei Spielen wo, Das nicht funzt dann sicherheitshalber Vsync nehmen.
DAS FPS-LIMIT SOLL DIE TEMPS+WATT BEGRENZEN.

CPU+RAM auf Stock und NUR Wattman benutzen.
Vorher ein ausreichendes NT einbauen bzw. das Vorh. auf Eignung checken.
Instabile Systeme und inkompatible Tools müssen ausgeschlossen werden !

WATTMAN
Wattman-Profile 851+951+1001 und 1051 für LC und 1101 für LC-P+P
(Die Namen 851 etc. basieren auf der HBM-Controller-Spannung; für RX56 reicht Bios 2.)

Zieltemp. = 55°C Setzen ! Guter Air-Flow ist Vorraussetzung!(im Thread beraten lassen)

851: RX56(64) P6 1477/875+5mV P7 1617-10/906mV HBM 800+80/851mV (RX64 HBM-Takt 900..980)
Lüfter 1750/2750(2950) PT+50(RX64 PT+10)
901: RX56(64) P6 1477/860+15mV P7 1617-10/912mV HBM 880+40/901mV (RX64 HBM-Takt 945..1020)
Lüfter 1750/2950(3200) PT+50(RX64 PT+10)

951: RX56(64) P6 1477/925+5mV P7 1617-10/960mV HBM 880+40/951mV (RX64 HBM-Takt 980..1080)
Lüfter 1750/3250(3500) PT+50(RX64 PT+10)
1001: RX56(64) P6 1477/950+5mV P7 1617-10/1010mV HBM 880+40/1001mV (R64 HBM-Takt 1020..1140)
Lüfter 1750/3750(4000) PT+50(RX64 PT+10)

LC1001: RX64LC P6 1577/975..985mV P7 1632..1657/1035mV HBM 1080..1140/1001...1037mV PT+50
LC1051: RX64LC P7 1672..1682/1060mV HBM 1080..1140/1051mV PT+50
LC1101: RX64LC(P+P) P7 1687..1692/1080..1110mV HBM 1080..1150+/1101mV(mit P+P) PT+50
Hinweis: Alle instabilen HBM fallen sofort auf! Vor dem Testen reduzieren.

Customs (Devil, Nitro, Strixx etc.) dürften ungefähr wie LC laufen. Vorsichtshalber P6+5..+15mV und P7-Takt -10, PT +10..+20..+40(testen).

Spiele: sinnvolle Settings für AMD
- Umgebungsverdeckung (HBAO+) AUS oder niedrig (Testen, was die besten fps/Watt bringt)
- Tiefenschärfe (DOF) AUS
- Kantenglättung (AA) mit TAA= niedrig (ältere Games mit SMAA oder FXAA)
- falls nur MSAA verfügbar, max. 4x MSAA (oder MLAA im WAttmann)
- Auflösungsskalierung > Standard ist VSR, daher kann dann MSAA entfallen.
- Film-xyz AUS
- Bloom+Blur AUS
- Details von Ultra-->Hoch (reduziert i.d.R. vor Allem die Details im Hintergrund, entlastet die CPU)
- im Wattman-Gameprofil Tess. auf 6x setzen und AF=8x

Stabilitätstest:
Es ist sinnvoll nach großen OC-Schritten 2-3x längere Zeit zu spielen.
Da greift auch Treiber Tess.=6x.
Benchmarks ala Heaven+Firestrike+TS-Test2 haben keine Bedeutung!!!, weil da Treiber Tess.=6x nicht greift,
daher vollkomen egal ob solcher Benchmark-Quark stabil ist.
Bei schlechter Qualität des DP-Kabels kann das HDMI2.0-Kabel besser funzen.




TIPP #1: Beleuchtungs AUS (kleiner Schalter auf der Rückseite) beseitigt
evtl. vorh. Fiepen der LEDs.

TIPP #2: Uralte Games bei Problemen besser mit "Ausgewogen" spielen,
da eh nur in sehr niedrigen States(0-1) Aktivität.

TIPP #3: Bei Customs kann bei Experimenten mit OverdrivN-Tool o.ä. die VDDC ausser Kontrolle geraten.
--> DDU abgesicherter Modus, Treiber 17.11.4 installieren, im Wattman bei Graka Einstellungen ZURÜCKSETZEN
--> Neustart, Testlauf = normale Temps ?!, dann erst mit neuen Einstellungen weitermachen.
Die alten Profile löschen/nicht verwenden !

Sonstiges:
Nicht alle RUCKLER kommen vom Übergang auf P5+6+7 mit dem neuen Wattman-Profil!
Manchmal ist es einfach Streamen von SSD, das schlechte GAME oder CPU+RAM+Board.
Bitte gegentesten mit AMD-Standard-Setting Balanced.
Ansonsten hilft evtl. eine kleine Erhöhung von Fps-Limit von 3..5 fps.

Bios Modder RX56air-->64air-Bios
Das RX64Air ist am Günstigsten wg. dem niedrigen P5. An alle Bios-Modder der Hinweis, RX56 auf RX64air = PT-5..+10!!! Der Mod ist nicht dazu da, mehr Watt zu verbraten. Er dient ausschließlich der HBM-Übertaktung, mit dem zusätzlichen Goodie vom niedrigen P5= SMOOTH.
Es gelten dann die Einstellungen der RX64air !!!

Für RX-Mods mit h2o im Thread beraten lassen. (Da kann LC-Bios mit UV Sinn machen,
aber es sind auch Fälle aufgetreten, wo es Probleme gab!)




DANK
An die Threadteilnehmer Ragman, 4stroke, berntBrandon, Crynis + Holzmann und an BERNIE für die HTPC-Ideen
sowie SATUAN für die gute Range und free-server für das Thailand-Experiment.








User Wash mit einer Vega FE Erfahrung: Vielen Dank

Guten Abend,

nachdem ich mit Gerry einige PM's wegen den Settings ausgetauscht habe, wollte ich mal die Ergebnisse sichern ;)

GPU
  • P7: 1597 MHz @ 1070 mV
  • P6: 1502 MHz @ 960 mV
  • P5: 1452 MHz @ 950 mV
  • P4: 1352 MHz @ 950 mV (nicht weiter nach unten ausgelotet)
  • P3: 1267 MHz @ 950 mV (nicht weiter nach unten ausgelotet)
  • P2: 1137 MHz @ 900 mV (nicht weiter nach unten ausgelotet)
  • P1: 992 MHz @ 850 mV (nicht weiter nach unten ausgelotet)

HBM
  • P3: 1110 MHz @ 1040 mV

Powertarget: +50%

Anbei noch ein LogFile von GPU-Z während TS
Anhang anzeigen 426443

Abschließend:

Nicht jede FE wird den HBM Takt schaffen (habe hier wohl ein gutes Exemplar ergattert ^^)
BTW: Es handelt sich um eine FE @ Air auf HEatkiller umgebaut (Bilder stehen weiter vorne im Topic)

Ergänzung Thema Monitore:
@Holzmann für S.1

SINNVOLLE MONITOR+VEGA-KOMBINATIONEN

RX56 (+) 2560x1440
RX56(---) 3440x1440
RX64 (-) 3440x1440
RX64-Customs (+) 3440x1440
RX64LC (++) 3440x1440

@Holzmann
Bitte die Zeilen zu 3820x2180 mit auf S.1.
Die Besucher von S.1 sollen nicht mit übertriebenen Erwartungen ne RX64Ref. für 4k benutzen.
Selbst LC ohne P+P ist da an der Grenze.

btw.
meine GPU-Z zu TS
>5101
Valley analog ohne Probs.

fps
HTPC = 83 (mit HBM-Takt 840; Empfehlung bleibt trotzdem HBM@stock-Takt wg. Stabilität)
Low = 86,5
OC = 89

btw.
Bei einer 56+LC ist HBM>950mV = OC, weil der Uncore maßgeblich die W verändert.

btw.
ZIEL ist Gamen am Sweetspot mit ca.<90% Auslastung durch fps-Limit + Gamesettings,
wie Beispielhaft von Ragman in SWBF2 demonstriert.
(h2o wurde auf S.1 auf den Thread verwiesen und nicht explizit auf die Settings,
weil da Reserven bestehen, bzw. der Chip << 40°C ganz anders reagiert.
Siehe Hierzu free-server mit seinem Thailand Experiment. )

UPDATE 11.04.2018 ODT + Reg.file:

RX56 Bios1 975_900 HBM max 980MHz SOC 1107MHz GPU-Z max Takt=1460-1495MHz
Vddc Lastbereich (avg) 0,925-0,9583V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=850-P2=900-P3=915-P4=930-P5=945-P6=960-P7=975

ODT GPU-P7 1590-1625MHz Memory P3 800-980MHz PT 50
Belasteter Verbrauch ~170-190W GPU-only(Spitze)


RX56 Bios 1 1025_950 HBM max 980MHz SOC 1107MHz GPU-Z max Takt=1510-1555MHz
Vddc Lastbereich (avg) 0,975-1V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=900-P2=950-P3=965-P4=980-P5=995-P6=1010-P7=1025

ODT GPU-P7 1590-1640MHz Memory P3 800-980MHz PT 50
Belasteter Verbrauch ~200-220W GPU-only(Spitze)

________________________________________________________________

RX64LC Bios 1 975_900 HBM max 1100MHz SOC 1107Mhz GPU-Z max Takt=1515-1550MHz
Vddc Lastbereich (avg) 0,925-0,9583V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=850-P2=900-P3=915-P4=930-P5=945-P6=960-P7=975

ODT GPU-P6 1600MHz GPU-P7 1620-1650MHz Memory P3 945-1100MHz PT 50
Belasteter Verbrauch ~170-190W GPU-only(Spitze)


RX64LC Bios 1 1025_950 HBM max 1100MHz SOC 1107MHz GPU-Z max Takt=1570-1595MHz
Vddc Lastbereich (avg) 0,975-1V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=900-P2=950-P3=965-P4=980-P5=995-P6=1010-P7=1025

Für HBM max 1190MHz SOC 1199MHz, Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=925-P2=975-P3=985-P4=995-P5=1005-P6=1015-P7=1025


ODT GPU-P6 1620MHz GPU-P7 1640-1665MHz Memory P3 945-1150MHz PT 50
Belasteter Verbrauch ~200-225W GPU-only(Spitze)

________________________________________________________________

RX64Air Bios 1 975_900 HBM max 1100MHz SOC 1107Mhz GPU-Z max Takt=1500-1535MHz
Vddc Lastbereich (avg) 0,925-0,9583V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=825-P2=850-P3=875-P4=900-P5=925-P6=950-P7=975

ODT GPU-P7 1600-1630MHz Memory P3 945-1100MHz PT 50
Belasteter Verbrauch ~170-190W GPU-only(Spitze)


RX64Air Bios 1 1025_950 HBM max 1190 SOC 1199MHz GPU-Z max Takt=1550-1580MHz
Vddc Lastbereich (avg) 0,975-1V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=875-P2=900-P3=925-P4=950-P5=975-P6=1000-P7=1025

ODT GPU-P7 1600-1640MHz Memory P3 945-1150MHz PT 50
Belasteter Verbrauch ~200-225W GPU-only(Spitze)

________________________________________________________________

RX64RedDevil Bios OC 925_850 HBM max 1100MHz SOC 1107Mhz GPU-Z max Takt=1500-1535MHz
Vddc Lastbereich (avg) 0,925-0,9583V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=830-P2=835-P3=840-P4=845-P5=850-P6=900-P7=925

ODT GPU-P6 1501-1531 GPU-P7 1590-1630MHz Memory P3 945-1100MHz PT 50
Belasteter Verbrauch ~180-200W GPU-only(Spitze)


RX64RedDevil Bios OC 975_900 HBM max 1100MHz SOC 1107MHz GPU-Z max Takt=1550-1580MHz
Vddc Lastbereich (avg) 0,975-1V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=835-P2=850-P3=865-P4=885-P5=900-P6=925-P7=975

ODT GPU-P6 1506-1536 GPU-P7 1600-1640MHz Memory P3 945-1100MHz PT 50
Belasteter Verbrauch ~210-235W GPU-only(Spitze)


P6 Takt= ca. 50% +/- zu P7 angepasst (Beispiel= P7 +20Mhz gegenüber Org takt P6 +10Mhz gegenüber Org takt der RD)

Vielen Dank an User "DEVIL" für die Ausarbeitung und Stabilitätstests der Range für Custom-Vega(Verknüpfung Chip-P5).

________________________________________________________________

Die Spannungswerte für die neue Tabelle können allgemein angewendet werden, auch für Biosmod.

Erklärung für die Min- und Max- Werte:
In diesen Bereichen der effektiv ausgelesenen maximalen Taktraten(GPU-Z) ist ein stabiler Betrieb mit der jeweiligen Vddc-Regelung möglich.
Diese sind zusätzlich noch Temperaturabhängig. Im Vorfeld wurden Erfahrungen für Bereiche zwischen ~40-75°C mit einbezogen.
Es können daher bei eingestellten ODT GPU-P7 etwas geringere effektive Taktraten entstehen, diese dann nur im OC-Umfang versuchen nachzuregeln.
Um seinen stabilen effektiven Takt für jedes reg.file zu finden(eigene Temperatur, Lautstärke Lüfter), zu Beginn erst über GPU-P7 diesen schrittweise(5-10MHz) ausloten.
Erst danach den HBM-Takt schrittweise(10MHz) nach oben nehmen, dadurch wird sich nach und nach der effektive Takt reduzieren(stärke Belastung,Temperatur).
Den ausgeloteten effektiven Takt nach erhöhten HBM-Takt nicht nachregeln um wieder auf den selben Takt wie zuvor mit niedrigen HBM-Takt zu kommen.
Unter Umständen wird das sonst ein unendliches Spiel bis für die eigene Karte der stabile Betrieb gefunden wird.

Es wird sich auszahlen schritt für schritt an die Einstellungen zu gehen.
Mit den niedrigsten angegebenen Werten beginnen.
Danach zuerst GPU-Takt(bis max) dann HBM-Takt, je in 5-10MHz Schritten, nach oben nehmen.

SOC 1199MHz mit HBM-Takt >=1110MHz werden erst mit HBM-Temperaturen <= ~50°C möglich.(h2o)

Für Air die Lüftersteuerung so wählen damit Temperaturen über 75°C Chip vermieden werden.
Bei Bedarf oder Unsicherheit kann im Thread gerne weiter geholfen werden.

Zieltemperatur 50-55 hat sich bisher bewährt. Drehzahl max 2000-3000

Im Grundsatz kann man sagen, je kühler desto bessere Ergebnisse.

Die Einstellungen wurden auf Stabilität im Bench + InGame geteset.
FPS-Limit an/aus(Treiber, InGame)
Tesslation AMD optimiert/6x(Treiber)
AF 16x/8x Gamesettings
Verschiedene InGame Grafikeinstellungen (HBAO, HBAO+, HDAO, SSAO, 3D usw.)

Firestrike, Timespy, Overwatch, SWBF1(DX11), SWBF2, BF1(DX11), DOOM(Vulkan), Starcraft II, DragonAge Inq., Destiny 2, TombRaider(2013), RotTR(2016,DX12), BF4

HBCC vorzugsweise deaktivieren. Bei aktuellen Games nach Tests/Reviews schauen und 12GB bzw. 16GB verwenden.
Ältere Spiele wie z.b. Starcraft II, BF4, TombRaider(2013) produzieren teilweise Abstürze mit HBCC.



Erstellen + Nutzung des reg.file:

1. Wattman auf "Default" zurücksetzen


2. GPU-Z mit Administrator über Rechtsklick öffnen


3. Auf das markierte Symbol klicken um die Bios.rom mit gewünschten Namen zu speichern


4. ODT mit Administrator über Recktsklick öffnen


5. Rechtsklick auf die Titelleiste in ODT und "PPTable editor" anklicken


6. Create new using bios file auf "Open bios file" klicken und die zuvor gespeicherte "Bios.rom" auswählen


7. In der angezeigten Tabelle die Spannungswerte eingeben(rot), (blau) wird durch die Verknüpfung automatisch übernommen.
Taktraten für GPU + HBM nicht verändern für das reg.file. Anpassungen über ODT erfolgen später.
Nach korrekter Eingabe "Save to .reg file" und das reg.file mit gewünschten Namen in gewünschten Ordner speichern.


8. Doppelklick auf das erstellte und gespeicherte "reg.file" und die Aufforderungen bestätigen, danach Windows neustarten.


9. ODT durch Doppelklick öffnen,(grün) einmal "Reset all" und danach "Apply" anklicken um die neuen Werte zu übernehmen.
Es kann passieren das trotzdem noch die original Wattman Vddc-Regelung greift, daher Power Target 1x auf den Wert -1(rot) stellen und mit "Apply" übernehmen.
Danach kann Power Target für die Profile frei gewählt werden und die neue Vddc-Regelung greift.
(blau) vorrangig P7 aber auch P6 für den gewünschten/erforderlichen effektiven Takt nachträglich einstellen und mit "Apply" übernehmen.
Diese Werte können dann als Profile gespeichert werden(Save) und jederzeit entsprechend abgerufen werden (Load)


10. Reg.file wieder rückgängig machen:
Dazu wie in Punkt 4 + 5 vorgehen, bei bestehenden reg.file wird nun direkt die Tabelle angezeigt(hier kann auch direkt ein neues reg.file erstellt werden).
Zum löschen in der oberen Zeile 1x auf "Delete" klicken und die Aufforderungen bestätigen.
Der Treiber wird dadurch schon einmal neugestartet, zusätzlich aber einen Windows Neustart durchführen.
Jetzt ist wieder alles auf default gesetzt.
Wechseln zwischen reg.files benötigt diesen Schritt nicht, dort einfach ab Schritt 7 beginnen.


Nach Treiber-Update oder -Neuinstallation muss wieder Punkt 8 durchgeführt werden.
Nach Neustart einmal in ODT PT -1 übernehmen(apply), anschließend sein ODT-Profile für das entsprechende V-Offset laden und übernehmen(apply).


Angegebenen Max P7 effektiv Takt auslesen und Einstellen.
PC nach Kaltstart/Energiesparen noch einmal Neustart durchführen.
Es können ansonsten zwischen 5-20MHz GPU-Takt fehlen.


Für weiteres vorgehen oder andere Settings in Bezug auf meine Staffelung.
[Sammelthread] AMD RX VEGA Sammelthread + FAQ - Seite 229

Stock-Value Referenz_Vega inklusive Verknüpfungen/Abhängigkeiten:

Danke an alle Threadteilnehmer für die bisherigen und künftigen Erfahrungen/Ideen.
Dank an Ragman + Devil für die Unterstützung.


ODT-Download

OverdriveNTool - tool for AMD GPUs | guru3D Forums

- - - Updated - - -
 
Zuletzt bearbeitet:
jetzt wo er mir das Event Log geschickt hat, glaube ich den Fehler gefunden zu haben, bzw erinnere mich wieder, das ich selbst vor Monaten arge Probleme mit iCue bzw. dem Corsair Link Service hatte und dieser bei mir auch dauernd Black Screens verursacht hat. Das Event Log zeigt u.A. dass zur Absturz Zeit alles mögliche abschmiert...explorer.exe, Asus AI, Corsair link service, radeon setting, ....

dazu kommt diese mir bisher umbekannte Fehlermeldung, die sich zig mal wiederholt
Die Anwendung \Device\HarddiskVolume6\Windows\System32\xxxxxxxx mit der Prozess-ID 392 hat das Entfernen oder Auswerfen für das Gerät ACPI\PNP0A08\0 beendet.

xxxxx steht dabei für diverse Anwendungen - smss, dwm, csrss, wininit etc

hab jetzt nochmal gebeten, diesmal aber wirklich, das System neu aufzusetzen in minimal konfig..mal schauen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nach kompletter Neuinstallation und nur AMD Treiber, dennoch direkt wieder "Der Anzeigetreiber "amdkmdap" reagiert nicht mehr und wurde wiederhergestellt."

aber was ist "Die Anwendung \Device\HarddiskVolume6\Windows\System32\svchost.exe mit der Prozess-ID 7052 hat das Entfernen oder Auswerfen für das Gerät PCI\VEN_8086&DEV_A2EB&SUBSYS_00000000&REV_F0\3&11583659&0&DC beendet."
laut google soll das Inbtel PCI Express Root Port sein - Chipsatztreiber sagt aber, er ist aktuell
 
nach kompletter Neuinstallation und nur AMD Treiber, dennoch direkt wieder "Der Anzeigetreiber "amdkmdap" reagiert nicht mehr und wurde wiederhergestellt."

aber was ist "Die Anwendung \Device\HarddiskVolume6\Windows\System32\svchost.exe mit der Prozess-ID 7052 hat das Entfernen oder Auswerfen für das Gerät PCI\VEN_8086&DEV_A2EB&SUBSYS_00000000&REV_F0\3&11583659&0&DC beendet."
laut google soll das Inbtel PCI Express Root Port sein - Chipsatztreiber sagt aber, er ist aktuell

Evtl. ganz simpel gedacht, mal die Karte noch mal ausgesteckt und wieder eingesteckt und mal auf Staub oder Verunreinigung am Slot und auf den Kontakten von der Karte geprüft?

Oder Mainboard sitzt aus welchen Gründen auch immer nicht richtig passend und beim Anschrauben der Slotblende drückt es die Karte etwas aus dem PCI Schacht?

Oder wegen Customwakü, doch blöderweise irgendwie Feuchtigkeit da hin gekommen? Je nachdem wie die Karte eingesetzt wurde, also alles trocken gelegt und neue Schläuche oder alte Schläuche die noch ein paar Tropfen intus hatten und beim bewegen doch etwas raus gesäut haben.
 
Zuletzt bearbeitet:
Mit meiner RX56 Referenz:
Anhang anzeigen 447624


Sicher das es Vega 56 und 64 nicht kann? Gut mein Monitor macht nativ 8bit und über FRC 10bit aber das dürfte der Vega recht egal sein was der Monitor da macht und gibt ihm einfach die 10bit. Das Verhält sich mit einem nativen 10bit Panel ja nicht anders was die Graka da raus gibt.

Daher würde ich sagen Vega, egal welches Modell, kann 10bit mit 4:4:4 Full RGB.

Bei der RX580 kann ich es leider nicht direkt sagen.

Auf Grundlage von irgendwelchen Angaben aus einem Shop wäre ich vorsichtig.

hatte eben als der MPC-HC lief auf einmal bei RGB full 4:4:4 12bit:hmm: Konnte noch zwischen 10 und 8 wählen.
 
hatte eben als der MPC-HC lief auf einmal bei RGB full 4:4:4 12bit:hmm: Konnte noch zwischen 10 und 8 wählen.

Also mein Monitor unterstützt 10bit über frc das ist auch das Maximum das ich einstellen kann.


Was ist denn an deiner Graka angeschlossen? Ein HDR UHD TV?
 
Also mein Monitor unterstützt 10bit über frc das ist auch das Maximum das ich einstellen kann.


Was ist denn an deiner Graka angeschlossen? Ein HDR UHD TV?

Mein Monitor kann 10 Bit nativ. Angeschlossen habe ich diesen Monitor und mein AVR. Der war aber zu diesem Zeitpunkt ausgeschaltet.
 
läuft gut so :)

 
Moin,

hab mich noch mal rangemacht und die Karte mit neuer WLP versehen. Wollte damit der hohen Hotspot Temp Herr werden, um damit mal das neue BIOS der Karte ausreizen..
Leider war mein Mastergel Maker alle. :mad: Hab dann die Noctua NH1 genutzt.

Hier mal mein Standard 975mV file ( Reserven bei GPU u HBM Takt)
Standard975mV.jpg

Naja, die Hotsp temp ist immer noch nicht berauschend, aber HBM und GPU frieren dafür fast.^^

Habe dann trotsdem ein Versuch gestartet.
Ende für mich war bei 1125mV. PT ausgeschöpft, knapp unter Hotspot max Temp 103°c(in der Demo...TS1 u TS2 Grafik bei 80- 92°C)
GPU und HBM Eiskalt. Seltsam

Aber nichts desto trotz ein gutes Ergebniss
1125mV_max.jpg

Grüße
 
Zuletzt bearbeitet:
Slightly Pissed

Hat jemand eine Idee/ Erklärung wie zum Geier eine Vega 64 Nitro+ in spielen langsamer als eine 1st Gen Nvidia Titan (Zotac GTX Titan 6GB DDR4 384Bit) sein kann?

Für Captain Obvious: Die beiden Karten laufen wegen dem Phenom x6 1100T ins CPU-Limit. Die Vega anscheinend mehr als die alte Titan (Titan ging z.T bis 95% Auslastung, die Vega dümpelt je nach game so bei 70% rum)

(Warum dann so eine neue Karte? Ein Familienmitglied braucht selbst dringend neue und ich dachte dann - "gut probierste mal wieder "High End" von AMD und dann kann das Familienmitglied die alten Titan haben, die neuen werden schon mind. genausoschnell sein" <- ha ha... :shake:)

In manchen Spielen (keine neuen, eher alte, da ist also Pustekuchen mit DX 12 oder Vulkan, eher dx9 - 11) fehlen mir 10-30 FPS mit gleichen Settings (unterschied von 90 fps zu 120+) in anderen aber ist die Performance um den Faktor 2-3 langsamer (20-40 fps vs 50-100 fps)

Mein Ziel war zumindest "gleichwertige" Performance (mir war von vornerein klar das die Maximalperformance sich nicht viel geben könnte. Was mir nur nicht klar war das ich da auch gleich eine gebrauchte Grafikkarte aus >2013 kaufen könnte... (WTF?) ).

In theoretischen Benchmarks (z.B. Cinebench) ist die Vega auf meinem System minimal "schneller" als die alte Titan - hilft halt nur nicht was "echte" Szenarien anbelangt wo das dann dummerweise anders aussieht.



Habe die alten nVidia Treiber deinstalliert, Grafikkarte getauscht, neue Treiber von AMD Installiert.

Testweise ein paar Spiele angeworfen, schlechtere Performance gesehen, via DDU die nVidia Reste entfernt.

Ergab keinen Unterschied.

Also mich mit WattMan beschäftigt und einfach auf Benutzerdefiniert alles auf Vollast laufen lassen (aber kein OC!)

Kein Unterschied feststellbar. In einem Spiel wo wir um Faktoren 2-3 weniger FPS reden ist die Auslastung bei 10-15 % am Rumkrebsen, in einem Spiel wo der Unterschied 10-30 FPS beträgt bei ~70% Auslastung - CPU Limit halt (war ja zu erwarten)

Nun bin ich so langsam mit dem Latein am Ende.


Eine Sache die mir komisch vorkommt, aber da habe ich keine Erfahrungswerte zu: In dem ordner von Steam "steamapps\shadercache" werden in den Ordnern für die Spiele nur die Ordner "DXVK_state_cache" und "nvidiav1" angelegt (beide aber in mehreren Spielen leer) - ich frage mich also ob irgendwas den Programmen immernoch sagt das es eine nVidia ist.... da wüsste ich aber nicht wo ich ansetzen soll - auf ne kompletten Reinstall habe ich nicht wirklich Lust. Zumal ich vor jahren von AMD (Sapphire 4890 Toxic) auch einfach auf die Titan gewechselt bin und 0 Probleme hatte.


Ich kann mir kaum vorstellen das das ein Problem vom AMD Treiber sein soll... Es wäre an Lächerlichkeit nicht zu überbieten falls AMD einfach solch massiv Probleme mit CPUs hat die nicht genug "Luft" haben um deren Treiberineffizienz abzufedern, das deren High End Grafikkarten gegen +5 Jahre alte High-End Grafikkarten verlieren (in ECHTEN Szenarien - ich "spiele" keine Benchmarks).

Wenn das tatsächlich das Verhalten von AMD Karten im CPU limit ist, war das für immer meine letzte AMD Karte, da werfe ich lieber nVidia mit ihren beschissenen (Preis)politiken Geld in den Rachen.
 
Was meint Ihr, würde es sich lohnen meine Referenz-Vega64 zu verkaufen und mir eine neue Sapphire Nitro+ zu besorgen? Diese ist nämlich im Angebot und für unter 500 € zu haben. Da die Kühlung ja deutlich besser ausfällt, würde sich dies ja Leistungs-technisch lohnen.

Für wieviel könnte ich meine Vega64-Referenz anbieten? Vielen Dank
 
Hat jemand eine Idee/ Erklärung wie zum Geier eine Vega 64 Nitro+ in spielen langsamer als eine 1st Gen Nvidia Titan (Zotac GTX Titan 6GB DDR4 384Bit) sein kann?

Für Captain Obvious: Die beiden Karten laufen wegen dem Phenom x6 1100T ins CPU-Limit. Die Vega anscheinend mehr als die alte Titan (Titan ging z.T bis 95% Auslastung, die Vega dümpelt je nach game so bei 70% rum)

(Warum dann so eine neue Karte? Ein Familienmitglied braucht selbst dringend neue und ich dachte dann - "gut probierste mal wieder "High End" von AMD und dann kann das Familienmitglied die alten Titan haben, die neuen werden schon mind. genausoschnell sein" <- ha ha... :shake:)

In manchen Spielen (keine neuen, eher alte, da ist also Pustekuchen mit DX 12 oder Vulkan, eher dx9 - 11) fehlen mir 10-30 FPS mit gleichen Settings (unterschied von 90 fps zu 120+) in anderen aber ist die Performance um den Faktor 2-3 langsamer (20-40 fps vs 50-100 fps)

Mein Ziel war zumindest "gleichwertige" Performance (mir war von vornerein klar das die Maximalperformance sich nicht viel geben könnte. Was mir nur nicht klar war das ich da auch gleich eine gebrauchte Grafikkarte aus >2013 kaufen könnte... (WTF?) ).

In theoretischen Benchmarks (z.B. Cinebench) ist die Vega auf meinem System minimal "schneller" als die alte Titan - hilft halt nur nicht was "echte" Szenarien anbelangt wo das dann dummerweise anders aussieht.



Habe die alten nVidia Treiber deinstalliert, Grafikkarte getauscht, neue Treiber von AMD Installiert.

Testweise ein paar Spiele angeworfen, schlechtere Performance gesehen, via DDU die nVidia Reste entfernt.

Ergab keinen Unterschied.

Also mich mit WattMan beschäftigt und einfach auf Benutzerdefiniert alles auf Vollast laufen lassen (aber kein OC!)

Kein Unterschied feststellbar. In einem Spiel wo wir um Faktoren 2-3 weniger FPS reden ist die Auslastung bei 10-15 % am Rumkrebsen, in einem Spiel wo der Unterschied 10-30 FPS beträgt bei ~70% Auslastung - CPU Limit halt (war ja zu erwarten)

Nun bin ich so langsam mit dem Latein am Ende.


Eine Sache die mir komisch vorkommt, aber da habe ich keine Erfahrungswerte zu: In dem ordner von Steam "steamapps\shadercache" werden in den Ordnern für die Spiele nur die Ordner "DXVK_state_cache" und "nvidiav1" angelegt (beide aber in mehreren Spielen leer) - ich frage mich also ob irgendwas den Programmen immernoch sagt das es eine nVidia ist.... da wüsste ich aber nicht wo ich ansetzen soll - auf ne kompletten Reinstall habe ich nicht wirklich Lust. Zumal ich vor jahren von AMD (Sapphire 4890 Toxic) auch einfach auf die Titan gewechselt bin und 0 Probleme hatte.


Ich kann mir kaum vorstellen das das ein Problem vom AMD Treiber sein soll... Es wäre an Lächerlichkeit nicht zu überbieten falls AMD einfach solch massiv Probleme mit CPUs hat die nicht genug "Luft" haben um deren Treiberineffizienz abzufedern, das deren High End Grafikkarten gegen +5 Jahre alte High-End Grafikkarten verlieren (in ECHTEN Szenarien - ich "spiele" keine Benchmarks).

Wenn das tatsächlich das Verhalten von AMD Karten im CPU limit ist, war das für immer meine letzte AMD Karte, da werfe ich lieber nVidia mit ihren beschissenen (Preis)politiken Geld in den Rachen.

Ich würde mal durchatmen und nachdenken empfehlen. Zum einen beschäftigt hast du dich anscheinend nicht, sonst würdest du nicht auf die bescheidene Idee kommen bei Wattman Benutzerdefiniert alles auf Anschlag zu stellen. Selbe Blödsinn wie CB-Test.

Um zu testen ob es an einem richtigen CPU-limit liegt, versuch doch einfach mal in Wattman auch mit deinen Einstellungen State P7 als Minimum zu makieren, dann taktet die Karte immer im höchsten Bereich. Wenn dann immer noch die selbe schlechte Performance raus kommt, hast du irgendwo einen mächtigen Flaschenhals der vermutlich nicht nur die CPU betrifft.

Wie gesagt erstmal denken und schauen was ist los, Rückmeldung ob das hilft oder woran es dann gelegen hat wären super. Falls das nicht nur eine lustige Hasstirade sein sollte.

wattman_min_max_einstellen.jpg
 
Zuletzt bearbeitet:
@ ThoraXx schon mal an eine Wasserkühlung gedacht?
hab auch ne referenz und hab ihr erst nen Morpheus spendiert,leider war der hotspot nicht viel kälter dadurch habe ich mir ne custom Wasserkühlung gebaut(meine erste) und bin jetzt begeistert (gpu = 35°C 1550MHz, hbm = 45°C 1140MHz real und hotspot knapp 50°C beim zocken)
klar custom Wasserkühlung ist teuer aber nur bei Erstanschaffung und da du eh das Geld zuzm Fenster rauswerfen willst wäre das vllt eine Überlegeung wert,ich bin froh diesen Weg gegangen zu sein ,weil das einfach eine geile Sache ist und sieht oberdrein verdammt gut aus

dazu muss ich erwähnen ,dass ich in der Nähe von Caseking wohne was mir die Sache natürlich ziemlich leicht gemacht hat mich für eine Wasserkühlung zu entscheiden
 
Zuletzt bearbeitet:
Ich würde mal durchatmen und nachdenken empfehlen. Zum einen beschäftigt hast du dich anscheinend nicht, sonst würdest du nicht auf die bescheidene Idee kommen bei Wattman Benutzerdefiniert alles auf Anschlag zu stellen. Selbe Blödsinn wie CB-Test.

Um zu testen ob es an einem richtigen CPU-limit liegt, versuch doch einfach mal in Wattman auch mit deinen Einstellungen State P7 als Minimum zu makieren, dann taktet die Karte immer im höchsten Bereich. Wenn dann immer noch die selbe schlechte Performance raus kommt, hast du irgendwo einen mächtigen Flaschenhals der vermutlich nicht nur die CPU betrifft.

Ich sahs hier schon einige Stunden rum und habe recherchiert. Nicht nur wegen der Verwendung von WattMan sondern auch zur Grafikkarte selbst, z.B. wird in Reviews usw. gerne die Nitro+ mit der Nitro+ LE verwechselt, oder es gibt mittlerweile sogar eine neuere Revision der non LE Variante - ich hab schon Zeit damit verplemert rauszufinden warum ich nur 2 Stromanschlüsse an der Karte hatte, dann die Erwähnung von Karten die ein "Boost" Bios haben (warscheinlich LE) und meine Karte die ein Legacy & UEFI Bios hat (dachte erst das meine Karte ggf. im Stromspar Modus vor sich hinkriecht), ....

Hatte das fast wie du beschrieben hast getestet.

GPU hatte ich bei State 6 statt 7 - selbst mit State 6 gab es keinen nennenswerten Unterschied (Abweichung von 1-5 FPS, kann ich unter Messungenauigkeit verbuchen), aber ich probiere es später noch mal auf State 7. Mache mir da aber keine große Hoffnungen

Genauergesagt folgende Anpassungen hatte ich bei WattMan gesetzt:

GPU auf "Min" State 6
Memory auf "Min" State 3
Leistungsgrenze auf 50%

hast du irgendwo einen mächtigen Flaschenhals der vermutlich nicht nur die CPU betrifft.

Frage wäre aber wo und warum wird der mit Austausch der Grafikkarte "größer" wurde - die CPU hat sich nicht verändert - Netzteil würde mir höchsten einfallen? Das ist jetzt schon ein paar Jährchen alt, war aber auch kein billiges - auch wenn das keinen Defekt ausschließt (ist ein Seasonic X-Series 760 Watt, steht auch link in meinen Systemdaten)

Das einzige was sich sonst am System geändert hat: 3 neue Samsung 860 Pro SSDS und alte Gehäuselüfter gegen Noctuas getauscht. Ich habe danach aber nochmal das System mit der alten Grafikkarte gestartet und etwas herumgetestet, da ich die Temperaturverläufe unter Last mit den neuen Lüftern sehen wollte.

Wenn ich später wieder Zeit habe takte ich den 1100T mal wieder auf Standard (die CPU hat mit der Titan exakt den gleichen Takt gehabt - da gab es keine Änderung meinerseits, Temp liegt bei 40-42 mit Prime95 in dem maximum Heat test).

Wenn die FPS dann mit absinken kann ich mit mit großer Sicherheit davon ausgehen das AMDs Treiber wirklich, zumindest in meinem Fall, solche Auswirkungen am CPU Limit haben. Dann wäre nur interessant ob ich da mit noch mehr OC als aktuell schon gegenhalten kann (aktuell läuft der auf 3.8GHz stabil...).

Ja, neue CPU wär einfacher, nur habe ich aktuell keine Lust mich da wieder Tagelang mit Recherche zu Hardware zu beschäftigen (ich war im Sommer schon dran ein Threadripper System zusammenzustellen, dann hatte ich bei einigen der Teile die ich ausgewählt hatte tiefer recherchiert und dann es dann erstmal auf die Lange Bank geschoben, da waren mir dann zu viele Unsicherheiten auf die ich keine Lust hatte)
 
Zuletzt bearbeitet:
Also mein HBM läuft Bench stabil und Battlefield 1 ohne Probleme mit 1130Mhz, mal sehen wo der noch hin
geht ober ob es schon das max. ist.

 
Ja, neue CPU wär einfacher, nur habe ich aktuell keine Lust mich da wieder Tagelang mit Recherche zu Hardware zu beschäftigen (ich war im Sommer schon dran ein Threadripper System zusammenzustellen, dann hatte ich bei einigen der Teile die ich ausgewählt hatte tiefer recherchiert und dann es dann erstmal auf die Lange Bank geschoben, da waren mir dann zu viele Unsicherheiten auf die ich keine Lust hatte)

Außer der CPU kommt nichts in Frage, wenn du das nicht glauben möchtest kannst du dir mit MSI Afterburner die Auslastung zb der GPU anzeigen lassen, ist die nicht bei 100%, ohne das vsync oder ähnliches aktiviert ist, CPU zu schwach.
 
Außer der CPU kommt nichts in Frage, wenn du das nicht glauben möchtest kannst du dir mit MSI Afterburner die Auslastung zb der GPU anzeigen lassen, ist die nicht bei 100%, ohne das vsync oder ähnliches aktiviert ist, CPU zu schwach.

Aus welchem Grund ist eine Uralt-Titan (erste Titan generation), die auch schon, wie ich schrieb, nicht auf 100% Auslastung kommt, dann wesentlich schneller als die Nitro+?

...
Für Captain Obvious: Die beiden Karten laufen wegen dem Phenom x6 1100T ins CPU-Limit. Die Vega anscheinend mehr als die alte Titan (Titan ging z.T bis 95% Auslastung, die Vega dümpelt je nach game so bei 70% rum)
...

Die CPU wird offensichtlich nicht urplötzlich langsamer, nur weil da eine andere Grafikkarte drin steckt. Da muss dann folglich entweder irgendwo erheblich größerer Overhead entstehen oder ein Problem vorliegen.

Wenn die Titan schon am CPU Limit ankam, wird das die Vega64 sowiso, steht da ja auch. Die Frage war auch nie ob die Grafikkarten im CPU Limit hängen und ich habe auch nicht die Erwartung geäußert das die Performance steigt.

...
Mein Ziel war zumindest "gleichwertige" Performance (mir war von vornerein klar das die Maximalperformance sich nicht viel geben könnte.
...

Die Frage war warum die Nitro+ sprichwörtlich von einer +5 Jahre alten GPU demontiert wird (und das ist die Korrekte Wortwahl, wir reden nicht von ein paar FPS) - das ist nämlich das was hier passiert. Auch mit State 7 wie ich gerade probiert habe (war ja klar, State 6 macht schon keinen Unterschied). Die Nitro+ kommt nichtmal Ansatzweise an die alte Grafikkarte ran.


Mal hypothetisch: Was macht der AMD Treiber das so massiver Overhead entstehen soll im Gegensatz zu nvidia, wenn es wirklich durch das CPU Limit bei einer potenteren GPU zu einem Verlust von performance kommen soll?
 
Zuletzt bearbeitet:
Bei 1160 ist Schluss in Battlefield 1 ist doch ok :)

 

Mhh, ich erinnere mich dunkel... Ich schau mal das ich bei anderen Spielen gegenteste, ich weiß zwar grade nicht aus dem Kopf welche Spiele was hatten, aber mal schauen.

Welche Titan meinst du eigentlich, die GeForce GTX Titan GK110-400-A1 aus 2013?

Ja, das meine ich mit der ersten "Titan" Generation: GTX TITAN | ZOTAC (auf meiner alten Titan steht ZT-70101, es fehlt nur "-10P", meine sieht aber genau so aus)

Edit: Lol - der Drops ist denke ich gelutscht: AMD und die bescheidene Performance im DX11 CPU Limit - Seite 66

Dann trete ich halt die Vega an mein Familienmitglied ab, jetzt auf die schnelle komplett neue CPU / MoBo zu kaufen ohne mich damit vernünftig zu beschäftigen habe ich keine Lust zu. Traurig allerdings das diese Problematik mit DX11 immernoch existiert, sofern das wirklich das Kernproblem ist.
 
Zuletzt bearbeitet:
@ ThoraXx schon mal an eine Wasserkühlung gedacht?
hab auch ne referenz und hab ihr erst nen Morpheus spendiert,leider war der hotspot nicht viel kälter dadurch habe ich mir ne custom Wasserkühlung gebaut(meine erste) und bin jetzt begeistert (gpu = 35°C 1550MHz, hbm = 45°C 1140MHz real und hotspot knapp 50°C beim zocken)
klar custom Wasserkühlung ist teuer aber nur bei Erstanschaffung und da du eh das Geld zuzm Fenster rauswerfen willst wäre das vllt eine Überlegeung wert,ich bin froh diesen Weg gegangen zu sein ,weil das einfach eine geile Sache ist und sieht oberdrein verdammt gut aus

dazu muss ich erwähnen ,dass ich in der Nähe von Caseking wohne was mir die Sache natürlich ziemlich leicht gemacht hat mich für eine Wasserkühlung zu entscheiden

Was würde mich der Einstieg in die Custom Loop den Kosten? interessiert wäre ich natürlich. Bewegen tu ich meinen Rechner ohnehin nicht groß. Die Sapphire wäre halt eine sehr kostengünstige Version gewesen, wenn ich noch vielleicht 400 kriegen könnte.
 
Was würde mich der Einstieg in die Custom Loop den Kosten? interessiert wäre ich natürlich. Bewegen tu ich meinen Rechner ohnehin nicht groß. Die Sapphire wäre halt eine sehr kostengünstige Version gewesen, wenn ich noch vielleicht 400 kriegen könnte.

kommt immer drauf an was einem gefällt und welches Case du hast.
Dann dein Budget ob nur GPU oder auch CPU gekühlt werden soll. Wenn es erst mal was einfaches sein soll
wie z.b. ein 360er Radi,CPU Kühler,GPU Kühler,AGB,Schlauch,Anschlüsse,Flüssigkeit und Kleinkram kannst du so ab 350 euro Rechnen.
Gibt aber auch zb von Alphacool erweiterte Custom Lösung wo du z.b. je nach Radi Größe auch was nachrüsten kannst z.b erst mal CPU Kühlen
und eventuell GPU später oder anders herum.
https://www.alphacool.com/search?p=1&q=Eissturm&o=7&n=12&f=2237%7C124%7C419
oder von EK
EK Water Blocks Wakü-Set EK-KIT S360

ansonsten alles einzeln kaufen und selber zusammenstellen.
Beispiele kann man sich auch holen in dem Thread
Wakü *** Bilder *** Thread (ungesplittet) !! Regelupdate, 1. Post beachten!
 
Zuletzt bearbeitet:
@ ThoraXx also,wenn ich von mir ausgehe ,dann würde ich keine 400€ für eine gebrauchte Graka geben ,wenn ich eine neue für 500 haben kann,ich denke diese Rechnung geht nicht auf,gehen wir mal davon aus du bekommst 350€,dann musst ja immernoch 150€ mehr berappen um die neue zu bekommen,zusammen gerechnet mit dem Wertverlust den du mit deiner jetzigen Graka machen würdest ,schätze ich kommst du auf 500€ Miese,ich weiss dafür kann man sich nix kaufen ist halt nur ne Rechnung...

für eine qualitativ hochwertige custom... musst du mit ca. 500€ rechnen,ja ist nicht ohne ,verdammt viel geld aber es lohnt sich im Gegensatz zu einer custom Vega mit der du kein Performance Unterschied merken wirst
andererseits kannst du mit Sicherheit für umsonnst kühlere Tempertaturen aus deiner aktuellen ref. rausbekommen indem du dich mit dem reg.file auf Seite 1 bekannt machst

bisschen uv hier,bisschen gescheite Einstellung da sollte einieges bringen und Spass machts auch noch,das würde ich auf jeden Fall erstmal ausprobieren bevor ich Geld in die Hand nehme um das so schon extrem teure "Vega- Experiment" weiter zu pushen

p.s um Missverständnissen vorzubeugen,eine custom Wasserkühlung macht aus der Vega keine neue Grafikkarte,sie hilft aber viel Verlustleistung zu sparren in dem die karte kühl gehalten wird, was sich wiederrum
positiv auf ihre "Parametrierung" auswirkt


falsl Interesse besteht empfehle ich auf die Seite von Caseking zu gucken unter Wasserkühlung, da gibt es alles was das Herz begehrt.
 
Zuletzt bearbeitet:
Mal eine allgemeine Frage wer ist denn alles mit 1440p 144Hz freesync unterwegs mit seiner Vega.

Da würde mich interessieren wie es mit stabilen Frametimes beim aktuelleren Titeln aussieht bei denen es nicht durchgehend >100Fps geht.

Und evtl. falls noch nicht ausprobiert wie es da aussieht mit einem FPS-Limit von 77FPS ob sich da etwas verbessert auch wenn es nur gefühlt ist.

Die 77FPS sollten realistischer sein was mit Vega möglich ist und genug Futter für ein flüssiges und sauberes Spielerlebnis sein. Und bitte nicht mit irgendwas anfangen von 144FPS bei 144Hz sind nötig.

Danke im voraus.
 
Zuletzt bearbeitet:
@Kintaro,
ich setzte meist kein Limit, Freesync regelt das von alleine. Bei Titel wie CoD4: Black Ops, Destiny 2, Division, Fortnite usw. habe ich über 77 FPS. Bei Spielen mit hoher CPU Last wie z.B. CoD oder Destiny merk ich die Frame Drops gelegentlich. Dann sind die aber heftig von >100 auf ca. 60FPS. Das liegt allerdings an meiner CPU (Upgrade nötig:fresse2:). Ich bin ehrlich gesagt kein Freund von Framelimit bei Freesync, das kann bei manchen Games zum flackern führen.

Hast du irgend ein Problem mit einem schlechten Spielgefühl?

Grüße
 
Zuletzt bearbeitet:
Danke für die Antwort.

Vom Spielgefühl nicht direkt, aber ich muss sagen bei mir mit 4K ist zwar echt der Kracher, ich sehe zumindest den unterschied, aber so wie sich alles entwickelt geht alles nicht mehr in die Richtung natives 4K spielen wie ich es mit Einstieg der Fury X damals erhofft hatte.

Zum ausprobieren wollte ich da mal das Experiment mit einem 144HZ 1440p Moni wagen, ich kann ja ohne Probleme mit meinem 4K auch auf 1440p runter ohne merklichen Verlust gegenüber einem nativen 1440p nur bin ich da dann immer noch auf 60Hz mit Freesync limitiert.

Dort setze ich ein FPS_Limit von 57 um das Tearing fern zu halten, flackern ist mir da noch nicht aufgefallen, auch die letzten Jahre nicht.

Was ich aber merke ich kann doch die 2-3 Einstellung auf Hoch lassen die etwas Optik machen ohne FPS einbrüche wie in 4K.

Und mir geht es um stabile FPS und damit Frametime, auf 1440p mit 57FPS-Cap sind die halt absolut stabil bei 18ms und das fühlt sich dann doch schon besser an für mich als 4K mit ein paar Einstellungen auf Mittel und FPS zwischen ~48-57 und Frametimes zwischen 18 und 22-23ms.

Für mich stellt sich nur die Frage wie schauts aus vom Spielgefühl wenn man sie frei laufen lässt mit einem 144Hz Moni und dann etwas Schwankungen hat <144FPS. Oder dann halt gar auf 77FPS als Limit(das schafft Vega ja in den allermeisten Games ohne auf Mittel zu gehen) festsetzt und damit wieder absolut stabile Frametime hat und der Moni dann Praktisch eine Verdopplung für die Darstellung macht. Bei der Schwankung würden sich ja auch wieder Mikroruckler bemerkbar machen weil die Bildausgabe nicht gleichmäßig ist und mal mehr oder weniger Bilder zwischen geschoben werden?

Und gerade bei Destiny 2 muss ich sagen merk ich da nicht so viel ganz selten mal mit dem Speeder von einem Gebiet ins nächste mal kurz einen Einbruch von 2-3FPS in 4K. Bei 1440p gar nichts. Das wird dann an meinem Ryzen 7 liegen das nicht so starke Einbrüche kommen. Mit dem I7 4790K war das schlimmer.
 
Zuletzt bearbeitet:
Mir fällt es nur auf, wenn es Richtung 50FPS geht. Dann wirkt es für mich nicht mehr ganz so "rund". Von Mikroruckler habe ich noch nichts gemerkt. Außer in BF1 damals mit DX12 und Windows Gamemode. Das lag allerdings am Spiel selber.

Alles darüber macht für mich keinen Unterschied. Freesync bügelt da echt viel aus. Ich Spiele unter anderem Rainbow Six Siege dort habe ich eine weile ohne Freesync gespielt. Es ist mir aufgefallen wenn die Frames unter 100FPS, trotz 144Hz, gefallen sind. Mit Freesync merke ich keinen Unterschied mehr. Ich glaube, wenn du es bei 77FPS fest tackers wirst du ein gutes Spielgefühl haben.
 
@Kintaro89
du darfst dann gerne deine Eindrücke von 1440p mit der Vega schildern. Stehe vor dem selben Problem. Für 4K 60Hz ist die Vega doch langsam am Ende, trotz FreeSync. Uberlege deshalb auch auf 1440p zu wechseln. Auf meinem Moni sieht 1440p einfach nicht schön aus im Vergleich zu 4K.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh