[Sammelthread] AMD RX VEGA Sammelthread + FAQ

AMD RX Vega Sammelthread + FAQ




Die technischen Daten der AMD Radeon RX Vega in der Übersicht:




Was zur Netzteilleistung: Einige User haben mit Netzteilen bei einer Leistung um 500 Watt von Stabilitätsproblemen berichtet, nach Tausch auf ein NT mit einer Leistung um 700 Watt sind diese behoben worden, die Empfehlung von AMD als Minium ein NT mit 750 Watt Leistung zu verwenden, scheint hier in der Praxis sehr relevant zu sein. Es empfiehlt sich außerdem zwei getrennte Stränge der 8-Pin Stecker vom NT zu verwenden.

User Erfahrungen und Empfehlungen/Ergänzungen:

VEGA-FEATURES
- Shader Insintrincs (nur unzureichend bei den Dev´s eingesetzt)
- TressFX (performant)
- AMD-Schatten (performant und präziser als GW)
- VR (Cyan Room stark verbessert)
- Async Compute (flexibel + performant)
- DX11 (bei 1080p stark verbessert)
- Tess. ( bis 16x besser als 1080)
- Mining (eigene Liga)
- Bios (V56-->V64LC bei Bedarf - nur Ref.)
- Wattmann (Hardwaresettings: Profile+OSD+Chill+Tess.-opt.+fps-Limiter+Framepacing+flex.Sync)
- Undervolting (7..10%)
- Energieeff. (Bsp. RX56 UV Bios 2 PT-10 = 138W)
- ALLONE STANDING FEATURES
primitive Shader (kommen 2018 nach und nach)
HBCC (bei 32GB bis zu 20GB - sinnvoll für echte 4k-Texturen und im prof. Bereich z.Bsp.TByte-Punktewolken aus Scan + 4k HDR-Videoediting)
Freesync 2 (Tonmapping im Monitor entfällt --> schnellere Darstellung+weniger Lag und preiswerte+lieferbare Monitore HDR600)
HDR10 (FP16-10bit - bei PASCAL NA)
FP16 ( 2x16 gleichzeitig)
- P/L (Bsp. RX56= 1070, RX64= 1080 - Customs +59,-€; 2x RX56ref.= Ti6GBs; 2x RX64LC= Txp, 2xFE<Tv)
- Lieferbarkeit (noch nicht top)
- Treiber (low level ready - Dev´s sind noch nicht Alle ready)
- Ref.-Karten (Kühlerqualität gegenüber Polaris stark verbessert)
- Wakü. (lieferbar - ab RX64 zu empfehlen bei OC)
OVERCLOCKING
- Chiplotterie (wie immer, aber sinnvoll )
- eff.Takt ( mit UV+ OC+PT >100 gegenüber Reviews - PT mit Bedacht einsetzen, i.d.R. UV besser;
VEGA mag es COOL-->Lüfter+Zieltemp.!)





Aktuelle Treiber: noch keiner, nur Beta:
Radeon Software Crimson ReLive Edition for Radeon RX Vega Series Release Notes


Radeon Software Crimson ReLive Edition 17.8.1 Release Notes


Radeon Software Crimson ReLive Edition 17.8.2 Release Notes


Radeon-Software-Crimson-ReLive-Edition-17.9.1-Release-Notes


Radeon-Software-Crimson-ReLive-Edition-17.9.2-Release-Notes


Radeon Software Crimson ReLive Edition 17.9.3 mit verbesserter mGPU-Unterstützung - Hardwareluxx

Radeon Software Crimson ReLive Edition 17.10.1 Release Notes



Radeonâ„¢ Software Crimson ReLive Edition 17.10.2 Release Notes


Radeonâ„¢ Software Crimson ReLive Edition 17.10.3 Release Notes


Radeon Software Crimson ReLive Edition 17.11.1 Release Notes


Radeonâ„¢ Software Crimson ReLive Edition 17.11.2 Release Notes


Radeonâ„¢ Software Crimson ReLive Edition 17.11.3 Radeon RX Vega Hotfix Release Notes


New Version Adrelanie
Radeon Software Adrenalin Edition 17.12.1 Release Notes



Treiber für Mining:
Radeon Software Crimson ReLive Edition Beta for Blockchain Compute Release Notes

Anmerkung: User haben berichtet, dass im Gegensatz zum Beta Treiber mit dem Mining Treiber CrossfireX aktivieren lässt!

Bzgl. CF Support hat AMD in Aussicht gestellt, das dieser zu einem späteren Zeitpunkt in gewohnter Form wieder zur Verfügung steht:
"There is no difference regarding CF but as we said previously, it's support for RX Vega will come at a later point."

Tool zum Boisflash:
ATI Winflash - Download - CHIP

Und Bios Kollektor
VGA Bios Collection | TechPowerUp

[/B][/B]Tool zum einstellen der P-States:
WattTool: A simple tool that combines overclocking with VRM monitoring/tweaking for RX 400 series

Tutorial zum Watt tool:
Vega 56 OC + UV gut oder Müll? - YouTube

saaphire trixx funktioniert offiziell mit vega
SAPPHIRE Technology

Custom Karten: noch keine ab Oktober 2017

Radeon RX Vega 64 56: Die Custom-Design-Situation ist ein Chaos

Asus ROG Strix RX Vega64 O8G Preview - YouTube

RX VEAG64 Umbau auf Morpheus 2 Core Edition von RAIJINTEK by user pickebuh
[Guide] RX VEAG64 Umbau auf Morpheus 2 Core Edition von RAIJINTEK

User BerntBrandon gibt folgendes zu bedenken bzgl. RX Vega56/64 und Raijintek Morpheus II Core Edition

Anscheinend ist die Kombination aus RX Vega56/64 und Raijintek Morpheus II Core Edition nicht zu empfehlen.
Das Problem bei montierten Morpheus II Core Edition ist eine gegenüber der GPU ca.65°C und HBM ca.70°C Temperatur stark erhöhte HotSpot Temperatur, teilweise in einen bedenklichen bereich von weit über 90°C. (Temperaturen sind je nach Belüftung und Last abweichend)
Der Referenz Kühler weißt keine so hohe Abweichung auf. 4Stroke hat Werte zu Verfügung gestellt.
Mehr vergleichswerte ob vom Referenz Kühler oder anderen sind erwünscht, gemessen wurde mit: Unigine Valley Benchmark @ DX11, Quality:Ultra, AA 8x, 1920x1080p, bitte die GPU /HBM/ HotSpot Temperaturen und GPU Chip Power angeben.

Die Ursache des Problems ist anscheinend das der Morpheus II im Gegensatz zum Referenzkühler nur mit einer relativ kleinen Fläche direkt auf dem Vega10 Chip aufliegt.
Was ein vergleich der Verteilung von Wärmeleitpaste auf Referenzkühler und Morpheus II Core Edition aussagt.

Morpheus: Anhang anzeigen 417227
Referenzkühler:Anhang anzeigen 417228

Vermutet wird das der Morpheus II Core Edition einen leicht konvexen schliff hat, wenn das so ist hat das gute Gründe und wäre kein Mangel!
Raijintek wurde auf Facebook gefragt ob die Kupferbasis des Morpheus II Core Edition plan ist, wenn eine Antwort vorliegt wird das hier ergänzt.

Das soll keine Kaufwarnung sein, es sollte aber beachtet werden das der Morpheus II Core Edition vom Hersteller nicht für die RX Vega56/64 freigegeben ist!

User Beitrag original lüfter von rx64@lc als pull betrieb:
hier das bild von push/pull betrieb.

wie man vll sieht ist der original lüfter von rx64@lc als pull betrieb verlegt von mir und der push lüfter ist ein nzxt air rgb 140mm.

und den nzxt lüfter steuere ich über den msi tool command center, da ich den lüfter direkt an das mainboard angeschlossen habe.

den original lüfter steuere ich natürlich über wattman.

Falls die Karte fiept eine Lösung von User ragman1976:

Vielleicht ergänzend falls es immer noch fiept:

Gehäuse aufschrauben und den Stecker im Bild (roter Kreis) abziehen. Somit ist zwar die Beleuchtung (Schriftzug und Quadrat im Eck) aus, aber das Fiepen, bei mir zumindest, gänzlich verschwunden.

Anhang anzeigen 426044

Gruß






Test/Multimedia:
AMD Radeon RX Vega 64 und RX Vega 56 im Test - Seite 46

AMD Radeon RX Vega 64 und Vega RX 56 im Test: Heiße Vega?

Seite 4: Radeon RX Vega 64 Liquid Cooled - Vergleich mit Nvidias GTX 1080 (Ti) - GameStar

The RX Vega Liquid Edition Review - YouTube

UV mit Vega im Test:
AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx

TechPowerUp GPU-Z v2.3.0 Released | techPowerUp

user Review:

[User-Review] XFX AMD Vega 64 Air - Unboxing und Einbau

Aktuelle Preise:
amd rx vega bei idealo.de

Overclocking guide:
RX Vega 56 Overclocking Undervolting GUIDE - YouTube

Overclocking Ergebnisse user: (Auszug, beste Ergebnisse)
Fire Srtike vega64 Grafik Score 23124 OC: 1750mhz 1750/1015 @Holzmann
Pic-Upload.de - strike.png

Fire Strike vega64 Grafik Score 24421 stock @RoughNeck mit vega 64 LC
Forum de Luxx

Fire Strike vega64 Grafik Score 24651 OC: 1752/1070 stock @Shevchen
Generic VGA video card benchmark result - Intel Core i7-4930K,ASUSTeK COMPUTER INC. RAMPAGE IV BLACK EDITION
Generic VGA video card benchmark result - Intel Core i7-4930K,ASUSTeK COMPUTER INC. RAMPAGE IV BLACK EDITION


25235 GPU Score @DerEisbär
AMD Radeon RX Vega 64 video card benchmark result - Intel Core i5-6600K,ASRock Z170 Gaming K4


20423 GPU Score Vega56 Undervolted Vega 56, Eingestellt 1700 Mhz Core, 900 Ram, 850mv Vcore, PT 50% @salzcracker
Bild: vegaturbowruvk.jpg - abload.de

24299 GPU Score Vega56 1750-1200mV/1100 HBM mit 64 LC Bios @Spankmaster

26115 GPU Score Vega64 1655/1100 HBM @iLLuminatusANG
AMD Radeon RX Vega 64 video card benchmark result - Intel Core i7-6700K,ASUSTeK COMPUTER INC. Z170 PRO GAMING

25490 GPU Score Vega 64 lc P7: 1752 MHZ/1240mV HBM: 1150MHz/1005mV @ragman1976
AMD Radeon RX Vega 64 Liquid video card benchmark result - Intel Core i5-4690K,MSI Z97 GAMING 5 (MS-7917)



Superposition Score vega64 4536 OC: 1750mhz/1015 @Holzmann


Superposition Score vega64 4259 OC: 1700/1100 @Shevchen
Forum de Luxx
Superposition Score 5078 mit VegaLC @ignis
Pic-Upload.de - Superposition_Benchmark_v1.0_5078_1503375389.jpg

Superposition Score 5006 vega64 OC@G3cko
XFX Vega 64 @ EKWB
GPU-P6 1600MHz @ 1080mV
GPU-P7 1660MHz @ 1150mV (real liegen "nur" 1630MHz an)
HBM2 1100MHz @ 1050mV

Super Position Score 5220 1750mhz@hbm2@1100mhz mit 64LC @crynis
http://saved.im/mja5otq0azjl/04-09-_2017_01-14-51.jpg

Super Position Score 5311 Vega64 mit 1780 mhz und HBM 1150mhz / Bios von der Vega LC version. GPU UV 1080 mVolt.
Treiber 17.9.1 @Motkachler
[Sammelthread] AMD RX VEGA Sammelthread + FAQ - Seite 16

Super Position Score 4434 mit Vega56 1750-1200mV/1100 HBM / mit 64 LC Bios air @Spankmaster

Super Position Score 4827 Vega56 1680/1100 @ 1,05V (Vega64 Air Bios). Effektiv liegen 1,05V an durch den VDrop, Wattmann eingestellt 1712 GPU Takt @Spankmaster
[Sammelthread] AMD RX VEGA Sammelthread + FAQ - Seite 64

Superposition Score Vega 64 LC 5359 OC: 1741/1150 @blazethelight


Auf User Wunsch wird die Übersicht auf Bench: Time Spy aufgebohrt, entsprechend höhere Scores werden hier nachfolgend eingetragen :




Für die Analen tu ich doch alles :bigok:

Hier noch ein weiterer Versuch - wobei ich mit P6 noch nicht hoch genug bin?

Sag mir doch einfach direkt, was ich einstellen soll :cool:

Habe HBM von 1150 auf 1180 erhöht.

Die 56 / 45 FPS schaffe ich auch noch...

Anhang anzeigen 421180



Heute Morgen ging es in die nächste Runde, die 55 FPS Grenze in TimeSpy Grafiktest 1 lies mir keine Ruhe :-)

GPU: RX Vega 64 lc
BIOS-Typ: lc Performance Mode
P7: 1740 MHz
HBM: 1150 MHz
PT: +50
GPU only Watt: 318 W
CPU-Takt: 4500 MHz
Ram-Takt:

Macht Grafiktest 1 55,1 FPS (Grafikscore 8015):

AMD Radeon RX Vega 64 Liquid video card benchmark result - Intel Core i5-4690K,MSI Z97 GAMING 5 (MS-7917)






Last but not least

eine Einstellungsempfehlung mit freundlicher Unterstützung von User GerryB mit Fokus auf Leistung bei möglichst geringem Verbrauch für 24/7:

@Holzmann >5366

24/7-SETUP für REFERENZKARTEN

Ziel:
Bei realem Gaming soll die Air-Graka mit ca. GPU 60°C betrieben werden.
Damit ist eine Gute Effizienz bei niedrigen Spannungen möglich.
Benchmark-Scores sollen damit nicht erzielt werden = unwichtig.

Zusammen mit fps-Limit verwenden!
!!! Im Zweifelsfall ist fps-Limit im Wattman unter Globale Settings der sicherste Weg !!!
Bei Spielen wo, Das nicht funzt dann sicherheitshalber Vsync nehmen.
DAS FPS-LIMIT SOLL DIE TEMPS+WATT BEGRENZEN.

CPU+RAM auf Stock und NUR Wattman benutzen.
Vorher ein ausreichendes NT einbauen bzw. das Vorh. auf Eignung checken.
Instabile Systeme und inkompatible Tools müssen ausgeschlossen werden !

WATTMAN
Wattman-Profile 851+951+1001 und 1051 für LC und 1101 für LC-P+P
(Die Namen 851 etc. basieren auf der HBM-Controller-Spannung; für RX56 reicht Bios 2.)

Zieltemp. = 55°C Setzen ! Guter Air-Flow ist Vorraussetzung!(im Thread beraten lassen)

851: RX56(64) P6 1477/875+5mV P7 1617-10/906mV HBM 800+80/851mV (RX64 HBM-Takt 900..980)
Lüfter 1750/2750(2950) PT+50(RX64 PT+10)
901: RX56(64) P6 1477/860+15mV P7 1617-10/912mV HBM 880+40/901mV (RX64 HBM-Takt 945..1020)
Lüfter 1750/2950(3200) PT+50(RX64 PT+10)

951: RX56(64) P6 1477/925+5mV P7 1617-10/960mV HBM 880+40/951mV (RX64 HBM-Takt 980..1080)
Lüfter 1750/3250(3500) PT+50(RX64 PT+10)
1001: RX56(64) P6 1477/950+5mV P7 1617-10/1010mV HBM 880+40/1001mV (R64 HBM-Takt 1020..1140)
Lüfter 1750/3750(4000) PT+50(RX64 PT+10)

LC1001: RX64LC P6 1577/975..985mV P7 1632..1657/1035mV HBM 1080..1140/1001...1037mV PT+50
LC1051: RX64LC P7 1672..1682/1060mV HBM 1080..1140/1051mV PT+50
LC1101: RX64LC(P+P) P7 1687..1692/1080..1110mV HBM 1080..1150+/1101mV(mit P+P) PT+50
Hinweis: Alle instabilen HBM fallen sofort auf! Vor dem Testen reduzieren.

Customs (Devil, Nitro, Strixx etc.) dürften ungefähr wie LC laufen. Vorsichtshalber P6+5..+15mV und P7-Takt -10, PT +10..+20..+40(testen).

Spiele: sinnvolle Settings für AMD
- Umgebungsverdeckung (HBAO+) AUS oder niedrig (Testen, was die besten fps/Watt bringt)
- Tiefenschärfe (DOF) AUS
- Kantenglättung (AA) mit TAA= niedrig (ältere Games mit SMAA oder FXAA)
- falls nur MSAA verfügbar, max. 4x MSAA (oder MLAA im WAttmann)
- Auflösungsskalierung > Standard ist VSR, daher kann dann MSAA entfallen.
- Film-xyz AUS
- Bloom+Blur AUS
- Details von Ultra-->Hoch (reduziert i.d.R. vor Allem die Details im Hintergrund, entlastet die CPU)
- im Wattman-Gameprofil Tess. auf 6x setzen und AF=8x

Stabilitätstest:
Es ist sinnvoll nach großen OC-Schritten 2-3x längere Zeit zu spielen.
Da greift auch Treiber Tess.=6x.
Benchmarks ala Heaven+Firestrike+TS-Test2 haben keine Bedeutung!!!, weil da Treiber Tess.=6x nicht greift,
daher vollkomen egal ob solcher Benchmark-Quark stabil ist.
Bei schlechter Qualität des DP-Kabels kann das HDMI2.0-Kabel besser funzen.




TIPP #1: Beleuchtungs AUS (kleiner Schalter auf der Rückseite) beseitigt
evtl. vorh. Fiepen der LEDs.

TIPP #2: Uralte Games bei Problemen besser mit "Ausgewogen" spielen,
da eh nur in sehr niedrigen States(0-1) Aktivität.

TIPP #3: Bei Customs kann bei Experimenten mit OverdrivN-Tool o.ä. die VDDC ausser Kontrolle geraten.
--> DDU abgesicherter Modus, Treiber 17.11.4 installieren, im Wattman bei Graka Einstellungen ZURÜCKSETZEN
--> Neustart, Testlauf = normale Temps ?!, dann erst mit neuen Einstellungen weitermachen.
Die alten Profile löschen/nicht verwenden !

Sonstiges:
Nicht alle RUCKLER kommen vom Übergang auf P5+6+7 mit dem neuen Wattman-Profil!
Manchmal ist es einfach Streamen von SSD, das schlechte GAME oder CPU+RAM+Board.
Bitte gegentesten mit AMD-Standard-Setting Balanced.
Ansonsten hilft evtl. eine kleine Erhöhung von Fps-Limit von 3..5 fps.

Bios Modder RX56air-->64air-Bios
Das RX64Air ist am Günstigsten wg. dem niedrigen P5. An alle Bios-Modder der Hinweis, RX56 auf RX64air = PT-5..+10!!! Der Mod ist nicht dazu da, mehr Watt zu verbraten. Er dient ausschließlich der HBM-Übertaktung, mit dem zusätzlichen Goodie vom niedrigen P5= SMOOTH.
Es gelten dann die Einstellungen der RX64air !!!

Für RX-Mods mit h2o im Thread beraten lassen. (Da kann LC-Bios mit UV Sinn machen,
aber es sind auch Fälle aufgetreten, wo es Probleme gab!)




DANK
An die Threadteilnehmer Ragman, 4stroke, berntBrandon, Crynis + Holzmann und an BERNIE für die HTPC-Ideen
sowie SATUAN für die gute Range und free-server für das Thailand-Experiment.








User Wash mit einer Vega FE Erfahrung: Vielen Dank

Guten Abend,

nachdem ich mit Gerry einige PM's wegen den Settings ausgetauscht habe, wollte ich mal die Ergebnisse sichern ;)

GPU
  • P7: 1597 MHz @ 1070 mV
  • P6: 1502 MHz @ 960 mV
  • P5: 1452 MHz @ 950 mV
  • P4: 1352 MHz @ 950 mV (nicht weiter nach unten ausgelotet)
  • P3: 1267 MHz @ 950 mV (nicht weiter nach unten ausgelotet)
  • P2: 1137 MHz @ 900 mV (nicht weiter nach unten ausgelotet)
  • P1: 992 MHz @ 850 mV (nicht weiter nach unten ausgelotet)

HBM
  • P3: 1110 MHz @ 1040 mV

Powertarget: +50%

Anbei noch ein LogFile von GPU-Z während TS
Anhang anzeigen 426443

Abschließend:

Nicht jede FE wird den HBM Takt schaffen (habe hier wohl ein gutes Exemplar ergattert ^^)
BTW: Es handelt sich um eine FE @ Air auf HEatkiller umgebaut (Bilder stehen weiter vorne im Topic)

Ergänzung Thema Monitore:
@Holzmann für S.1

SINNVOLLE MONITOR+VEGA-KOMBINATIONEN

RX56 (+) 2560x1440
RX56(---) 3440x1440
RX64 (-) 3440x1440
RX64-Customs (+) 3440x1440
RX64LC (++) 3440x1440

@Holzmann
Bitte die Zeilen zu 3820x2180 mit auf S.1.
Die Besucher von S.1 sollen nicht mit übertriebenen Erwartungen ne RX64Ref. für 4k benutzen.
Selbst LC ohne P+P ist da an der Grenze.

btw.
meine GPU-Z zu TS
>5101
Valley analog ohne Probs.

fps
HTPC = 83 (mit HBM-Takt 840; Empfehlung bleibt trotzdem HBM@stock-Takt wg. Stabilität)
Low = 86,5
OC = 89

btw.
Bei einer 56+LC ist HBM>950mV = OC, weil der Uncore maßgeblich die W verändert.

btw.
ZIEL ist Gamen am Sweetspot mit ca.<90% Auslastung durch fps-Limit + Gamesettings,
wie Beispielhaft von Ragman in SWBF2 demonstriert.
(h2o wurde auf S.1 auf den Thread verwiesen und nicht explizit auf die Settings,
weil da Reserven bestehen, bzw. der Chip << 40°C ganz anders reagiert.
Siehe Hierzu free-server mit seinem Thailand Experiment. )

UPDATE 11.04.2018 ODT + Reg.file:

RX56 Bios1 975_900 HBM max 980MHz SOC 1107MHz GPU-Z max Takt=1460-1495MHz
Vddc Lastbereich (avg) 0,925-0,9583V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=850-P2=900-P3=915-P4=930-P5=945-P6=960-P7=975

ODT GPU-P7 1590-1625MHz Memory P3 800-980MHz PT 50
Belasteter Verbrauch ~170-190W GPU-only(Spitze)


RX56 Bios 1 1025_950 HBM max 980MHz SOC 1107MHz GPU-Z max Takt=1510-1555MHz
Vddc Lastbereich (avg) 0,975-1V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=900-P2=950-P3=965-P4=980-P5=995-P6=1010-P7=1025

ODT GPU-P7 1590-1640MHz Memory P3 800-980MHz PT 50
Belasteter Verbrauch ~200-220W GPU-only(Spitze)

________________________________________________________________

RX64LC Bios 1 975_900 HBM max 1100MHz SOC 1107Mhz GPU-Z max Takt=1515-1550MHz
Vddc Lastbereich (avg) 0,925-0,9583V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=850-P2=900-P3=915-P4=930-P5=945-P6=960-P7=975

ODT GPU-P6 1600MHz GPU-P7 1620-1650MHz Memory P3 945-1100MHz PT 50
Belasteter Verbrauch ~170-190W GPU-only(Spitze)


RX64LC Bios 1 1025_950 HBM max 1100MHz SOC 1107MHz GPU-Z max Takt=1570-1595MHz
Vddc Lastbereich (avg) 0,975-1V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=900-P2=950-P3=965-P4=980-P5=995-P6=1010-P7=1025

Für HBM max 1190MHz SOC 1199MHz, Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=925-P2=975-P3=985-P4=995-P5=1005-P6=1015-P7=1025


ODT GPU-P6 1620MHz GPU-P7 1640-1665MHz Memory P3 945-1150MHz PT 50
Belasteter Verbrauch ~200-225W GPU-only(Spitze)

________________________________________________________________

RX64Air Bios 1 975_900 HBM max 1100MHz SOC 1107Mhz GPU-Z max Takt=1500-1535MHz
Vddc Lastbereich (avg) 0,925-0,9583V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=825-P2=850-P3=875-P4=900-P5=925-P6=950-P7=975

ODT GPU-P7 1600-1630MHz Memory P3 945-1100MHz PT 50
Belasteter Verbrauch ~170-190W GPU-only(Spitze)


RX64Air Bios 1 1025_950 HBM max 1190 SOC 1199MHz GPU-Z max Takt=1550-1580MHz
Vddc Lastbereich (avg) 0,975-1V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=875-P2=900-P3=925-P4=950-P5=975-P6=1000-P7=1025

ODT GPU-P7 1600-1640MHz Memory P3 945-1150MHz PT 50
Belasteter Verbrauch ~200-225W GPU-only(Spitze)

________________________________________________________________

RX64RedDevil Bios OC 925_850 HBM max 1100MHz SOC 1107Mhz GPU-Z max Takt=1500-1535MHz
Vddc Lastbereich (avg) 0,925-0,9583V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=830-P2=835-P3=840-P4=845-P5=850-P6=900-P7=925

ODT GPU-P6 1501-1531 GPU-P7 1590-1630MHz Memory P3 945-1100MHz PT 50
Belasteter Verbrauch ~180-200W GPU-only(Spitze)


RX64RedDevil Bios OC 975_900 HBM max 1100MHz SOC 1107MHz GPU-Z max Takt=1550-1580MHz
Vddc Lastbereich (avg) 0,975-1V

Spannungen(Volt-Offset) für reg.file in mV:
P0=800-P1=835-P2=850-P3=865-P4=885-P5=900-P6=925-P7=975

ODT GPU-P6 1506-1536 GPU-P7 1600-1640MHz Memory P3 945-1100MHz PT 50
Belasteter Verbrauch ~210-235W GPU-only(Spitze)


P6 Takt= ca. 50% +/- zu P7 angepasst (Beispiel= P7 +20Mhz gegenüber Org takt P6 +10Mhz gegenüber Org takt der RD)

Vielen Dank an User "DEVIL" für die Ausarbeitung und Stabilitätstests der Range für Custom-Vega(Verknüpfung Chip-P5).

________________________________________________________________

Die Spannungswerte für die neue Tabelle können allgemein angewendet werden, auch für Biosmod.

Erklärung für die Min- und Max- Werte:
In diesen Bereichen der effektiv ausgelesenen maximalen Taktraten(GPU-Z) ist ein stabiler Betrieb mit der jeweiligen Vddc-Regelung möglich.
Diese sind zusätzlich noch Temperaturabhängig. Im Vorfeld wurden Erfahrungen für Bereiche zwischen ~40-75°C mit einbezogen.
Es können daher bei eingestellten ODT GPU-P7 etwas geringere effektive Taktraten entstehen, diese dann nur im OC-Umfang versuchen nachzuregeln.
Um seinen stabilen effektiven Takt für jedes reg.file zu finden(eigene Temperatur, Lautstärke Lüfter), zu Beginn erst über GPU-P7 diesen schrittweise(5-10MHz) ausloten.
Erst danach den HBM-Takt schrittweise(10MHz) nach oben nehmen, dadurch wird sich nach und nach der effektive Takt reduzieren(stärke Belastung,Temperatur).
Den ausgeloteten effektiven Takt nach erhöhten HBM-Takt nicht nachregeln um wieder auf den selben Takt wie zuvor mit niedrigen HBM-Takt zu kommen.
Unter Umständen wird das sonst ein unendliches Spiel bis für die eigene Karte der stabile Betrieb gefunden wird.

Es wird sich auszahlen schritt für schritt an die Einstellungen zu gehen.
Mit den niedrigsten angegebenen Werten beginnen.
Danach zuerst GPU-Takt(bis max) dann HBM-Takt, je in 5-10MHz Schritten, nach oben nehmen.

SOC 1199MHz mit HBM-Takt >=1110MHz werden erst mit HBM-Temperaturen <= ~50°C möglich.(h2o)

Für Air die Lüftersteuerung so wählen damit Temperaturen über 75°C Chip vermieden werden.
Bei Bedarf oder Unsicherheit kann im Thread gerne weiter geholfen werden.

Zieltemperatur 50-55 hat sich bisher bewährt. Drehzahl max 2000-3000

Im Grundsatz kann man sagen, je kühler desto bessere Ergebnisse.

Die Einstellungen wurden auf Stabilität im Bench + InGame geteset.
FPS-Limit an/aus(Treiber, InGame)
Tesslation AMD optimiert/6x(Treiber)
AF 16x/8x Gamesettings
Verschiedene InGame Grafikeinstellungen (HBAO, HBAO+, HDAO, SSAO, 3D usw.)

Firestrike, Timespy, Overwatch, SWBF1(DX11), SWBF2, BF1(DX11), DOOM(Vulkan), Starcraft II, DragonAge Inq., Destiny 2, TombRaider(2013), RotTR(2016,DX12), BF4

HBCC vorzugsweise deaktivieren. Bei aktuellen Games nach Tests/Reviews schauen und 12GB bzw. 16GB verwenden.
Ältere Spiele wie z.b. Starcraft II, BF4, TombRaider(2013) produzieren teilweise Abstürze mit HBCC.



Erstellen + Nutzung des reg.file:

1. Wattman auf "Default" zurücksetzen


2. GPU-Z mit Administrator über Rechtsklick öffnen


3. Auf das markierte Symbol klicken um die Bios.rom mit gewünschten Namen zu speichern


4. ODT mit Administrator über Recktsklick öffnen


5. Rechtsklick auf die Titelleiste in ODT und "PPTable editor" anklicken


6. Create new using bios file auf "Open bios file" klicken und die zuvor gespeicherte "Bios.rom" auswählen


7. In der angezeigten Tabelle die Spannungswerte eingeben(rot), (blau) wird durch die Verknüpfung automatisch übernommen.
Taktraten für GPU + HBM nicht verändern für das reg.file. Anpassungen über ODT erfolgen später.
Nach korrekter Eingabe "Save to .reg file" und das reg.file mit gewünschten Namen in gewünschten Ordner speichern.


8. Doppelklick auf das erstellte und gespeicherte "reg.file" und die Aufforderungen bestätigen, danach Windows neustarten.


9. ODT durch Doppelklick öffnen,(grün) einmal "Reset all" und danach "Apply" anklicken um die neuen Werte zu übernehmen.
Es kann passieren das trotzdem noch die original Wattman Vddc-Regelung greift, daher Power Target 1x auf den Wert -1(rot) stellen und mit "Apply" übernehmen.
Danach kann Power Target für die Profile frei gewählt werden und die neue Vddc-Regelung greift.
(blau) vorrangig P7 aber auch P6 für den gewünschten/erforderlichen effektiven Takt nachträglich einstellen und mit "Apply" übernehmen.
Diese Werte können dann als Profile gespeichert werden(Save) und jederzeit entsprechend abgerufen werden (Load)


10. Reg.file wieder rückgängig machen:
Dazu wie in Punkt 4 + 5 vorgehen, bei bestehenden reg.file wird nun direkt die Tabelle angezeigt(hier kann auch direkt ein neues reg.file erstellt werden).
Zum löschen in der oberen Zeile 1x auf "Delete" klicken und die Aufforderungen bestätigen.
Der Treiber wird dadurch schon einmal neugestartet, zusätzlich aber einen Windows Neustart durchführen.
Jetzt ist wieder alles auf default gesetzt.
Wechseln zwischen reg.files benötigt diesen Schritt nicht, dort einfach ab Schritt 7 beginnen.


Nach Treiber-Update oder -Neuinstallation muss wieder Punkt 8 durchgeführt werden.
Nach Neustart einmal in ODT PT -1 übernehmen(apply), anschließend sein ODT-Profile für das entsprechende V-Offset laden und übernehmen(apply).


Angegebenen Max P7 effektiv Takt auslesen und Einstellen.
PC nach Kaltstart/Energiesparen noch einmal Neustart durchführen.
Es können ansonsten zwischen 5-20MHz GPU-Takt fehlen.


Für weiteres vorgehen oder andere Settings in Bezug auf meine Staffelung.
[Sammelthread] AMD RX VEGA Sammelthread + FAQ - Seite 229

Stock-Value Referenz_Vega inklusive Verknüpfungen/Abhängigkeiten:

Danke an alle Threadteilnehmer für die bisherigen und künftigen Erfahrungen/Ideen.
Dank an Ragman + Devil für die Unterstützung.


ODT-Download

OverdriveNTool - tool for AMD GPUs | guru3D Forums

- - - Updated - - -
 
Zuletzt bearbeitet:
Was glaubst du wie viele andere AIO Hersteller Reklamationen zurück bekommen sei es Corsair,Be Quiet,NZXT,Astek usw???dieses dumme Geschwätz das Alpgacool schlecht ist kann man nicht mehr Lesen!
dazu die Trittbrettfahrer die noch nie eine Kühlung von Alphacool besessen haben und schreiben wie alles schlecht ist...........

@ benton18

Bei dir ist Luft im System,das kommt bei allen gängigen Hersteller vor und nicht nur von Alphacool.
Einfach mal den Radi im laufenden Betrieb tiefer halten wie die Grafikkarte und dabei in allen Richtungen leicht schütteln ob sich die Luft dann absetzt.
Ansonsten Radi abklemmen und mal einen Anschluss ab drehen (Radi hochkant nehmen)dann siehst du ja auch ob Wasser raus läuft oder nicht,einfach dann mit
Destilliertem Wasser auf füllen und wieder verschließen und dabei den Radi schütteln ,das behebt sich meistens von selber.

So nun hab ich endlich den neuen Kühler/Pumpe bekommen, und siehe da, kein Klackerm mehr, es herrscht völlige Stille.
Ich habe weder wasser nachgefüllt noch sont was, es war das pumpenrad defekt.
So kann ich den Alphacool auch wieder empfehlen, im 280er Radi unter furmark bleibt Hot spot unter 65 und Core unter 50 nach 30 min, pumpe gedrosselt auf 50% ebenso die nochtuas auf unhörbar am radi


Noch was:
Genialer Auslesefehler bei meiner Vega 56.
Unbenannt.PNG
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo Community,

es scheint ja eine Menge erfahrener Vega 56/64 User hier zu geben.

Ich habe mir eine Vega64 gekauft und bin eigentlich auch zufrieden. Allerdings scheine ich ein Problem mit dem Stromverbrauch zu haben. Zumindest weist einiges darauf hin. Ich betreibe die Vega an einem bequiet Dark Power Pro 550W und laut Stromverbrauchmessgerät läuft mein System unter Last bei rund 440W. Allerdings stürzt es ab und an völlig plötzlich ab, seitdem ich die neue Grafikkarte eingebaut habe.

Ich habe unter
Kernel Power 41 Event
einen Post dazu geschrieben und würde mich freuen, falls jemand mit Erfahrungen zur Vega64 mir vielleicht helfen kann.

Danke
 
lass dochmal furmark laufen und poste dabei den lastpeak per gpu-z, also die verbratenen watt.

Glaube aber nicht dass es am Netzteil liegt.
Ev überhitzt die Karte und schaltet ab
 
Zuletzt bearbeitet:
Nachdem bei mir BF5 ständig mit einem CTD die Grätsche macht, wollte ich mein UV nochmal komplett von vorne beginnen.

Dafür habe ich neben den vorgegebenen Profilen mal zwei eigene getestet, die sich jetzt als ersten Schritt nur um den GPU Clock drehen.
Meine Hardware:
  • Ryzen 7 2700x
  • Asus Rog Strix x470-f Gaming
  • G.Skill Tridenz RGB 3200 (F4-3200C14D-16GTZRX)
  • Sapphire Vega 64 Nitro+
  • BeQuit StraightPower 11 650W
  • Crucial MX100 128GB (Linux)
  • Crucial MX100 256GB (Linux-Spiele)
  • Samsung Evo 500GB (Windows + Spiele)
  • Fractal Define XL (alte Generation)
  • 2x140mm BeQuiet SilentWings vorne unten (rein)
  • 1x120mm Noctua NF-P12 seitlich Höhe GPU (rein
  • 1x180mm Phobya oben schräg (raus)
  • 1x140mm BeQuiet SilentWings hinten oben (raus)
  • 1x140mm BeQuiet SilentWings seitlich (rein)


Treiber lief mit 19.3.1, vorher mit DDU alles entfernt, Netzwerk gekappt und dann den 19.3.1 drauf.
Eingestellt wurden die Werte über Wattman.
Getestet wurde jeweils als erstes Superposition mit 1080p Extreme, im Anschluss danach direkt 3DMark TimeSpy.
Aufgenommen wurden die Werte mit HWInfo.


Overview.png


Bin natürlich noch nicht fertig und den HBM habe ich jetzt vorerst noch gar nicht angepackt (will erst den Clock stabil bekommen, danach kommt dann der HBM).

Gespielt habe ich bisher noch nichts, die einzelnen Werte wurden aus jeweils 3 Läufen gemittelt (allerdings stammen die Temperatur/Clock/Power-Werte nur von Superposition und bei TimeSpy wurde nur das Benchmark-Ergebnis verwendet).

Im Anhang findet ihr die Wattman-Screens.
Bisher tendiere ich zu Einstellung 1, was meint ihr? Denke das könnte mir erhöhtem HBM dann stabiler laufen als die 2.
 

Anhänge

  • 1_Wattman.jpg
    1_Wattman.jpg
    83,7 KB · Aufrufe: 97
  • 2_Wattman.jpg
    2_Wattman.jpg
    82,8 KB · Aufrufe: 82
Dann musst du schauen ab wann der HBM runtertaktet und ggfs. die Spannung einstellen ab wann er in P4 gehen soll.
s.u.

Wenn das alles nichts nützt, kann man noch HBM P4 als min/max setzen.
Das würde ich ungerne tun; dann läuft ja etwas nicht rund.

Du siehst, die 1600MHz sind nicht ohne (unter Luft) und auch wenn 1632MHz eigentlich Standard sind, kaum @ Stock zu erreichen.
s.u.

---

Du hast das mit der HBM Voltage noch nicht verstanden.
Egal was du dort einstellst - die HBM Voltage (so wie du denkst das sie funktioniert) ist fest im BIOS hinterlegt und kann NICHT (ausser BIOS Flash) verändert werden. Das was du über Wattman/ODT einstellst ist nichts anderes wie die Schaltstufe des HBM anzugeben.
Zur Erklärung an deinen Settings:
Wenn dein GPU P7 auf 1050mV steht und dein HBM P3 auf 1100mV, dann schalltet dein eingestellter HBM Takt immer und nur bei GPU P7 und deine Voltage bleibt bei dem in GPU P7 eingetragenem Wert (1050mV)
Wenn du GPU P7 auf 1070mV stellst und dein HBM P3 auf 1200mV wird der HBM P3 weiterhin nur auf P7 angewendet und die Voltage bleibt bei dem P7 eingetragenem Wert (1070mV).
Ach so! Jetzt hab ich verstanden. Erinnert mich an das 930MHz-Akustiklimit des alten WattMan...

HBM so weit oben einzustellen bringt genau den Effekt den du bei Far Cry sehen kannst. Sobald weniger GPU Leistung notwendig ist (was absolut normal bei Games ist) und die GPU auf P6 runterfällt liegt nurnoch HBM P2 (800Mhz) an.
Deine Abstürze haben absolut nichts mit der "pseudo"-Voltage Einstellung im HBM zu tun.
Ja, das ergibt Sinn.

Stell dein HBM P3 auf die Voltage von GPU P4 oder P5 und niemals unter 960mV.
Ich habe testweise P4 gewählt. 975mV. Nach ein paar Tests hatte ich mehr FPS, weniger Verbrauch und einen höheren anliegenden GPU-Maximaltakt.
Sind das Nebeneffekte oder Messtoleranzen (Raumtemperatur usw)?
Warum soll die Richtspannung nicht unter 960mV gesetzt werden? Weil der HBM-P2 950mV eingestellt hat?
Ich habe auch einmal von 1000mV gelesen, die nicht unterschritten werden sollen.

Generell:
Dein vorgehen beim Undervolting und Overclocking ist leider falsch weil du sowohl HBM als auch Takt gleichzeitig machst.
Stimmt, habe GPU-Spannung, HBM-Takt und HBM-Richtspannung geändert.

Die Empfehlung ist wie folgt:
HBM auf Stock belassen und NUR den Takt der GPU tweaken. Sobald du dort ein stabiles (lange und durch mehrere unterschiedliche Spiele getestet) Setting hast, dann machst du dich an den HBM Takt.
Also lasse ich die HBM-Richtspannung auch auf 1100? Dann wird der HBM nur im GPU-P7-State maximal hochgetaktet.
Oder kann ich die HBM-Richtspannung auch schon mit der GPU-P4-Spannung gleichziehen?

Beim GPU tweaken gilt es folgendes zu beachten:
- ab 40 Grad GPU Temperatur sinkt der reale (echte) Takt pro Grad mehr um ca. 1,5 Mhz
- ab 270 GPU Wattverbrauch bremmst dein 64 BIOS den Takt aus.
Jetzt musst du für dich entscheiden wo und wie dein Sweetspot aussieht und entscheidet dann massgeblich wie du weiter beim tweaken vorgehst. Hier gibt es drei Möglichkeiten.
1. (eco) Du such den Sweetspot um die niedrigste Leistungsaufnahme (Watt)
2. (balanced) Du suchst den Sweetspot um die maximale (aushaltbare) Lautstärke deiner Grafikkarte
3. (performance) Du suchst den Sweetspot um die maximale Leistungsaufnahme (Watt)
Woher hast du all diese Infos? Hast du einen Guide geschrieben?
Zwischen 2 und 3 wäre mir lieb. Die Lautstärke ist nicht so wichtig, aber ich habe Bedenken, dass die Vega im Sommer bei geschlossenem Gehäuse temperaturbedingt gedrosselt wird und ich weniger Leistung mit Punkt 3 als mit Punkt 1 oder 2 erreiche.
Andererseits kommt nur Furmark an die 360W heran, Superposition und Far Cry nicht.

Wenn du Interesse daran hast ordentlich an das tweaken nach einem dieser Verfahen vorzugehen, beschreib ich dir das gerne.
Bitte immer her damit, wenn es keine Umstände macht :)
Als Vorgehensweise bin ich jetzt auf folgendem Stand:
-GPU-Takt, GPU-Spannung, HBM-Takt und HBM-Richtspannung auf Stock(?), Lüfterkurve aggressiver gestalten und PL auf 50% hochschrauben
-GPU-P1 bis P5 in 25er Schritten auf 900 bis 1000mV einstellen, P5 als Max. setzen und testen
-Wenn die Werte stabil bleiben, GPU-P6 mit 1025mV testen, den Takt nach und nach hochdrehen und P6 als Max. setzen sowie testen
-P7 erstmal mit 25mV mehr betreiben, die gleichen Schritte wiederholen
-Wenn die Werte weiterhin stabil bleiben, HBM übertakten, ab 1100MHz weitermachen, notfals in 10er Schritten runtergehen
-Falls im ersten Schritt die HBM-P3-Richtspannung noch nicht angepasst, auf den gleichen Wert wie die GPU-P4-Spannung setzen, testen

---

Noch was:
Genialer Auslesefehler bei meiner Vega 56.
Hab ich häufiger bei GPU-Z.
 
Ok auf dem Preset QHD habe ich
5664 points / 94 FPS
Max GPU 61°C

http://gpuz.techpowerup.com/19/03/12/mrf.pngAnhang anzeigen 461489

GPU-Z behauptet bei "GPU only Power Draw" während des Tests 239/240W

Ok aber wo ist deine Hotspot Temp?
Mach mal update vom GPU-Z, und klick mal in die fenster mit den werten, da kannst dann umschalten auf max. werte.
240W ist auch realistisch, langt ja auch.
das muss das NT locker wegstecken. mal alle werte auf max, dann nochmal 5min den furmark, virher mal im wattman auf speed umschalten. keine anderen settings machen, man will ja sehen, was lost ist. also kein OC oder UV.
 
Zuletzt bearbeitet:
s.u.


Ich habe testweise P4 gewählt. 975mV. Nach ein paar Tests hatte ich mehr FPS, weniger Verbrauch und einen höheren anliegenden GPU-Maximaltakt.
Sind das Nebeneffekte oder Messtoleranzen (Raumtemperatur usw)?
Warum soll die Richtspannung nicht unter 960mV gesetzt werden? Weil der HBM-P2 950mV eingestellt hat?
Ich habe auch einmal von 1000mV gelesen, die nicht unterschritten werden sollen.

Hintergrund is ganz einfach: wenn der HBM Spannungswert höher ist als der P7 Spannungswert wird für die GPU der max. HBM Spannungswert genutzt (kA warum, ist halt so).

Der P7 Wert ist nur dann von interesse, wenn der HBM Wert max. diesem entspricht.
 
Hintergrund is ganz einfach: wenn der HBM Spannungswert höher ist als der P7 Spannungswert wird für die GPU der max. HBM Spannungswert genutzt (kA warum, ist halt so).

Der P7 Wert ist nur dann von interesse, wenn der HBM Wert max. diesem entspricht.
^ Das hier ist korrekt und deswegen muss ich folgende Aussage von mir:

Du hast das mit der HBM Voltage noch nicht verstanden.
Egal was du dort einstellst - die HBM Voltage (so wie du denkst das sie funktioniert) ist fest im BIOS hinterlegt und kann NICHT (ausser BIOS Flash) verändert werden. Das was du über Wattman/ODT einstellst ist nichts anderes wie die Schaltstufe des HBM anzugeben.
Zur Erklärung an deinen Settings:
Wenn dein GPU P7 auf 1050mV steht und dein HBM P3 auf 1100mV, dann schalltet dein eingestellter HBM Takt immer und nur bei GPU P7 und deine Voltage bleibt bei dem in GPU P7 eingetragenem Wert (1050mV)
Wenn du GPU P7 auf 1070mV stellst und dein HBM P3 auf 1200mV wird der HBM P3 weiterhin nur auf P7 angewendet und die Voltage bleibt bei dem P7 eingetragenem Wert (1070mV).
... korrigieren.

Korrekt muss es lauten:
Wenn dein GPU P7 auf 1050mV steht und dein HBM P3 auf 1100mV, dann schalltet dein eingestellter HBM Takt immer und nur bei GPU P7 und deine Voltage bleibt bei dem in HBM P3 eingetragenem Wert (1100mV)
Wenn du GPU P7 auf 1070mV stellst und dein HBM P3 auf 1200mV wird der HBM P3 weiterhin nur auf P7 angewendet und die Voltage bleibt bei dem in HBM P3 eingetragenem Wert (1200mV)

das macht es auch dann so schwer sein eigenes UV/OC zu beurteilen.

- - - Updated - - -

Ich habe testweise P4 gewählt. 975mV. Nach ein paar Tests hatte ich mehr FPS, weniger Verbrauch und einen höheren anliegenden GPU-Maximaltakt.
Sind das Nebeneffekte oder Messtoleranzen (Raumtemperatur usw)?
ich gehe mal von deinen letzten Settings aus die waren:
P7 1632MHz, 1050mV
HBM 1100MHz, 1100mV

Was passiert ist: 1637Mhz liefen auf 1100mV (weil HBM P3 über Voltage GPU P7 liegt)

Stellst du ein:
P7 1632MHz, 1050mV
HBM 1100MHz, 975mV

Was passiert ist: 1637Mhz liefen auf 1050mV (weil HBM P3 unter Voltage GPU P7 liegt)

50mV machen sehr viel Temperatur unterschied aus und wie wir wissen: weniger Temperatur = höherer realer Takt.


Warum soll die Richtspannung nicht unter 960mV gesetzt werden? Weil der HBM-P2 950mV eingestellt hat?
Ich habe auch einmal von 1000mV gelesen, die nicht unterschritten werden sollen.
Genau richtig. wenn die "Pseudo-Spannung" unter oder auf 950 liegt, wird niemals HBM-P3 angewendet.
Das zweite ist nicht korrekt.

Also lasse ich die HBM-Richtspannung auch auf 1100? Dann wird der HBM nur im GPU-P7-State maximal hochgetaktet.
Oder kann ich die HBM-Richtspannung auch schon mit der GPU-P4-Spannung gleichziehen?

Da du eh schon so weit bist, würde ich einfach HBM P3 auf 1000Mhz und 960mV einstellen. Dann kannst du 100% davon ausgehen, dass diese Settings nicht zum Absturz führen.
Ob HBM P3 bei GPU-P4 oder P5 oder P6 erst andocken ist dabei erstmal nicht relevant. Das ist nur für Spiele wichtig die wenig GPU Ressourcen benötigen aber trotzdem vom Speicher profitieren sollen.

Woher hast du all diese Infos? Hast du einen Guide geschrieben?
Zwischen 2 und 3 wäre mir lieb. Die Lautstärke ist nicht so wichtig, aber ich habe Bedenken, dass die Vega im Sommer bei geschlossenem Gehäuse temperaturbedingt gedrosselt wird und ich weniger Leistung mit Punkt 3 als mit Punkt 1 oder 2 erreiche.
Andererseits kommt nur Furmark an die 360W heran, Superposition und Far Cry nicht.

Alles durch Selbstexperimente und geteilte Erfahrungen der HWLuxx Community "erlernt". Nein ich hab keinen Guide geschrieben - ich helfe lieber vereinzelt hier im Forum den Leuten :)
Das Selbstexperiment kannst du übrigens auch einfach selber machen. Dafür brauchst du nur GPU-Z oder HWinfo64 - den Valley oder Heaven Benchmark und Wattman.

Du startest deine Überwachungssoftware und den Benchmark im Fenstermodus auf einer kleine Auflösung. Dann kannst du im Live Betrieb die Voltage von GPU P7 hoch und runter drehen und sehen wie sich der reale Takt mit der Temperatur/Watt verhält.

Bitte immer her damit, wenn es keine Umstände macht :)
Als Vorgehensweise bin ich jetzt auf folgendem Stand:
-GPU-Takt, GPU-Spannung, HBM-Takt und HBM-Richtspannung auf Stock(?), Lüfterkurve aggressiver gestalten und PL auf 50% hochschrauben
-GPU-P1 bis P5 in 25er Schritten auf 900 bis 1000mV einstellen, P5 als Max. setzen und testen
-Wenn die Werte stabil bleiben, GPU-P6 mit 1025mV testen, den Takt nach und nach hochdrehen und P6 als Max. setzen sowie testen
-P7 erstmal mit 25mV mehr betreiben, die gleichen Schritte wiederholen
-Wenn die Werte weiterhin stabil bleiben, HBM übertakten, ab 1100MHz weitermachen, notfals in 10er Schritten runtergehen
-Falls im ersten Schritt die HBM-P3-Richtspannung noch nicht angepasst, auf den gleichen Wert wie die GPU-P4-Spannung setzen, testen.

Dein Vorgehen ist genauso wie ich angefangen hab, als mir noch nicht klar war wie die Faktoren Voltage, Watt, Lüftergeschwindigkeit und Temperatur einen Einfluss auf den realen Takt haben.

Ich tipper eben das Vorgehen einmal in Word rein und kopier es im Verlauf des Tages hier rein.
 
Zuletzt bearbeitet:
Wie versprochen der "Guide" ohne Gewehr auf Vollständigkeit. Gerne auch Feedback zu Fehlern und Korrekturen.

  1. Um eine einheitliche Startbasis festzulegen, die unser Fundament bildet und 100% stabil bei jeder Vega 64 Karte laufen sollte geht man wie folgt vor:
    !Zurücksetzen! -> Modus Ausgewogen -> Benutzerdefiniert -> alle Einstellung auf manuell umstellen -> PT auf 50% -> GPU P5: 1025mV -> GPU P6: 1050mV -> GPU P7: 1100mV -> HBM P3: 1000Mhz – 960mV (Alle zahlen werden später noch angepasst)

  2. Zu aller erst gilt es die maximal aushaltbare Lautstärke des Lüfters zu definieren. Dabei ist das vorgehen relativ simpel. GPU muss natürlich so eingebaut sein wie sie sich später im laufenden Einsatz befindet: geschlossenes Gehäuse im Regelbetrieb der Gehäuselüfter und CPU.
    Dafür schnappen wir uns im Wattman einfach den ersten Lüfterpunkt und ziehen diesen so lange hoch bis uns die Lautstärke gerade so passt. Beispielhaft und um es für das Verständnis leichter zu machen gehen wir vom Wert 90% aus.

  3. Jetzt müssen wir die maximale Temperatur ermitteln die bei 90% erreicht wird, wenn ca. 260 Watt Leistung anliegen. [An diesem Punkt laufen die Lüfter dauerhaft auf 90%]. Dafür starten wir einen Benchmark der sich im Fenstermodus ausführen lässt. Der Valley oder Heaven Benchmark (UNIGINE Benchmarks) haben sich hier bewährt. Außerdem benötigen wir Software die sowohl Temperatur, Voltage und Watt auslesen kann. HWinfo (https://www.hwinfo.com/download/) oder GPU-Z haben sich hier bewährt.
    Der Benchmark wird in einer geringen Custom Auflösung von beispielhaft „1000x800“ ausgeführt. Da wir ein dauerhaft identisches Lastszenario erzeugen möchten stellen wir in den Settings in einem der oben genannten Benchmarks innerhalb des laufenden Benchmarks im Bereich „Camera“ den Modus von „Cinematic“ auf „Free“ ein.

    Die Spannung in Wattman GPU P7 wird solange hoch gestellt bis wir einen Verbrauch von dauerhaft ca. 260 Watt haben. Hier gibt es zwei Fälle, die eintreten können.
    • a. Dieses Szenario läuft über einen längeren Zeitraum und hält ca. 1-2 Minuten eine konstante GPU Temperatur. Damit haben wir unseren Fixpunkt für die Lüfterkurve ermittelt. Beispielhaft nehmen wir hier 60 Grad für 90% Lüftergeschwindigkeit bei 260Watt. (Sollte die Temperatur weit über 60 Grad liegen muss die Lüftergeschwindigkeit (und somit die eigene Toleranz von Lautstärke) hochgedreht werden oder zu Szenario b. gewechselt werden.)
    • b. Die Temperatur steigt und steigt und wird nicht konstant oder ist weit über 60 Grad und führt am Ende zum thermischen Throttling. Das kann einerseits daran liegen, dass man sehr empfindlich ist was den Lüfter betrifft und schon in Punkt 2. einen niedrigen Wert gewählt hat oder einfach am Lüfter (stock) oder Gehäuse selbst. Hier schrauben wir die GPU P7 Voltage solange runter bis wir an einem Punkt angekommen sind, bei dem die GPU Temperatur sich konstant bei ca. 60 Grad einpendelt. Wir notieren uns den Watt Wert der später beim Undervolting/ Overclocking wichtig wird. Exemplarisch nehmen wir hier den Wert 240 Watt.
  4. Jetzt geht es erstmal an das Einstellen der Lüfterkurve. Unseren Fixpunkt haben wir gefunden und dieser wird als 4ter von den 5 Lüfterpunkten (weiter LP genannt) in Wattman eingestellt (60 Grad - 90%). LP5 ist unser Notfall Punkt und wird 5 Grad über den Fixpunkt (LP4) und auf maximalen Anschlag gestellt (65 Grad – 100%). LP3 wird 5 Grad und 5% weniger als LP4 eingestellt (55 Grad – 85%). LP2 wird 5 Grad und 10% weniger als LP3 eingestellt (50 Grad - 75%). LP1 ist unsere Lüftung im IDLE Modus - 10 Grad weniger als LP2 und minimalst möglich einzustellende %. (40 Grad – 42%). Somit haben wir jetzt:
    • LP1 – 40 Grad – min.
    • LP2 – 50 Grad – 75%
    • LP3 – 55 Grad – 85%
    • LP4 – 60 Grad – 90%
    • LP5 – 65 Grad – max.
    Unsere Lüftung ist jetzt also optimiert auf 260 Watt oder (Szenario b.) (exempl.) 240 Watt eingestellt.

  5. Kommen wir nun zu dem Punkt, der uns eigentlich wichtig ist: Undervolting und Overclocking. Dabei sind wir von den Takteinstellungen immer noch auf den Werten von Schritt 1 (die gleich umgestellt werden) und verwerfen den GPU P7 Voltage Wert, den wir in Schritt 3. benötigten um unsere Lüfter korrekt einzustellen. Hier benötigen wir neue Benchmark Software, die uns erleichtern sollte die besten Werte zu finden. Bewährt hat sich hier Superposition (UNIGINE Benchmarks) Wichtig hier zu beachten: Die Auflösung in der wir in Zukunft unsere Spiele ausführen (FullHD 1080p / WQHD 1440p / 4k 2160p) ist zum ermitteln der maximalen Werte ein wichtiger Faktor. Für die jeweiligen Auflösung starten wir folgendes Preset:
    • 1080p = 1080p medium
    • 1440p = 1080p extreme
    • 2160p = 4k Optimized
    Das Vorgehen ist bei allen Auflösungen identisch und wird in zwei aufeinanderfolgenden Aufgaben unterteilt. Um einen reibungsloses ausloten des maximalen GPU Taktes sicherzustellen muss unbedingt HBM P3 auf 1000Mhz und 960mV eingestellt sein. Damit uns die anderen GPU Zustände 0 bis 6 nicht in den Weg kommen stellen wir diese auf Sparflamme und GPU P7 auf eine Basis, auf der wir Anpassungen vornehmen können.
    • GPU P1 – bleibt
    • GPU P2 – bleibt
    • GPU P3 – 960mV
    • GPU P4 – 970mV
    • GPU P5 – 980mV
    • GPU P6 – 1452MhZ – 985mV
    • GPU P7 – 1552Mhz – 1000mV
    Im ersten Teil lassen wir den Benchmark laufen und stellen die Voltage von GPU P7 (der Takt bleibt) so ein, dass im Superposition Benchmark der Wattverbauch sich auf ca. 260 Watt (respektive dem Watt-Wert auf Punkt 3. Szenario b.) einpendelt. Das wird zwei bis drei Anläufe benötigen. Durchlaufen muss der Test jedoch nicht. Erfahrungsgemäß seid ihr irgendwo bei 1040mV (für 260 Watt). Damit habt ihr eure maximal vernünftige (gemessen zur Lautstärke und Temperatur) Voltage für eure GPU gefunden. Im zweiten Schritt bleibt die Voltage auf dem fixierten Wert. Jetzt gilt es den höchsten stabilen Takt dafür zu finden.

    Lasst mit 1552 Mhz den Test komplett durchlaufen. Sollte nichts abstürzen kann man sich nach dem „try and error“ Prinzip in beliebigen Schritten von unten nach oben hinarbeiten.
    Ich würde 10 Mhz Schritte nach oben empfehlen. Das macht ihr solange bis die GPU sich im Test verabschiedet. Nehmt den Wert des letzten durchgelaufenen Tests minus 10 Mhz um einen stabilen maximal Wert zu haben. GPU P7 ist damit fix.

  6. Jetzt müsst ihr nur noch ordentliche Werte für P1 bis P6 bestimmen. Dabei hat es sich bewährt linear zu verfahren und GPU P4 den identischen Spannungswert von HBM P3 zu geben (960mV). Das Risiko bei der Vega 64 unterhalb von 1500 Mhz zu wenig Spannung zu geben ist sehr gering. Lineare Werte würden exemplarisch in etwa so aussehen:
    • P1 0950 – 900mV
    • P2 1050 – 940mV
    • P3 1200 – 950mV
    • P4 1300 – 960mV
    • P5 1400 – 975mV
    • P6 1530 – 990mV
    • P7 1600 – 1000mV
  7. Diese Settings werden jetzt im Alltag getestet. Erst wenn man 100% sicher sein kann das wir ein stabiles Setup haben, machen wir weiter.
    Hier wäre auch der Punkt etwas Finetuning zu betreiben und das Undervolting / Overclocking auf seine Bedürfnisse anzupassen. Zum Beispiel könnte man versuchen die Wattzahl im Superposition Benchmark auf 200 Watt zu reduzieren um danach die Lüfter niedriger drehen zu lassen. Oder man stellt die Lüfterkurve aggressiver ein um mehr realen Takt bei gleichem Watt zu erhalten. Spaß macht es auch zu beobachten wie sich der reale Takt verhält sobald mehr Temperatur oder Watt anliegt.
    Beim Finetuning gibt es ein paar wichtige Informationen, die ihr beachten müsst:
    • a.) Die Voltage von GPU P7 darf nicht unter die Voltage von HBM P3
    • b.) Die Voltage von HBM P3 darf nicht unter die Voltgae von HBM P2 (fest eingetragen: 950mV)
    • c.) Die GPU P1-P7 Voltages dürfen nicht identisch sein
  8. Im letzten Schritt gilt es den Speicher zu übertakten. Das hat sich sehr oft als Odysee herausgestellt da jeder Benchmark und jedes Spiel unterschiedlich mit Abstürzen reagieren. Superposition wäre hier auch die erste Wahl um schonmal einen groben Anhaltspunkt zu haben. Zu beachten gilt es, dass die Temperatur einen Einfluss darauf hat ob der Speicher stabil läuft oder nicht. So kann es sein das ohne Probleme jeglicher Benchmark durchläuft aber in einer langen Gamingsession, inder sich das Gehäuse lange aufheizt und viel Wärme speichert, der PC sich verabschiedet.
    Der Burn-In Test von Superposition empfiehlt sich hier deswegen besonders.

  9. Jetzt habt ihr alles gemacht was euch die Software ermöglicht. Wer es jetzt mag verändert noch seine Hardware um noch mehr Leistung rauszuholen. Früher oder später beim Finetuning merkt man relativ schnell das jedes Grad weniger an der GPU Temp die reale Leistung erhöht. Lüfter- und Kühlermods sind bei der Vega 64 tatsächlich keine Seltenheit und üben ebenfalls einen großen Reiz auf Enthusiasten aus.
 
Im Übrigen mein Tipp, um eine Karte schnell einschätzen zu können.

1. Gewünschten Takt einstellen. Während z.B. FSE im Fenster läuft kontinuierlich die P7 Spannung in 10mV Schritten reduzieren (~30 Sek warten), bis es crashed.

2. Wenn man weiss, wann im FSE mit nem Crash Schluss ist, die Spannung mit +30mV geben. Wenn das einige Tage überall gamestable ist, weitere 10mV abziehen.

3. Wenn es crashed, 10mV wieder rauf. Fertig.
 
Wollte mal anfangen zu testen aber iwie stehe ich bei diesem Wattman auf dem Schlauch. Wie bekomme ich denn die linke Ansicht? Bei mir ist das im Moment nur die Fan Kurve (rechts).

Vega.jpg
 
Wollte mal anfangen zu testen aber iwie stehe ich bei diesem Wattman auf dem Schlauch. Wie bekomme ich denn die linke Ansicht? Bei mir ist das im Moment nur die Fan Kurve (rechts).

Anhang anzeigen 461565

Die linke Ansicht gibt es so seit dem ersten Adrenalin Treiber 19.1.1 nicht mehr. Vorher gab es nur die Möglichkeit eine min-max Temperatur und min-max Lüfterdrehzahl festzulegen. Seit 19.1.1. können wir das in 5 Punkten in der Lüfterkurve festlegen. Wenn du den Schieber für Geschwindigkeit/Temperatur von automatisch auf manuell setzt bekommst du auch die Möglichkeit diese 5 Punkte nach deinen Wünschen variabel zu verschieben.

- - - Updated - - -

Nachdem bei mir BF5 ständig mit einem CTD die Grätsche macht, wollte ich mein UV nochmal komplett von vorne beginnen.

Dafür habe ich neben den vorgegebenen Profilen mal zwei eigene getestet, die sich jetzt als ersten Schritt nur um den GPU Clock drehen.
Meine Hardware:
  • Ryzen 7 2700x
  • Asus Rog Strix x470-f Gaming
  • G.Skill Tridenz RGB 3200 (F4-3200C14D-16GTZRX)
  • Sapphire Vega 64 Nitro+
  • BeQuit StraightPower 11 650W
  • Crucial MX100 128GB (Linux)
  • Crucial MX100 256GB (Linux-Spiele)
  • Samsung Evo 500GB (Windows + Spiele)
  • Fractal Define XL (alte Generation)
  • 2x140mm BeQuiet SilentWings vorne unten (rein)
  • 1x120mm Noctua NF-P12 seitlich Höhe GPU (rein
  • 1x180mm Phobya oben schräg (raus)
  • 1x140mm BeQuiet SilentWings hinten oben (raus)
  • 1x140mm BeQuiet SilentWings seitlich (rein)


Treiber lief mit 19.3.1, vorher mit DDU alles entfernt, Netzwerk gekappt und dann den 19.3.1 drauf.
Eingestellt wurden die Werte über Wattman.
Getestet wurde jeweils als erstes Superposition mit 1080p Extreme, im Anschluss danach direkt 3DMark TimeSpy.
Aufgenommen wurden die Werte mit HWInfo.


Anhang anzeigen 461479


Bin natürlich noch nicht fertig und den HBM habe ich jetzt vorerst noch gar nicht angepackt (will erst den Clock stabil bekommen, danach kommt dann der HBM).

Gespielt habe ich bisher noch nichts, die einzelnen Werte wurden aus jeweils 3 Läufen gemittelt (allerdings stammen die Temperatur/Clock/Power-Werte nur von Superposition und bei TimeSpy wurde nur das Benchmark-Ergebnis verwendet).

Im Anhang findet ihr die Wattman-Screens.
Bisher tendiere ich zu Einstellung 1, was meint ihr? Denke das könnte mir erhöhtem HBM dann stabiler laufen als die 2.

Damit dein Beitrag nicht in Vergessenheit gerät eine kurze Frage: wie sieht deine Lüfterkurve aus? kühlst du über eine externe Lösung denn ich sehe keine RPM bei dir.
 
Zuletzt bearbeitet:
Hab mir heute bei ebay eine günstige Corsair H80i v2 AIO geschossen - die kommt bei mir auf die Vega. Werde berichten wenn die ersten Ergebnisse vorliegen.

@4Stroke
ist das deine GPU mit dem fetten Kupferblock? Ich suche noch nach einer ordentlichen überdimensionierten und günstigen Lösung den Speicher meiner Strix zu kühlen :d

Ja, oder glaubst du dass ich Bilder anderer sammel?;) Der 30x40x10mm Kupferblock (mit nachgeschaltetem MorpheusII) kühlt vorrangig die GPU, dient als Wärmepuffer mit der Lastspitzen abgefangen werden können bevor die Lüfter reagieren und verbessert auf Kosten der Bauhöhe die Aerodynamik, sprich Wirkungsgrad der Lüfter weil durch die größere Distanz zum PCB die Luft seitlich besser entweichen kann u weniger staut.
Sekundär kann man eine Wärmebrücke von den Vrm's über das Cover seitlich an den Kupferblock realisieren, kam da nicht mal ein Denkanstoss von Kintaro? Wie es bei der Strix aussieht weiss ich leider nicht in wie weit man da ein Kupferelement integrieren könnte. Noch ein paar Pics meiner MSI@MorpheusII, denke, hoffe selbsterklärend:
 

Anhänge

  • VRM-Kupfer2.jpg
    VRM-Kupfer2.jpg
    311 KB · Aufrufe: 94
  • VRM-Kupfer.jpg
    VRM-Kupfer.jpg
    299,8 KB · Aufrufe: 78
  • IMG_20181114_131911.jpg
    IMG_20181114_131911.jpg
    437,3 KB · Aufrufe: 69
  • IMG_20181114_150054.jpg
    IMG_20181114_150054.jpg
    405,6 KB · Aufrufe: 73
Zuletzt bearbeitet:
Danke für den Guide, aber bitte bedenken das die Spannungs und Taktwerte nicht überall die gleichen Realwerte einstellen.
Die verschiedenen Custommodelle erreichen damit alle unterschiedliche Vddc + Boosttakt.

Wir sollten eher an ganz groben Richtwerten arbeiten für die Einstellungen und eher die Realwerte vorgeben.

Sonst jubelt einer mit seiner Nitro+ und der nächste mit z.b. einer Strix bekommt das erst garnicht zum laufen.

Ähnlich der Mischung die ich auf S.1 mit ODT+reg.file versucht habe.

Wenn mir wieder mehr Zeit zur Verfügung steht, werde diesen Guide noch für den neuen Wattman abändern und korrigieren.
Nichts desto trotz sind die Realwerte einfach am wichtigsten.
 
Die GPU reagiert immer gleich, ist ja eine Vega GPU. Sieht man ja deutlich wenn man sich hier alle Ergebnisse, die leider immer noch nicht auf S1 sind, und in anderen Foren durchliest. Mittlerweile ist es mir auch relativ ob S1 mal bereinigt wird :lol:
Den Unterschied macht hier das PT.

Die Frage ist, bleibe ich bei 1632/1100 oder 1652/1150... Unterschied ist nicht wirklich groß. Eher nur das Gefühl die 1600 zu sehen. HBM geht nicht auf 1130 @ BFV... Damit kann ich leben.
 
Guten Morgen,

danke für den Guide und die schnelle Rückmeldung @drowsemight.
Dann macht das Sinn. Bin erst beim 19.1.1 Treiber eingestiegen. (also gestern) :d

War aber gestern schon ne arge Fummelei. Bis ich endlich mal ein "Lastszenario" gefunden hatte.

Ich hab ne RX 64 Air Boost, die Lüfter werden ab 32% störend (glaube 2100rpm). Ich habe es nur geschafft 260 Watt anliegend zu bekommen bei 70°C. Aber der Temperaturwert ist zu hoch oder?
Iwie änderte sich in Szenario "b" aber beim Spannung runter setzen die Temperatur nicht mehr. Da muss ich heute nochmal dran.

Schon bisschen anstrengend das Thema. Aber mal sehen wies weiter geht.

Die Air Boost an sich ist übrigens ganz gut und @Stock konnte man da schon ganz gut zocken und war auch nicht übertreiben laut. Habe diese in einem Ncase m1 am Laufen.
 
Danke für den Guide, aber bitte bedenken das die Spannungs und Taktwerte nicht überall die gleichen Realwerte einstellen.
Die verschiedenen Custommodelle erreichen damit alle unterschiedliche Vddc + Boosttakt.

Wir sollten eher an ganz groben Richtwerten arbeiten für die Einstellungen und eher die Realwerte vorgeben.

Sonst jubelt einer mit seiner Nitro+ und der nächste mit z.b. einer Strix bekommt das erst garnicht zum laufen.

Ähnlich der Mischung die ich auf S.1 mit ODT+reg.file versucht habe.

Wenn mir wieder mehr Zeit zur Verfügung steht, werde diesen Guide noch für den neuen Wattman abändern und korrigieren.
Nichts desto trotz sind die Realwerte einfach am wichtigsten.

Deswegen geht der Guide ja auch nicht über die VDDC sondern über den realen Verbrauch (Watt) Das sich der Performance-Sweetspot irgendwo bei 260 bis 270 Watt befindet haben wir ja schon herausfinden können.

Guten Morgen,

danke für den Guide und die schnelle Rückmeldung @drowsemight.
Dann macht das Sinn. Bin erst beim 19.1.1 Treiber eingestiegen. (also gestern) :d

War aber gestern schon ne arge Fummelei. Bis ich endlich mal ein "Lastszenario" gefunden hatte.

Ich hab ne RX 64 Air Boost, die Lüfter werden ab 32% störend (glaube 2100rpm). Ich habe es nur geschafft 260 Watt anliegend zu bekommen bei 70°C. Aber der Temperaturwert ist zu hoch oder?
Iwie änderte sich in Szenario "b" aber beim Spannung runter setzen die Temperatur nicht mehr. Da muss ich heute nochmal dran.

Schon bisschen anstrengend das Thema. Aber mal sehen wies weiter geht.

Die Air Boost an sich ist übrigens ganz gut und @Stock konnte man da schon ganz gut zocken und war auch nicht übertreiben laut. Habe diese in einem Ncase m1 am Laufen.

Das die (Referenz-) Airboost Karten die meisten Probleme macht war mir von vornerein klar. Du musst die Voltage solange runterdrehen bis du bei einer Wattzahl ankommst die deine Karte thermisch nicht zum kotzen bringt. Versuch mal auf ca. 220 Watt runterzugehen ... müsste so bei ca. 1000 mV liegen.
32% Lüfterdrehzahl ist auch sehr wenig was zeigt, dass du auf die Lüfter sehr empfindlich reagierst. Du musst jetzt entscheiden ob du mehr Lautstärke für mehr Performance akzeptieren kannst oder aber mit ca. 10% weniger Leistung auf ca. 180 Watt und somit einer leisen Vega 64 AAA Titel zocken möchtest. Einen Tod musst du leider sterben :d
 
Zuletzt bearbeitet:
Das die (Referenz-) Airboost Karten die meisten Probleme macht war mir von vornerein klar. Du musst die Voltage solange runterdrehen bis du bei einer Wattzahl ankommst die deine Karte thermisch nicht zum kotzen bringt. Versuch mal auf ca. 220 Watt runterzugehen ... müsste so bei ca. 1000 mV liegen.
32% Lüfterdrehzahl ist auch sehr wenig was zeigt, dass du auf die Lüfter sehr empfindlich reagierst. Du musst jetzt entscheiden ob du mehr Lautstärke für mehr Performance akzeptieren kannst oder aber mit ca. 10% weniger Leistung auf ca. 180 Watt und somit einer leisen Vega 64 AAA Titel zocken möchtest. Einen Tod musst du leider sterben :d

Liegt unter Anderem am Case, gerade hab ich die Karte in einem M1 und evtl. später mal in einem Dancase. Von daher wird es immer laut sein. Ich fange grundsätzlich erstmal ruhiger an und schaue wie die Karte dann performt. Sonst drehe ich gerne lauter. :)

Ich hatte @Stock schon keine Probleme mit Performance und Lautstärke gereicht. Hab nur aus Entdeckerdrang mal "rumgeschraubt" und weil du einen echt guten Guide geschreiben hast. :d

Bleibt das dann immer so oder muss ich je nach Treiberupdate das wieder neu einstellen?
 
Zuletzt bearbeitet:
Liegt unter Anderem am Case, gerade hab ich die Karte in einem M1 und evtl. später mal in einem Dancase. Von daher wird es immer laut sein. Ich fange grundsätzlich erstmal ruhiger an und schaue wie die Karte dann performt. Sonst drehe ich gerne lauter. :)

Ich hatte @Stock schon keine Probleme mit Performance und Lautstärke gereicht. Hab nur aus Entdeckerdrang mal "rumgeschraubt" und weil du einen echt guten Guide geschreiben hast. :d

Bleibt das dann immer so oder muss ich je nach Treiberupdate das wieder neu einstellen?

Danke für die Blumen <3

Wenn du einmal dein Sweetspot gefunden hast, kann er sich nur minimal von Treiberupdate zu Treiberupdate verändern - im positiven wie auch im negativen. Es handelt sich aber meistens nur um 5-10mV oder 5-10 Mhz Takt Unterschiede. Dein Profil solltest du natürlich absichern und nach dem Update wieder einspielen.
 
Hallo, eine Frage zur Vega 64 Strix OC...
Ist die überhaupt nicht zu empfehlen, oder hat sich da mittlerweile was getan?
Ich könnte eine für 360,- bekommen. Da wären es 80,- mehr für die Nitro+
 
Nachdem bei mir BF5 ständig mit einem CTD die Grätsche macht, wollte ich mein UV nochmal komplett von vorne beginnen.

Ich habe auch hin und wieder einen Crash to desktop ohne Fehlermeldung in BF5 und nach einigem Lesen viieeler Threads in anderen Foren bin ich mir sicher, dass es nicht zwangsläufig am OC oder Treiber liegt.

Probier mal den Origin Cache zu löschen, Origin-In-Game Overlay abzuschalten und gegebenfalls das Spiel zu reparieren. Ich habe auch gelesen, dass bei einigen das Löschen (oder verschieben) des BF5 Ordners in den eigenen Dateien geholfen hat.


Im Übrigen mein Tipp, um eine Karte schnell einschätzen zu können.

1. Gewünschten Takt einstellen. Während z.B. FSE im Fenster läuft kontinuierlich die P7 Spannung in 10mV Schritten reduzieren (~30 Sek warten), bis es crashed.

2. Wenn man weiss, wann im FSE mit nem Crash Schluss ist, die Spannung mit +30mV geben. Wenn das einige Tage überall gamestable ist, weitere 10mV abziehen.

3. Wenn es crashed, 10mV wieder rauf. Fertig.

Hier sollte beachtet werden, dass sobald die Spannung von P7 kleinergleich P6 ist, dass dann P7 nicht mehr benutzt wird, sondern P6 der maximale P-State ist - inklusive der niedrigeren Frequenz.
 
Hallo, eine Frage zur Vega 64 Strix OC...
Ist die überhaupt nicht zu empfehlen, oder hat sich da mittlerweile was getan?
Ich könnte eine für 360,- bekommen. Da wären es 80,- mehr für die Nitro+

Die Strix Vega 64 ist auf stock aufjedenfall emfpehlenswerter als jede Blower-Karte. Mit 30€ investition in Lüfter+Adapter ist sie besser als die Nitro+ auf stock.
Eine gebrauchte Vega würde ich aber nicht kaufen da die AMDRewards dann nicht enthalten sein werden.
 
Die Strix Vega 64 ist auf stock aufjedenfall emfpehlenswerter als jede Blower-Karte. Mit 30€ investition in Lüfter+Adapter ist sie besser als die Nitro+ auf stock.
Eine gebrauchte Vega würde ich aber nicht kaufen da die AMDRewards dann nicht enthalten sein werden.

Welchen Adapter brauch man da? WL-Pad muss man auch tauschen?
 
Nein das Problem mit dem WLPad scheint nur die Karten der ersten Generation zu betreffen.

  1. Du bräuchtest so ein Kabel: https://www.aquatuning.de/kabel/luefterkabel-und-adapter/20542/phobya-pwm-adapter-fuer-vga?c=243
  2. dann ein 4Pin auf 2x 4Pin Lüfter Kabel Splitter
  3. und dann natürlich zwei Lüfter mit (wichtig!) PWM Anschluss.
  4. 5 Schrauben + 1 LED Stecker lösen um den Plastikrahmen abzunehmen.
  5. 15 Schrauben + 1 Fan Kabel lösen um die Stock lüfter abzunehmen.
  6. Die zwei Gehäuselüfter kann man problemfrei am bestehenden Kühlkörper mit Kablebinder befestigen.
  7. Lüfter mittels Kabel Adapter und Splitter an der GPU anschliessen
  8. Lüfter über Wattman nach belieben einstellen

Und schon hast du eine Modifikation die einer Morpheus II Lösung sehr nahe kommt.

Sieht dann so aus:01.jpg02.jpg03.jpgUnbenannt-1.png
 
Zuletzt bearbeitet:
Damit dein Beitrag nicht in Vergessenheit gerät eine kurze Frage: wie sieht deine Lüfterkurve aus? kühlst du über eine externe Lösung denn ich sehe keine RPM bei dir.

Ne, die Karte läuft ganz normal über den Nitro+ Kühler. Für die Benchmarks lief sie mit der Standard-Lüfterkurve, wobei ich da schon noch selbst etwas Hand anlegen werde. So bis 1600rpm ist meine Schmerzgrenze.
Gibt es sonst etwas, zu den von mir bisher als Basis ermittelten Werten zu sagen?
 
Hallo zusammen,

ich bin neu im Forum und ich hoffe mein Anliegen passt hier in diesen Thread. Ich habe mir seit langem mal wieder selber einen Rechner zusammengebaut und stecke wohl nicht mehr so in der Materie drin. Als Grafikkarte habe ich eine MSI Vega 56 Air Boot OC gewählt, soweit funktioniert die Karte auch sehr gut. Aktuell bin ich dabei die Karte zu optimieren allerdings kann ich das Powerlimit nur um +1 anheben.
Ich nutze den MSI Afterburner in der aktuellen Version und habe den HBM-Speichertakt auf 950 MHz erhöht, sowie die GPU Voltage Offset um 115 mV reduziert. Gerner würde ich der Karte auch erlauben mehr Strom zu ziehen aber ich kann nicht mehr als +1 Powerlimit einstellen (In Wattmann gehts auch nicht). Wenn ich das Bios mit GPU-Z auslese dann steht da TDP 150 W +-1.
Nur habe ich an dem Grakabios nichts verändert. Ist dieses Problem bekannt und kann mir jemand helfen? Ich lese überall das zumindest +20 % Powerlimit möglich sein sollen aber ich kann es irgendwie nicht einstellen.

Vielen Dank im Voraus
 
Ne, die Karte läuft ganz normal über den Nitro+ Kühler. Für die Benchmarks lief sie mit der Standard-Lüfterkurve, wobei ich da schon noch selbst etwas Hand anlegen werde. So bis 1600rpm ist meine Schmerzgrenze.
Gibt es sonst etwas, zu den von mir bisher als Basis ermittelten Werten zu sagen?

Deine Basis entspricht so ca. dem was man von der Vega 64 im Durchschnitt als gute Settings vermuten würde.

240 Watt und 65 Grad GPU Temperatur
meine Vermuntung: mit einer Custom Lüfterkurve könntest du bestimmt noch runter auf 60 Grad und würdest dafür mehr realen Takt erhalten. Je nachdem wie schmerzbefreit du bist könntest du bestimmt auch auf 250 Watt (mehr Voltage) und 55 Grad (mehr Lüfterdrehzahl) gehen. Mit mehr Voltage kommt dann natürlöich auch die Möglichkeit mehr Takt anzulegen. Ist halt ganz am Ende (da würde ich dich schon sehen) beim Finetuning ein abwegen zwischen Lautstärke/Temperatur und Voltage/Watt. Die Temperatur hat auch sekundär Einfluss auf die Stabilität deines Speichers.

- - - Updated - - -

Hallo zusammen,

ich bin neu im Forum und ich hoffe mein Anliegen passt hier in diesen Thread. Ich habe mir seit langem mal wieder selber einen Rechner zusammengebaut und stecke wohl nicht mehr so in der Materie drin. Als Grafikkarte habe ich eine MSI Vega 56 Air Boot OC gewählt, soweit funktioniert die Karte auch sehr gut. Aktuell bin ich dabei die Karte zu optimieren allerdings kann ich das Powerlimit nur um +1 anheben.
Ich nutze den MSI Afterburner in der aktuellen Version und habe den HBM-Speichertakt auf 950 MHz erhöht, sowie die GPU Voltage Offset um 115 mV reduziert. Gerner würde ich der Karte auch erlauben mehr Strom zu ziehen aber ich kann nicht mehr als +1 Powerlimit einstellen (In Wattmann gehts auch nicht). Wenn ich das Bios mit GPU-Z auslese dann steht da TDP 150 W +-1.
Nur habe ich an dem Grakabios nichts verändert. Ist dieses Problem bekannt und kann mir jemand helfen? Ich lese überall das zumindest +20 % Powerlimit möglich sein sollen aber ich kann es irgendwie nicht einstellen.

Vielen Dank im Voraus

Neu gekauft und darauf geachtet das die Siegel unbeschädigt sind? Regulär müsste es laut: VGA Bios Collection: MSI RX Vega 56 8 GB | TechPowerUp so aussehen:
PowerTune Limit: -50% to +50%
Socket Power: 165 W
 
Zuletzt bearbeitet:
Danke für die schnelle Antwort.

Ja neu gekauft @ Mindfactory im Mindstar damals, mit allen anderen Komponenten zusammen. Hm Siegel sah ok aus, ja das bei Techpowerup hab ich auch gelesen. Die BIOS Version ist auch die gleiche wie bei techpowerup laut GPU-Z.
 
Danke für die schnelle Antwort.

Ja neu gekauft @ Mindfactory im Mindstar damals, mit allen anderen Komponenten zusammen. Hm Siegel sah ok aus, ja das bei Techpowerup hab ich auch gelesen. Die BIOS Version ist auch die gleiche wie bei techpowerup laut GPU-Z.

Du hast jetzt die MSI Übertaktungs Software draufgebügelt oder? Evtl. entfernst du diese und machst es nurnoch über Wattman. Dann probierst du dort einmal den "Turbo" Modus aus und schaust mal ob dir automatisch +15% Powerlimit eingestellt werden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh