Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
@Holzmann timespy ist sehr CPU gebunden wenn man die Karten an ihr Limit treibt. Ist irgendeine Einstellung die vorher anders war bei CPU oder RAM? Evtl auch ein anderes BIOS mit dem du dein Highscore hattest?
Eigentlich nicht, musste zwar das Bios einmal resetten und alles wieder neu einstellen, aber die CPU Leistung passt und ist in etwa auf dem Niveau wie zu meinen besten Ergebnissen.
Kann mir wer von euch helfen?
Ich wollte mit Hilfe von @G.Bär's Setings mit UV mehr Effizienz aus meiner 6900XT Referenz holen - auch wegen Spulenrasseln. Bin jedoch ein Neuling im UV Bereich.
Aber bei mir bricht TimeSpy schon mit Stock Settings ab (glaube bei Grafik Test 2). Das gleiche mit UV Settings. SuperPosition 4K-Bench läuft immer durch!?
Woran kann das liegen? System siehe Signatur.
Zudem weiß man ja nie was kommt. Gib es für bestimmte Karten doch mal ein OC-Bios ist man froh etwas mehr Watt auf der Kante zu haben insofern es mit seiner Karte funktioniert...
Ich erinnere mich als meine alte 1080 TI knapp 500 Watt gezogen hat mit XOC Bios... Nur als Beispiel!
Das ist schon wahr. Insgeheim hab ich mich auch schon gefragt, ob mit 850 Watt nicht noch ein Ticken mehr Score drin wäre. Werd aber deshalb nicht das aktuelle (und neue!) Teil ersetzen, nicht in der aktuellen PC-Konfiguration. Ich vertraue da auch ein bisschen auf die Produktqualität von be quiet! und auf das "Platinum" im Modellnamen.
Hi, welcher Treiber? 21.4.1+ ist dafür berüchtigt nicht Timespy-stabil zu sein. Daher und da ja so eine Belastung auch an sich in Spielen vorkommen kann, empfehle ich den 21.3.1-Treiber und sehe die neuen als instabil an.
Was du mal versuchen könntest, wäre der 21.4.1 von NimeZ. Der von NimeZ ist halt home-modded und laut Changelog ggü. dem offiziellen Treiber auch an wichtigen und richtigen Stellen verbessert (z.B. Dithering oder besseres Threading der CPU ggü. dem offiziellen Treiber). Ob Timespy dann damit durchläuft, kann ich dir nicht sagen, denn ich habe den Treiber nicht ausprobiert.
Ich lasse den Rechner gerade rechnen und jede Stunde verliere ich dann etwa 25 Cent Profit, wenn dieser halt mit nichts beschäftigt ist. Hört sich nicht nach viel an, aber mit möglicher (und in ein paar Jahren sogar wahrscheinlicher) ver10bis20fachung von ETH und der Tatsache, dass das quasi ohne mein Zutun und ständig geschieht und nicht nur 8 Stunden am Tag, ja auch nicht schlecht.
Zudem ist "gutes" Wetter gerade... Mögt ihr evtl. nicht so sehen, xD. Nichts schlimmeres als übertriebene Hitze und Helligkeit. Lieber bewölkt und einigermaßen warm (also in der Jacke jedenfalls erträglich) für mich. Chille und höre Reggae. Da habe ich gerade mehr Bock drauf als auf Benches oder Games. Ich habe mir aber vorgenommen abends die GPU für solche Zwecke zu nutzen.
AMD FSR much sooner than expected? According to Coreteks, a YouTuber who has leaked AMD content in the past, AMD FSR technology is already in developers’ hands and it should launch very soon. Coreteks claims that AMD FSR has already been distributed to game developers. This information has been...
NimeZ AMD Radeon Modded Drivers [IMG] [IMG] Uses Windows SDK and WDK to make this modded driver FEATURING Deodexed AMD Radeon Setup, faster install...
forums.guru3d.com
@Darkne$$ Nunja, Coreteks hatte schon mit einigem Recht, aber lag schon paarmal echt krass daneben...
Beitrag automatisch zusammengeführt:
Bzgl. Coreteks-Leak (SuperResolution):
Sollte das aber stimmen und die bringen mehr Performance ganz ohne Einsatz von Machine Learning, dürfte die Bildqualität tendenziell besser sein als bei DLSS, da iirc bei DLSS ein FullHD-Bild vorgesetzt wird und das neuronale Netz sich dann ein 4k-Bild "herhalluziniert" (siehe auch Gigapixel AI z.B.). Daher kommt es dann doch auch zu einer gewissen Zahl von Unstimmigkeiten im Bild, nehme ich an.
@ShirKhan
Furmark alleine: ca. 430W, 10191 Punkte, 170 FPS avg
Prime alleine: ca. 180 W
beide zusammen: ca. 400-570W schwankend, Furmark macht dann 6900 Punkte und 116 FPS avg
@Holzmann
an den 21.5.1 hab ich mich wegen gemischter Gefühle mit dem 21.4.1 nicht gewagt bisher.
Furmark alleine: ca. 430W, 10191 Punkte, 170 FPS avg
Prime alleine: ca. 180 W
beide zusammen: ca. 400-570W schwankend, Furmark macht dann 6900 Punkte und 116 FPS avg
2) Prime laufen lassen. CPU-Verbrauch (HWInfo) ermitteln und Gesamtverbrauch (Watt-Meter) ermitteln. Dann P(Rest, max) = Gesamtverbrauch - CPU-volle-Möhre.
3) Dann Furmark-Verbrauch (ohne CPU-Last) ermitteln. Gesamtverbrauch(min) = Furmark-GPU-Only-Verbrauch (HWInfo + ~ 35 W) + Prime-Verbrauch (HWInfo-CPU_only) + P(Rest, min); Gesamtverbrauch(max) = Furmark-GPU-Only-Verbrauch (HWInfo + ~ 35 W) + Prime-Verbrauch (HWInfo-CPU_only) + P(Rest, max). Dazwischen wird auch der echte Verbrauch liegen. Je nach Gaming-Last und CPU lässt sich ziemlich genau sagen, wie viel Watt dann benötigt werden müssten. Ist etwas kompliziert und ungenau, aber denke das kann man sonst nicht viel besser approximieren.
Das momentane Problem, was du hast: durch Prime kannst du die GPU nicht voll auslasten und verfälschst dadurch die Metrik Gesamtverbrauch. In Games würde es leicht anders aussehen: mittlere CPU-Belastung (bei meinem ungeocten R5 3600 z.B. Idle: 35 W - volle Möhre Belastung: 88 W, typische Gaming-Last: 60 W, laut HWInfo) und volles Pfund GPU-Last (ohne Frame-Limiter: zw. 160 und 220 W (TGP), je nach Game und Belastung, dann TBP (total Board Power: Lüfter und Radeon-Logo und Wandler-Verluste): TGP + [25..40] W). Ich habe leider kein Watt-Meter zur Hand.
Ist halt schwierig. Was du machen kannst, wäre z.B. Prime auf die Hälfte oder ein Viertel der Threads zu stellen, um die GPU da noch voll auslasten zu können und somit die maximale Gaming-Last ermitteln zu können.
Ich nehme stark an, dass hier der Gesamt-Score gemeint ist. Nur so macht es Sinn. Aber der Gesamt-Score macht für uns keinen Sinn, . Sollte es sich dennoch um den Grafik-Score handeln, wäre das dann nur mit verstellten Settings (wie Frame-Limiter von 100 z.B.) erklärbar. Auch öfters drüber geärgert, dass ich da nicht dran gedacht habe bei so manchem TimeSpy, xD.
...
Ich nehme stark an, dass hier der Gesamt-Score gemeint ist. Nur so macht es Sinn. Aber der Gesamt-Score macht für uns keinen Sinn, . Sollte es sich dennoch um den Grafik-Score handeln, wäre das dann nur mit verstellten Settings (wie Frame-Limiter von 100 z.B.) erklärbar. Auch öfters drüber geärgert, dass ich da nicht dran gedacht habe bei so manchem TimeSpy, xD.
Je nach Gaming-Last und CPU lässt sich ziemlich genau sagen, wie viel Watt dann benötigt werden müssten. Ist etwas kompliziert und ungenau, aber denke das kann man sonst nicht viel besser approximieren.
Hi, welcher Treiber? 21.4.1+ ist dafür berüchtigt nicht Timespy-stabil zu sein. Daher und da ja so eine Belastung auch an sich in Spielen vorkommen kann, empfehle ich den 21.3.1-Treiber und sehe die neuen als instabil an.
Ich hatte anfangs auch 2.575 - 2.675 Mhz, was in Port Royal auch durchlief und auch mit mehr Punkten (11.083), aber in Timespy wurde der Benchmark ziemlich schnell immer abgebrochen. Was ich nicht verstehe, in Port Royal läuft der Benchmark durch und die Karte zieht sich ihre 370w, aber Timespy läuft überhaupt nicht und in Firestrike zieht sich die Karte gerade mal 230-240w, was sich natürlich auch in den Punkten niederschlägt. Kann mir jemand sagen, woran das liegen mag?
Ok, das erklärt vielleicht mein Problem. Vielleicht sollte ich es wieder mit 21.3.1 probieren, so wie es vorher der Fall war. Aktuell ist 21.4.1 (noch) drauf.
Ok, das erklärt vielleicht mein Problem. Vielleicht sollte ich es wieder mit 21.3.1 probieren, so wie es vorher der Fall war. Aktuell ist 21.4.1 (noch) drauf.
Oder den Nimez-Treiber (21.4.1). Wie gesagt: untested. Aber mit etwas Glück hat der das Problem nicht und nur die guten Treiberfeatures, die ich schon gerne hätte (da gab es von offizieller Seite den ein oder anderen Bugfix, der mich direkt betrifft) und zudem bekämpft der Nimez auch das Banding in dunklen Bereichen mittels HDMI/DP-Dithering (was mir zwar nie richtig störend auffiel, aber so ist es dann doch nochmal besser, sollte der Treiber taugen). Werde den heute Abend auch mal testen.
Da bin ich froh um mein Messgerät bei solch einem Aufwand...
16 Euro bis 20 Euro was die Dinger kosten ist nun wirklich nicht die Welt und das misst vor dem Netzteil bzw direkt von der Steckdose weg... Zumal man dann auch sicher weiß was seine Kiste in so manchen Spielen wirklich benötigt...
Da hilft dann nur ein Multimeter wenn man auf Nummer sicher gehen möchte. Schon öfters gehabt das Tools und real gemessene Werte sich teilweise relativ deutlich unterscheiden können...