Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Danke für die Aufstellung. Lass dich nicht ärgern. Wer für vierstellige Beträge Grafikkarten kauft und dann wegen 20 Watt rumeiert ist eh von der Realität weit entfernt.Ich meine das auch im Vergleich zu den anderen Wiederholraten, ist zumindest rund die Hälfte ... aber danke für den Kommentar, das ich mir die Mühe gemacht habe ... pfft
Dann erleuchte er michGlaub mir, der Front war nicht gegen dich, sondern gegen AMD gerichtet. Und mein Vorredner ist ein Paradebeispiel für jemanden der gar nix begriffen hat.
Das ist doch ganz einfach....nicht kaufen und du hast dieses Problem nicht. (du ganz persönlichen denn du kannst ja so nicht leben) Und ja 20 Watt sind lächerlich und bleiben es auch weltweit gesehen. Denn wenn das jetzt hier der Ideologische Standart sein soll gibt es zig andere Punkte nur alleine in der Computer Branche die viel mehr aus machen als diese lächerlichen 20 Watt Mehrverbrauch im Idle bei einer Grafikkarte.Es ist nicht in Ordnung, dass eine Grafikkartengeneration mit so beschissenen Treibern auf den Markt gerotzt wird. Es ist nicht in Ordnung dass eine Grafikkarte unnötig Strom verbraucht. Das gilt generell für Hardware. Und wer das nicht begriffen hat, dem ist nicht zu helfen. Und ich sage nicht unbedingt etwas dagegen wenn Hardware Strom verbraucht und entsprechend Leistung bringt. Wobei die RX 7000 dafür nun auch mit Abstand kein Paradebeispiel ist. Aber wenn man gemütlich 'n YouTube Video schaut und der Rechner während dem kacken aufm Desktop idlet und dabei viel mehr verbraucht als vergleichbare Systeme, dann ist das schlicht für den Allerwertesten. Erst Recht wenn es daran liegt dass man unfertige Treiber released. Du kannst ja Mal ausrechnen was lächerliche 20w auf ALLE Nutzer mit diesem 'Problem' weltweit ausmacht. Falls du soweit denken kannst.
Einigen wir uns doch darauf das es in deiner Welt wichtig ist und du deswegen es nicht kaufen wirst. Und meiner einer findet es OK und wird halt eine kaufen oder auch nicht eben aus anderen Gründen 💐Ich sag ja du hast nix kapiert.
Dem kann ich nur zustimmen und ist einer der Gründe (der aber hauptsächlich), warum ich als überzeugter Radeon-Nutzer wieder zu Nvidia gewechselt bin. Anders als Tim, nutze ich einen 4K und 1440p Monitor (Bild Setup) und da beträgt der Verbrauch (immer noch) 115w (Aussage Simsi, erster Spoiler vom 04.01). Wenn ich überlege wie viele Stunden ich im Forum hocke oder was anderes mache, wo ich nicht zocke, würde ich so einen Stromverbrauch im idle/ light load nicht akzeptieren. Einen Zero-Fan Mode kannst du dir bei 45w+ auch komplett abschminken. Das weiß ich nach drei 6900/6950XT Karten selbst allzu gut.Es ist nicht in Ordnung, dass eine Grafikkartengeneration mit so beschissenen Treibern auf den Markt gerotzt wird. Es ist nicht in Ordnung dass eine Grafikkarte unnötig Strom verbraucht. Das gilt generell für Hardware. Und wer das nicht begriffen hat, dem ist nicht zu helfen. Und ich sage nicht unbedingt etwas dagegen wenn Hardware Strom verbraucht und entsprechend Leistung bringt.
Wie du es schon selbst sagst, jeder setzt seine Prioritäten anders und gewichtet sie entsprechend. Für deinen zählt nur Leistung und Preis, für anderen möglicherweise auch Effizienz/ Stromverbrauch.Meine ganz persönliche Einstellung ist dazu das es Grenzen gibt bis wohin ich etwas akzeptieren kann und ich fand die 100Watt vor Treiber Update nicht schön.
Doch das zählt schon aber dann gehe ich hier nicht mit meinem Monster von Rechner ins Internet sondern einfach mit meinem Handy.....das verbraucht nicht mal 5W und das aufs gesammte System.Für deinen zählt nur Leistung und Preis, für anderen möglicherweise auch Effizienz/ Stromverbrauch.
Joa, zum lesen und kurze Antworten schreiben reicht es vielleicht noch. Für alles andere ist es entweder zu unbequem oder einfach nicht zu gebrauchen. Beispielsweise mein Legion-Thread, mit zig Spoilern und unzähligen Bildern und Links. Viel Spaß das mit dem Handy zu machen.sondern einfach mit meinem Handy.....das verbraucht nicht mal 5W und das aufs gesammte System.
Ja das stimmt wohl das habe ich auch festgestellt beim Hochladen von Benchmark-Ergebnissen oder ähnlichem. Hat halt jeder seinen Use Case. Ich nutze z.B. für YouTube nur noch Handy und Fernseher. Also der Rechner geht nur noch zum Zocken oder mal was im Office machen an. Und selbst das Office mache ich meist schon mit dem iPad.Joa, zum lesen und kurze Antworten schreiben reicht es vielleicht noch. Für alles andere ist es entweder zu unbequem oder einfach nicht zu gebrauchen. Beispielsweise mein Legion-Thread, mit zig Spoilern und unzähligen Bildern und Links. Viel Spaß das mit dem Handy zu machen.
Jo ich werde heute Abend mal etwas durchtesten woran es liegen könnte. Hoffe es ist nicht freesync. >.<#falls du freesync nutzt, schalte es mal zum testen aus
Weil jener Februar Treiber die und weitere bugfixes enthällt und dieser nur schnell zwecks des Games hergeworfen wurde.
Dass sonnst nichts weiter in den Notes steht heist erstmal garnichts.Nein, nicht getestet.
Soll nur für das Game sein.
Wartet lieber den 13.2 Treiber ab
Das Thema mit kleinen Rucklern und "Hakeleien" auch bei sonst hohen Framerates gab es leider auch bei der 6000er Serie schon. (Sind meine ich einige Threads hier und auch in anderen Foren).Mich nervt eher, dass heute so ein komisches Stocken beim zocken zu beobachten war. Als wenn es plötzlich nen Framespike gab. Liegt vielleicht am neuen Treiber oder an Afterburner oder keine Ahnung Irgendwas ist ja immer. :> Mal schauen ob es morgen vielleicht weg ist. Oder es liegt vielleicht an den RAM Timings die ich probiere. Buildzoid hat paar geile hochgeladen. Fragen über Fragen. xD
Das hat bei nem Kumpel von mir auch geholfen. Der hatte das bei Lost Ark.falls du freesync nutzt, schalte es mal zum testen aus
Bei den 69x0ern von MSI las man ja bereits von auffällig hohen Hotspot Temperaturen, und das auf den 7900ern jetzt fortgesetzt 🤨Kernschrott bei der 7900xtx also. Viel Spaß wer sich das antut 😜