schapy
Urgestein
Das waren noch Zeiten wo VGAs gut übertaktbar waren.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
VGA's, CPUs..Das waren noch Zeiten wo VGAs gut übertaktbar waren.
Welchen Punkt hast du genau genommen?Ich kann das bestätigen. Ich hatte zuvor einfach immer den gewünschten Spannungspunkt auf die gewünschte Frequenz hoch gezogen, alles dahinter was höher lag runter gezogen und dann Apply gedrückt. @CompuChecker hat mir dann den Tipp gegeben, erst einen Offset einzustellen, bis Spannung/Takt auf gewünschtem Punkt zusammentreffen und dann alles dahinter runter zu ziehen.
Dadurch habe ich in 3D Mark noch mal mehr Punkte erhalten, bei gleicher Frequenz und Spannung. Da Boost ja extrem schnell hin und her taktet, liegt der Verdacht nahe, dass hier die Auswirkung der etwas flacher abfallenden Taktkurve sich positiv im Ergebnis bemerkbar macht.
Ich lasse meine FE aktuell so laufen, auch wenn ich sicher noch ein paar Spannungspunkte runter könnte. Aktuell fehlt mir da aber einfach die Zeit zu, das auf Stabilität zu testen.
Anhang anzeigen 535700
Ich kann das bestätigen. Ich hatte zuvor einfach immer den gewünschten Spannungspunkt auf die gewünschte Frequenz hoch gezogen, alles dahinter was höher lag runter gezogen und dann Apply gedrückt. @CompuChecker hat mir dann den Tipp gegeben, erst einen Offset einzustellen, bis Spannung/Takt auf gewünschtem Punkt zusammentreffen und dann alles dahinter runter zu ziehen
Hier wird's gefeiert, weil die 3000er trotz Undervoltings noch deutlich schneller sind als Alles was AMD gerade zu bieten hat..
Bei AMD und den diversen Fails von Vega bis hin zu Radeon VII usw war es umgekehrt.. man musste sie tunen um den Abstand nach oben halbwegs zu verkürzen..
Hoher Stromverbrauch ist zwar störend, aber sekundär: Fast Jeder nimmt ihn gerne in Kauf, wenn man dafür auch ordentliche Leistung bekommt.
Die Idee man es sei doch wirtschaftlicher das HighEnd-Segment gar nicht mehr bedienen hat AMD nur erreicht, dass sie dort wo sie mal stark waren, nämlich beim guten P/L, irrelevant geworden sind, weil man mit zu gering gesteckten Zielen offensichtlich immer zwei Generationen hinterherhinkt.
Die RTX 3080 (ca. 330Watt) braucht circa 50% mehr Energie als die RX 5700XT (ca 222Watt), ist dabei aber fast um 80% schneller. Deine deutlich höhere Effizienz schon Stock, also.
So scheiße ich das nvidia Quasimononpol auch finde: Sie sind gerade nahezu völlig konkurrenzlos.
Exakt.Sorry, nochmal für Langsam-Checker wie mich: du hast erst den Kerntakt erhöht (dabei bereits das Powerlimit erhöht?) und anschließend erst das UV durchgeführt?
Vielleicht kannst du mir mal erklären was deine Kritik an Ampere ist?Wie schräg ist das denn? Bei AMD wurde damals gemeckert das man die Vcore runterschauben musste und hier wird es gefeiert bei NV......
Diese 3000er Karten sind echt ein Witz und wenn es sich jetzt noch schön geredet wird ist das noch schlimmer
Auch wenn ich Michael's Reviews sehr schätze, sind die gerade im Gaming nicht angebracht, weil,...wieviele Leute spielen nochmal unter Linux ?Ach hör doch endlich auf mit diesem peinlichen Kindergarten. Wenn du die 3 Affen spielen willst, bewirbt dich im Theater. RDNA2 steht vor der Tür und weil AMD das Teil nicht rusht wie Nvidia kommt ein "AMD hat derzeit nix". Würde AMD es rushen wie Nvidia hätten sie jetzt die gleiche Grütze wie beim Vega-Launch.
Richtig, genau deswegen nehmen sie sich jetzt Zeit damit diese Grütze eben nicht passiert. *auf die Klingel drückt* Hörst du sie?
Hallo liebe Mini-PC Enthusiasten - möchte einer von euch das kommentieren?
Auch totaler Quatsch, weil Navi10 praktisch die gleiche Effizienz wie Turing hatte. Und was high-end angeht, kam AMD mit der bis zur 2070S. Die kostete >500€ und liegt damit über dem, was average joe bereit ist auszugeben und du redest hier von "Aber ist nur Mittelklasse". Es ist viel mehr das, was der Großteil der Kunden maximal bereit ist auszugeben. Dort hat AMD den Fokus hingelegt und entsprechend hat sich Navi auch gut verkauft. Was der einzelne Forenenthusiast möchte, muss auch finanziell rentabel sein. Kurz: Wenn AMD was dickes rausbringt und mit Nvidia mithalten kann, muss es auch gekauft werden. Ansonsten wird Big Navi die erste, einzige und letzte High End Lösung von AMD seit der 290X gewesen sein und die ganzen Unkenrufe auf Reddit - denen sie dieses Mal Tribut gezollt haben - für immer ignorieren.
Aha:
https://www.phoronix.com/scan.php?page=article&item=linux-pre-ampere&num=1
Die 2080 ist im Durchschnitt nur 10% schneller als die 5700XT und verbraucht 50% mehr. Und das, obwohl die 5700XT schon weit hinter dem Sweet-Spot getreten worden ist. Bei 3 Titeln erreicht sie sogar Parität zur 2080.
Ups, habe ganz vergessen das AMD ja gar keine High End Karte hat oder bist du das jetzt? Als es bei AMD darum ging das die Vcore überdurchschnittlich zu hoch war und man UV machen sollte, hieß es
"Was für ein Schei** produkt" bei NV wird es gerade gehypt, das man ja UV machen kann. Darum geht es. Wenn du eine 5700xt mit einer 3080 vergleichst ist das echt schräg.
Mid Range vs High End, das die 3080 deutlich mehr Leistung hat sollte also klar sein.
0,85 V | 1.935 MHz | 69 °C | 277,2 W |
Ist Undervolting das was die Partnerboards im "Quiet" Modus machen?
Undervolting bedeutet das Verlassen der Herstellerspezifikationen, d.h. weniger Spannung als vorgesehen (wie der Name schon sagt...).Ist Undervolting das was die Partnerboards im "Quiet" Modus machen?
Ja, wobei das unterm Strich auch gut so ist. So haben alle Leute die bestmögliche Leistung und nicht nur die Übertakter. Klar, wenn man OC als Hobby betrachtet ist es natürlich doofVGA's, CPUs..
Die Hersteller sind mittlerweile allesamt recht auf Kante. Egal ob neueste Intel oder AMD Prozessoren oder Grafikkarten.
Inwiefern beantwortet das seine Frage? Das selbe gilt ja auch für "Werks OC" der Partner. Theoretisch könnte ein Hersteller also auch die Spannungskurve so anpassen.Undervolting bedeutet das Verlassen der Herstellerspezifikationen, d.h. weniger Spannung als vorgesehen (wie der Name schon sagt...).
Brille? Schaue mal was ich für eine Karte im Rechner habe und dann noch mal von vorneVielleicht kannst du mir mal erklären was deine Kritik an Ampere ist?
Ampere:
-schnellste GPU
-effizienteste GPU
-ähnliches P/L Verhältnis wie ne 5700XT
-220W Version und auch weiter darunter werden folgen (wayne wenn man über die Architektur spricht?)
-wie jede GPU kann man auch Ampere undervolten (wayne?)
Wie heftig muss die AMD Brille sein, um hier irgendwas (was denn genau ist noch mal dein Problem?) aussetzen zu wollen?
Da muss sich niemand mehr wundern dass AMDler nicht für voll genommen werden können.
Jetzt musst du mich abholen. Der Ausgangspunkt ist doch der gleiche, beide haben zu viel Vcore im Bios gespeichert weil die Chips zu unterschiedlich sind und das kann mit Feintuning verbessern.Den Vergleich hast du selbst initiiert
Und, ja: Es gibt triftige Gründe, aus denen sich die 5700XT (egal wie an sie klassifizieren möchte) dem Vergleich zu einer RTX 3080 stellen muss. Nämlich vor Allem, dass die 5700 als deutlich schwächere Karte eine wesentlich schlechtere Effizienz hat, was einfach niemals passieren darf, da die Verhältnisse auf Grund physikalischer Gesetze grundsätzlich zu Ungunsten von HighEnd-Hardware gesetzt sind, was bei bisheriger Hardware, abseits vielleicht von den wenigen bekannten großen Fails, auch immer der Fall war.
Du hast nach einer Erklärung gefragt, weshalb das Undervolting bei der 3080 als willkommener Bonus betrachtet wird und bei den vergangenen AMD-GPUs als hilflose Makulatur..
Weil der Ausgangspunkt ein ganz Anderer ist.
+1PaulPanzer hat im Prinzip schon Recht. Denke allerdings das wurde bei AMD vorallem bemängelt weil trotz der hohen Spannung, die Leistung der Karten eher enttäuscht hatte (und mit UV konnte man immerhin die Leistung pro Watt retten). Ampere hat dagegen schon die erwartete/gehypte Leistung geliefert und es ist jetzt halt ein Bonus dass dies auch mit geringerem Verbrauch nahezu erreichbar ist.
Wobei man schon noch sehen muss wie reproduzierbar Don's Ergebnisse sind. Nicht dass die Redaktion zufällig (oder auch nicht zufällig) einen chip besonders hoher Güte erhalten hat.
Naja, es ist jetzt nicht so dass man durch das UV von Ampere in solchen Maßen dass der Stromverbrauch signifikant sinkt, garkeine Leistung verliert.Sonst war es wichtig was sie Max leistet und nun gerade was sie noch leisten kann mit weniger Vcore.
Ich muss diesmal echt sagen, NV hat diesmal genauso ins Klo gegriffen wie vorher AMD.
Na ja, ICH zocke unter Linux - von daher sind diese Zahlen durchaus für mich interessant. Und entsprechend beeinflusst das natürlich auch meine Sichtweise auf die Bewertung von Performance und Preis. Aber auch unter Windows steht die 5700XT besser da als die behaupteten "80% schneller" einer 2080.Auch wenn ich Michael's Reviews sehr schätze, sind die gerade im Gaming nicht angebracht, weil,...wieviele Leute spielen nochmal unter Linux ?
Von diesen Leuten die unter Linux spielen, wieviele kompilieren sich da nochmal immer den aktuellsten Kernel selbst ?
Und wo liest du da bitte die Effizienz raus ?
Yo, unter Windows. Linux packt da nochmal 10% Leistung auf AMD Karten für lau oben drauf. Da kann man sich dann entscheiden: 10% gratis Performance oben drauf (das ist mehr als von der 3080 als zur 3090 und das ist den Leuten nochmal wie viel wert?) oder man bleibt bei seinem "bekannten System" und verzichtet auf die Performance. Und bevor hier jemand mit "Unter Linux laufen keine Spiele" kommt: Wir haben 2020, nicht 1998.Ich glaube es sind real eher 20 % zur 5700 XT
Linux packt da nochmal 10% Leistung auf AMD Karten für lau oben drauf.
Holy sh...Den Vergleich hast du selbst initiiert
Und, ja: Es gibt triftige Gründe, aus denen sich die 5700XT (egal wie an sie klassifizieren möchte) dem Vergleich zu einer RTX 3080 stellen muss. Nämlich vor Allem, dass die 5700 als deutlich schwächere Karte eine wesentlich schlechtere Effizienz hat, was einfach niemals passieren darf
Ja, das hatten wir schon diskutiert und sind zu keiner Übereinkunft gekommen. Ich denke, das werden wir auch heute nicht, von daher belasse ich es dabei.Vllt in irgendwelchen Sonderszenarien, aber nicht overall. Overall ist Linux bei Spielen sogar langsamer als Windows. Aber das hatten wir ja schon...
Alles hinter 950mV habe ich runter gezogen.Welchen Punkt hast du genau genommen?
Holy sh...
Ich hoffe für dich einfach mal, du meintest "besser" und nicht "schlechter", aber ich fürchte du meintest das wirklich.
(btw - das sind Release-Daten, die Werte sind heute nochmals ein paar Prozentpunkte besser für AMD)
Ja, das hatten wir schon diskutiert und sind zu keiner Übereinkunft gekommen. Ich denke, das werden wir auch heute nicht, von daher belasse ich es dabei.
Dann nimm das aber bitte nicht als allgemeingültige Aussage. Windows ist für Gamer immer noch die Hauptplattform, ergo juckt das 99 % der Gamer nicht, ob AMD unter Linux gut performt.Na ja, ICH zocke unter Linux - von daher sind diese Zahlen durchaus für mich interessant. Und entsprechend beeinflusst das natürlich auch meine Sichtweise auf die Bewertung von Performance und Preis. Aber auch unter Windows steht die 5700XT besser da als die behaupteten "80% schneller" einer 2080.
Effizienz haben wir ja schon mal besprochen - welche durch undervolting bzw. Treten einer Karte in den roten Bereich mal eben um +/-40% schwanken kann. Wenn ich die Karten aber unter ihrer Stock-Konfig betrachte, dann hat die 5700XT eine Leistungaufnahme von 219W - die 2070S eine von 211W und beide liegen (unter Windows) auf gleichem Niveau, was ihre Performance angeht. Sieht für mich so ziemlich nach der gleichen Effizienz aus.
Yo, unter Windows. Linux packt da nochmal 10% Leistung auf AMD Karten für lau oben drauf. Da kann man sich dann entscheiden: 10% gratis Performance oben drauf (das ist mehr als von der 3080 als zur 3090 und das ist den Leuten nochmal wie viel wert?) oder man bleibt bei seinem "bekannten System" und verzichtet auf die Performance. Und bevor hier jemand mit "Unter Linux laufen keine Spiele" kommt: Wir haben 2020, nicht 1998.
Erstens ist in deinem Vergleich RTX 3000 gar nicht vertreten, und davon ist die Rede.Holy sh...
Ich hoffe für dich einfach mal, du meintest "besser" und nicht "schlechter", aber ich fürchte du meintest das wirklich.
(btw - das sind Release-Daten, die Werte sind heute nochmals ein paar Prozentpunkte besser für AMD)
Ja, das hatten wir schon diskutiert und sind zu keiner Übereinkunft gekommen. Ich denke, das werden wir auch heute nicht, von daher belasse ich es dabei.