RDNA 3: AMD verspricht 50 Prozent bessere Performance pro Watt für Radeon RX 7000

Allein der Wechsel auf 5nm wird eine gute Portion davon bringen. Es wird auch immer auf Performance pro Watt verwiesen. Mein großer Wunsch ist mehr Effizienz. Wir reden immer große von Klimawandel dies passt nun überhaupt nicht zu den 350++ watt tdp plus CPU. Hier ist etwas schwer im argen. DLSS ist der richtige Weg, 8K meiner Meinung vollkommen unsinnig. Ich bin der Meinung das es ein riesen Schritt wäre wenn man total System Power unter 350 Watt kommt und dann UWQHD oder 4k möglich sind. Die 600 Watt plus aktuell sind die falsche Richtung.
Idle Power muss auch weiter runter. Dynamisches Kerne Abschalten wäre ein Weg. Da geht Apple gerade den richtigen Weg mit ARM M1.
350W Systeme kannst Du Dir doch zusammen bauen. Sollte mit 3060 bzw. sogar 6800 möglich sein.

Und dynamisches Abschalten der Kerne gibt's doch schon seit gefühlt Jahrzehnten. Da ist Apple wirklich innovativ, ja. 😂
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das wäre ja Mal was.. Endlich wieder eine ordentliche Singleslot-Karte, und nicht immer dieses hässlich-fette Gebastel, mit der Leistung einer RTX3080 :fresse:
 
Ob so eine Meldung, ein paar Tage vor dem Launch der RDNA2, so clever ist?
Das könnte Leute mit einer Navi oder Touring Karte eher dazu veranlassen eine Generation zu überspringen
Dann warte mal schön bis 2022. Zudem ist die Anzahl der Menschen, die hier auf HWL diese News lesen und dann deine Entscheidung treffen würden, für AMDs Umsätze völlig und absolut bedeutungslos.
Was ich mir jetzt stark überlege... Wenn die 50% stimmen, dann wären es ja über 100% zu ner 5700Xt für 1jahr warten? Da überlege ich ganz stark gerade mir die 6000er nicht zu holen
Zitat aus der HWL News:
Ein Release der neuen Karten wird aber nicht vor Herbst nächsten Jahres erwartet.
Dieses in einem Jahr sollte man einfach nicht ernst nehmen. Dazu ist es eher wichtiger, nicht in den Glauben zu verfallen, nur weil HWL eine Meinung schreibt, die die Roadmap überhaupt nicht hergibt.

Hier wird schon wieder das zweite kind vorgestellt bevor das erste auf der Welt ist
Rick Bergman sprach in einem Interview mit TheStreet, einer Website für Finanz- und Wirtschaftsnachrichten.
Da AMD ein Unternehmen ist, ist es natürlich wichtig, Zukunftsaussichten zu formulieren. Offensichtlich scheinen dich solche wichtige Strategien nicht zu quälen.
 

Anhänge

  • Roadmap.jpg
    Roadmap.jpg
    64,1 KB · Aufrufe: 99
350W Systeme kannst Du Dir doch zusammen bauen. Sollte mit 3060 bzw. sogar 6800 möglich sein.

Und dynamisches Abschalten der Kerne gibt's doch schon seit gefühlt Jahrzehnten. Da ist Apple wirklich innovativ, ja. 😂

Also es ist mir schon klar das Kerne abschalten, dennoch ist der idle Verbrauch in System sehr hoch. Mir ist auch klar, das es Systeme gibt die man beliebig so anpassen kann, das die Effizienz steigt. Dennoch habe ich das Gefühl, dass sich im high end Bereich Leistung vor allem mit mehr Input an elektrischer Leistung erkauft wird.
TDP rauf Abwärme rauf. Es gibt aber sehr gute Ansätze wie den r5 5600x der scheinbar hoch effizient ist. Vergleicht man hier die Intel Seite wird diese Leistung vor allem durch Takt/ und Watt erkauft.
Ich glaube beim M1 von Apple geht man den Weg das man cores verbaut die unterschiedlich Effizient sind.

Naja und >600 Watt total system Power ist meiner Meinung nach einfach der falsche Weg.

780ti TDP 250 Watt
980ti TDP 250 Watt
1080ti TDP 250 Watt
2080ti TDP 250 Watt
3080 TDP 300 Watt
3090 TDP 350 Watt

Wieviel schneller ist eine 3090 vs 2080 ti pro Watt ? Wenn man sich dies anschaut hat Nvidia für sich hier auch neue Wege eröffnet und die finde ich nicht gut. Warum ? Angst vor der Konkurrenz? Ich tendiere fast sogar dazu eine Art Leistung pro Watt verpflichtend zu machen wie die 100g oder Kilo Preise im Supermarkt und vor allem das ganze zu vereinheitlichen.
Da AMD und Intel und Nvidia ja verschiedene Arten haben TDP zu interpretieren.
 
Zuletzt bearbeitet:
Keine Ahnung, wie man daraus "AMD verspricht 50% mehr Leistung" macht, aber es wird sicherlich viel und gerne geklickt...
Wie in der News über Smart Access Memory scheint die Übersetzung in die Englische Sprache einfach nicht vorhanden zu sein. Es ist eher ein "Wir interpretieren hier etwas hinein was eventuell Worte/Zahlen aus dem englischen wiederholen.".
 
der hohe idle-verbrauch bei high-end hardware wird nur zu einem kleinen teil durch die CPU selbst verursacht.
ein board mit massiv ueberdimensionierter spannungsversorgung, 12 festplatten, 4x3600er ram, 20 rgb luefter, ein 800W netzteil, wasserkuehlung,...

du konntest schon vor jahren desktop systeme mit <5W idle verbrauch bauen.
 
Zuletzt bearbeitet:

ok, den - damals high end- i7 4770k sehe ich nicht unter 5W.
aber z.b. mit i5 gibts da welche unter 5W. :)
Beitrag automatisch zusammengeführt:

was man in der liste dennoch erkennen kann: vor allem das netzteil macht die wurst fett.
 
der hohe idle-verbrauch bei high-end hardware wird nur zu einem kleinen teil durch die CPU selbst verursacht.
ein board mit massiv ueberdimensionierter spannungsversorgung, 12 festplatten, 4x3600er ram, 20 rgb luefter, ein 800W netzteil, wasserkuehlung,...

du konntest schon vor jahren desktop systeme mit <5W idle verbrauch bauen.

Genau in die Richtung geht meine Idee.
Wie effizient kann man ein System heute bauen.
Ich habe hier tatsächlich 10 * 2tb 7200er platten rumliegen und überlege einfach Daten zu löschen und 2 effiziente 6er oder 8er im raid 1 zu nutzen.

Genauso sieht es mit Features auf MB aus die viele nicht benötigen aber Strom kosten.

Wenn ich mir meine RVII plus 3900x anschaue komme ich nicht unter 70 Watt idle.
Nehme ich einen 3400g der mir in 90% meiner PC Zeit reicht, komme ich runter auf ca 20 Watt.
Beitrag automatisch zusammengeführt:


ok, den - damals high end- i7 4770k sehe ich nicht unter 5W.
aber z.b. mit i5 gibts da welche unter 5W. :)
Beitrag automatisch zusammengeführt:

was man in der liste dennoch erkennen kann: vor allem das netzteil macht die wurst fett.

Das geht in die richtige Richtung und nun sagen wir wir haben einen Anwendungsfall ohne Zeitlimit und schauen welches System erledigt die Aufgabe mit den geringsten Wh.
 
Senf.

Ich bin erstmal gespannt wie stark so eine 6800 bzw 6900 antritt. Es ist nämlich ein himmelweiter Unterschied, ob "gelegentlich mal" 100+Hz anliegen oder selten mal unter 140.
Hier hat ja jeder sein komplett eigenes Denken und Arbeits-/Spielumfeld. Mir persönlich ist 4K, 8K, 16K gänzlich wumpe und ich lebe im Moment noch mit fhd. Dies ist bei ~80 cm Abstand und entspanntem Zocken auf 27" völlig iO. Kompetetiv auf <50cm ärger ich mich darüber den 27" genommen zu haben, da wär 24" besser.

Ich hab es aber getestet, für mich wär wqhd perfekt. Aber nur mit anstrengungslosen 144Hz (am liebsten natürlich 200+^^)! Bei nem Kumpel Doom auf nem 27" FHD(!!) 240Hz Viewsonic gezockt (mit fps durchgehend über 240) und das fühlt sich einfach dermaßen sexy an, ich kann es nicht beschreiben. Ich bin definitiv eine fps Hure, stehe aber auch dazu.
Und hier schliesst sich der Kreis schon wieder. Ich bin mir nämlich sicher, dass auch die neuen Karten nicht in jeder Situation über 144Hz stemmen (ab wqhd), so wie meine 5700xt auch in FHD diese nicht durchgehend halten kann - was natürlich auch an den SPielen selber liegt. Rust, Satisfactory oder NMS um mal meine aktuellen Zeitfresser zu nennen.
Das wird dann vielleicht mit der Generation darauf geschafft, während sich die Leute dann schon mit 16K auf ihren kleinen Briefmarkenmonitoren beschäftigen statt sich direkt zwei 5" Displays vor jedes Auge zu kleben (huehue).

Daumen drücken dass erstmal rdna2 genug Action bringt. Dann gönne ich mir zu Weihnachten den wqhd Viewsonic @165Hz und zocke unten ohne Cyberpunk!

cheers.
 
@audioslave

Bei moorslawisdead kam gestern im vlog ein bisschen durch, dass rdna2 bei none rtx kleiner 4k entscheidend schneller als Ampere sein soll.
Das soll mit der Menge an cuda cores zusammenhängen, die können kleine Auflösungen nicht viel beschleunigen und Ampere ist nur bei raytracing in hohen Auflösung besonders gut. Aber auch hier ist klar bei 4k mit raytracing wird man selbst mit er 3090 als FPS 'hure" nicht glücklich.

Für mich heißt es unter 4k ohne raytracing wird eine 6800xt die beste Lösung sein. Wenn man nicht die zu teuere 6900xt braucht.
 
Das soll mit der Menge an cuda cores zusammenhängen, die können kleine Auflösungen nicht viel beschleunigen und Ampere ist nur bei raytracing in hohen Auflösung besonders gut.

Es gibt einen Leak, in dem eine 6800 non-XT gegen eine 3070 antrat. Die 3070 war nur in Verbindung mit DLSS vor der 6800, ohne hingegen hinter der 6800.

In wie weit der Leak zutreffen wird, sehen wir wohl nächste Woche, wenn das NDA fällt.

Meine Vermutung(!) auf Basis dieses Leaks ist, dass AMDs Raytracing-Leistung wohl zwischen Turing und Ampere liegen wird. Das wäre erstaunlich, weil es AMDs erste RT-Generation ist. :) Aber selbst wenn AMD mit RT nicht mithalten könnte, wäre es für mich kein Problem; RT juckt mich (noch) nicht sonderlich.
 
So habe ich es auch gehört und geht mir ähnlich.
Raytracing Off Performance ist für mich wichtiger und da scheint die RX 6800 besser zu sein.
 
Du müsstest quasi geseztlich Vorschreiben, wieviel eine Grafikkarte maximal verbrauchen dürfte. Denn sonst wird halt das Maximum ausgekostet, was möglich ist. Das ist ja die Definition von High-End.

Das dies früher nicht zu solchen extremen Auswüchsen (350W) führt liegt meiner Meinung einfach daran, dass es mangels Konkurrenz nicht notwendig war das letzte Quäntchen aus den Karten zu quetschen und das die Kühler nicht dermaßen leistungsfähig waren.
 
Du müsstest quasi geseztlich Vorschreiben, wieviel eine Grafikkarte maximal verbrauchen dürfte. Denn sonst wird halt das Maximum ausgekostet, was möglich ist. Das ist ja die Definition von High-End.

Das dies früher nicht zu solchen extremen Auswüchsen (350W) führt liegt meiner Meinung einfach daran, dass es mangels Konkurrenz nicht notwendig war das letzte Quäntchen aus den Karten zu quetschen und das die Kühler nicht dermaßen leistungsfähig waren.

Genau da fängt ja das Problem an. Meiner Meinung müsste Leistung vergleichbar gemacht werden und normalisiert.
Ist ja keine Kunst einen GPU zu bauen die schneller ist wenn man die Mal nicht auf 250 sondern auf 350 Watt betreibt. Dann noch bisl oc und wir sind bei 450 Watt. Dann noch ein oc bei der CPU wir landen bei 600 Watt und dann ist der Rest im Rechner noch nicht mal betrachtet.
Dann ist man bei Betriebskosten von 25cent pro Std. Da kommt Freude auf bei den Stromlieferanten.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh