NVIDIA stichelt mit TDP und TGP gegen AMD

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.955
tu102-gpu.jpg
NVIDIA hat recht schnell auf die Präsentation der beiden Navi-Karten alias Radeon RX 5700 XT und Radeon RX 5700 von AMD reagiert und will seinerseits einige Begrifflichkeiten und Funktionen klarstellen. So will man die Begriffe Thermal Design Power (TDP) und Total Graphics Power (TGP) noch einmal ins rechte Licht rücken. Für TDP verwendet NVIDIA auch gerne die Bezeichnung Thermal Design Parameter, gemeint ist aber immer das gleiche - der Verbrauch der GPU.Allerdings sprechen AMD und NVIDIA hier eigentlich die gleiche...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nvidia und Intel findens aktuell irgendwie geil, sich mit pubertär anmutenden Sticheleien zum Affen zu machen...

Wer mit seinem Produkt nicht überzeugen kann, bringt also lieber dumme Kommentare? So wie AMD mit Poor Volta damals. Wie sich die Zeiten ändern.
 
Und was sagt uns nun diese Tabelle? Genau.
AMD ist ehrlicher als NVIDIA. Danke für die Aufklärung Herr Jen-Hsun Huang. ;)
 
Und schon gehts wieder los mit dem AMD-Fanboy-Gesabbel. Inzwischen ist es echt unerträglich...bei jeder Kleinigkeit immer und immer wieder dieselbe Götzifizierung ohne auch nur den Ansatz irgendeiner sinnvollen Diskussion. Bitte in Zukunft irgendeine übermäßig neutrale Überschrift nutzen sonst bewegen wir uns immer weiter Richtung Facebook-Niveau
 
Und schon gehts wieder los mit dem AMD-Fanboy-Gesabbel.
Also ich sehr hier davon genau nichts.

Dein Rülpser ist aber echt erbärmlich, müßte ihr NVIDIA-Fans immer so durchdrehen?
 
NVIDIA hat doch damit angefangen oder? :wink:
nVidia hat nur ne Vergleichstabelle veröffentlicht, wie der Fanboy in dir diese Information aufnimmt und darauf reagiert, entscheidest allein du.

Also ich sehr hier davon genau nichts.

Dein Rülpser ist aber echt erbärmlich, müßte ihr NVIDIA-Fans immer so durchdrehen?
Du bist der Einzige hier der sich offensichtlich für etwas Besonderes hält wenn er in dem Thema mehrfach rülpst.


NEWS schrieb:
Die Angeben zur TDP kannten wir bisher weder von den GeForce-RTX-Karten, noch von den neuen Navi-Karten. Insofern sind die Werte für die Karten interessant, weil sie die Differenz zwischen der Leistungsaufnahme der GPU und der restlichen Komponenten auf der Grafikkarte aufzeigen.
Die TDP aka GPU Power könnt ihr doch mit HWinfo bei jeder (nVidia) Grafikkarte auslesen, wie kann die euch also völlig unbekannt sein?! Auf 150W GPU Power ist meine RTX 2080 im Notebook standardmäßig per VBIOS beschränkt, glaube nicht das dies auch auf Desktopkarten zutrifft, kenne allerdings nicht die TGP der Notebookkarte.

z1709900k2080_ts3wjnl.png
 
Zuletzt bearbeitet:
NVIDIA hat doch damit angefangen oder? :wink:

Nvidia hat eine Präsentationsfolien mit TDP-Vergleich erstellt - Wahnsinn! Muss man sich davon immer direkt so triggern lassen? Wobei die Überschrift hier reißerischer klingt als es wirklich ist. Solche Folien kommen von absolut jeder Firma - Intel, NVIDIA, Apple, Samsung, BMW, Nestle, Persil und ob man es glauben will oder nicht auch von AMD 😉

Also ich sehr hier davon genau nichts.

Dein Rülpser ist aber echt erbärmlich, müßte ihr NVIDIA-Fans immer so durchdrehen?

Willst ausgerechnet du mir jetzt erzählen dass das nicht schon wieder ein Anti-Post war? Der, der keine Gelegenheit auslässt AMD in den Himmel zu loben, andere schlecht zu reden und dann noch mit so einem Profilbild daherkommt? Glaubst du doch nicht selbst oder? 😉

Ich bin btw kein Fan von irgendwas. Mein Hauptrechner ist Intel/Nvidia, mein Zweit-Rechner AMD/AMD. Ich kaufe der Leistung entsprechend. Mir geht nur diese immer schlimmer werdende Götzifizierung auf die Nüsse auf gut Deutsch gesagt. Ist beim Thema Handys mit Apple/Android übrigens haargenau dasselbe. Einfach mal was anderes posten als „Wieder nur ein erbärmlicher Rülpser von XYZ“ wär schonmal ein super Anfang. Das sind Posts die kein Mensch brauch oder lesen will. Aber gut, ich begebe mich gerade in genau die Gesellschaft, die ich gerade so an den Pranger stelle. Das ist alles nicht persönlich gemeint, aber ein bisschen konstruktiver als Rülps die 431. darf es meiner Meinung nach schon sein
 
soviel mehr verbrauchen die AMD-karten nicht. ist ja auch nur interessant während man mal spielt, bei mir jedenfalls.
interessant finde ich das man TDP zu TGP ausrechnet, wozu soll das gut sein aus der TDP etwas ab zu leiten? wenn dann aus dem tatsächlichem verbrauch, den ' design-power ' kann ja alles mögliche sein, egal wieviel ne karte dann wirklich braucht.
viel wichtiger ist aber auch, wie sich die karten dann in den spielen schlagen und das werden wir demnächst wohl sehen. bisher ist die 5700 jedenfalls schonmal interessanter als eine karte mit 6GB VRAM.....
 
Zuletzt bearbeitet:
soviel mehr verbrauchen die AMD-karten nicht. ist ja auch nur interessant während man mal spielt, bei mir jedenfalls.

Und bei der Kühlleistung sowie dessen Lautstärkeentwicklung, im Sommer in den Raumtemperaturen und am Ende Overall natürlich auf der Stromrechnung.
Aber stimmt - so viel mehr ist das nicht (mehr) - die Erkentniss, das man das Fertigungspulver zumindest absehbar mittelfristig verblasen hat und immernoch hinter der Energieeffizienz von Pascal auf 2016 in läppischen 16nm her dackelt, gibt dem nunmehr absolut nicht mehr viel trennenen Werten aber einen komisch pfaden Nachgeschmack.

Bei NV wird's kurzeistig wahrscheinlich erstmal Super, dann wird der Vergleich auch endlich mal aus technischer Sicht interessant. Pascal, Turing und Navi mit 2560 ALUs, 8GB RAM und vergleichbarem real anliegendem Takt - das gibt nette Vergleichsoptionen ;)
 
Max. ~ 180 Ws zieht doch eine rtx 2070 bei Vollast, ohne manuelles overclocking und Anhebung des Stromlimits. Mit oc und Anhebung sind es 200 - 220 Ws.
Ob es nun 20 - 40 Ws mal dort oder hier weniger sind, ist mir als Kunde nicht relevant, vor allem da besagte RX 5700 XT geringfügig schneller sein soll als die rtx Karte.
Wichtig ist mir nur das die Produkte hinsichtlich Leistung etc. ziemlich nah herangerückt sind und der Wettbewerb beginnen kann.
 
TDP und TGP kann man doch überhaupt nicht ernst nehmen, die RTX 2070 hat eine TDP von 120w die GTX 1080 eine von 180w, in den Test verbrauchen beide fast genauso viel mal die gtx 1080 mehr, mal weniger.
 
Und die 180 Ws der gtx 1080 die erwähnt werden, gelten für die gtx 1080 fe, die bei Vollast 83 - 84 °C erreicht und bei den Temperaturen verbleibt, während die rtx 2070 nach Chip zwischen 70 - 75 °c pendelt.
Bei tomshardware wurden um die 188 Ws gemessen
Beim Gaming-Loop und beim Torture-Loop werden knapp 188 bzw. 189 Watt erreicht, nur unwesentlich mehr, als Nvidia als TBP angibt. Das ist somit eine Art Punktlandung und liegt damit ca. 15 bis 17 Watt über dem, was ich seinerzeit für die GeForce GTX 1080 FE messen konnte.
 
Zuletzt bearbeitet:
Macht der geringe Unterschied im Verbrauch denn, aufs ganze Jahr gerechnet, überhaupt etwas aus? Mir völlig egal, wie viel eine Grafikkarte schluckt.
 
Es geht nicht um den Verbeuch ansich und ob die Navis (bissel) schneller oder langsamer sind, als ihre NV-Gegner, wird sich noch zeigen.
Sollten die Werte stimmen, dann ist AMD 7nm / Architektur für den PoPo. Höherer Verbrauch / mehr Wärme als NVIDIAs 12nm GPUs :shot:

Erst 2020/21 kommt richtig Bewegung in den GPU-Markt, wenn Intel seine Destop-GPUs raus haut.
 
Macht der geringe Unterschied im Verbrauch denn, aufs ganze Jahr gerechnet, überhaupt etwas aus? Mir völlig egal, wie viel eine Grafikkarte schluckt.
Kommt vmtl drauf an wenn du fragst. Die 50Watt Unterschied würden im Jahr ca 120€ bedeuten, wenn 24/7 Benchmarks fährst. Bei 24/7 full power würde eine 2070 etwas mehr als 300€ Stromkosten verursachen.

Unterschied ist also deutlich, in der Theorie. In der Praxis sind die absoluten € Werte für Stromkosten eher weniger relevant.

Gesendet von meinem EVA-L09 mit Tapatalk
 
TDP und TGP kann man doch überhaupt nicht ernst nehmen, die RTX 2070 hat eine TDP von 120w die GTX 1080 eine von 180w, in den Test verbrauchen beide fast genauso viel mal die gtx 1080 mehr, mal weniger.

woher hast du den TDP Wert der GTX 1080?
 
Zuletzt bearbeitet:
Die 180W der 1080 sind offiziell und beziehen sich aber auf die gesamte Karte.

Find ich gut, dass beides angegeben wird. TDP ist für die Kühlung relevant, TGP für das Netzteil.
 
fdsonne,
das wundert mich auch immer wieder, wie gut NV seinerzeit geliefert hat. Allerdings tut sich da seit dem auch nicht soviel. Ich glaube das der 7nm Prozzes in der derzeit verfügbaren Form noch nicht optimal für die Komplexen GPUs ist. Deshalb kann AMD noch nicht den ganz großen Sprung machen und NV ist erst garnicht aufgesprungen. Wobei meine R7 mit 2kMhz schon ein deutlicher Schritt von Vega in die richtige Richtung macht. Hoffen wir das wir Ende 2020 mit 7nm+ einen für Big-Chips optimierten Prozess sehen. Dann auch von NV und bei AMD mit einem Perf. Chip.
 
Ich habe Hardware noch NIE nach Stromverbrauch gekauft. Weder bei meinen Servern, noch der Workstation oder dem Spielerechner. Erst Recht nicht bei der GraKa.
Auf die Leistung schaue ich nur bei den Netzteilen!
 
Sowohl PCGH als auch GS und weitere Seiten nennen
225/180 als TDP für die Navi-Karten. Ausgerechnet
WCCFTECH ruft jedoch 180/150 als TDP und
180/225 als TBP(Total Board Power) auf.
schätze, Nvida hat sich erst mal überall durchgelesen...
 
Bei den TGP-Werten rechnet NVIDIA die Stromversorgung des Virtual Link mit ein. Das sind 27 W die noch mit einberechnet werden müssen. Das hatte ich anfangs nicht gemacht.
 
Bei den TGP-Werten rechnet NVIDIA die Stromversorgung des Virtual Link mit ein. Das sind 27 W die noch mit einberechnet werden müssen. Das hatte ich anfangs nicht gemacht.

Dann dürfte eine 2070 FE mit 185W TBP aber keine 185W verbrauchen (Nvidia GeForce RTX 2070 Founders Edition im Test igor´sLAB). Kann also nicht stimmen.

Nehmen wir mal an, die TDP angaben, die Nvidia da von den AMD Karten haben will stimmen, dann wirft das eine weitere Frage auf. Warum verbrauchen die Nvidia Karten dann so viel mehr außerhalb des Chips/ASICs? Der RAM ist doch gleich schnell und die VRMs müssen weniger Leistung liefern, also auch weniger Verluste.... Oder betreibt Nvidia ihre Karten möglicherweise außerhalb der von ihnen spezifizierten TDP? :wink:

Drosseln die Turing eigentlich wenn man Virtual Link verwendet? Oder werden die dann auch außerhalb ihrer spezifizierten TBP betrieben?

Verstehe aber auch nicht wirklich, warum Nvidia überhaupt so einen Vergleich nötig hat.
 
Also ich sehr hier davon genau nichts.

Dein Rülpser ist aber echt erbärmlich, müßte ihr NVIDIA-Fans immer so durchdrehen?

Nvidia veröffentlicht nur ihre Werte der TGP und TDP und stellt sie mit denen von AMD gegenüber.
Ist das jetzt schon ein Grund hier so rumzuheulen wie kleine Kinder, Gamerkind?

Was ist eigentlich mit deinem alten Acc hier passiert, oder den bei Heise oder CB, nutzt du die nicht mehr?
Gibts deine Facebookseite noch?
 
Zuletzt bearbeitet von einem Moderator:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh