RX 5700 schneller als RTX 2070: AMD gibt Vorschau auf Navi

Bisher kein Word über die Effizienz :confused:

Warte ich auch drauf! Habe einen 8 Pin und einen 6 PIN Anschluss gesehen... Deutet also auf 200W aufwärts hin und würde für die 5700 (non XT) als RTX 2060 Konkurrenz nicht gerade gut aussehen.

Best,
Lucky
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
5700 = 180w tbp
5700 xt = 225w tbp

Warum die Forensoftware Großbuchstaben in Kleinbuchstaben ändert muß ich nicht verstehen?
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Wenn sie bei Navi20 wirklich auf EUV setzen, dann wird die Effizienz dort wohl wieder etwas steigen.

Ob sie jetzt PCIe 4.0 auch für die Radeon VII freischalten?
 
Bin ich damit alleine das ich PCIe 4.0 mehr als Marketing als alles andere betrachte, zumindest was Grakas angeht.
Ich mein, wir nutzen doch heute nicht mal PCIe 3.0 x16 bei den Grakas voll aus.
Genügend Tests zwischen PCIe 2.0 x16 und PCIe 3.0 x16 mit aktuellen Karten gibt es auch die kaum ein Unterschied zeigen.

Dann soll für eine 5700 PCIe 4.0 x16 DAS ding sein womit es seine Performance entfaltet?
Glaub ich nicht dran ...
 
Man könnte mit PCIe 4.0 mal weg von x16er PeG.
Ein Vorteil von 4.0 ist eigentlich, daß man die Anzahl der Lanes reduzieren könnte und der Durchsatz trotzdem gleich bleibt oder steigt.

Wird aber nicht passieren, es werden dann weiterhin 16 Lanes für die GPUs verschwendet, obwohl man die Lanes anders sinnvoller nutzen könnte:\

Und natürlich ist 4.0 da hauptsächlich Marketing, aber ist finde das jetzt nicht so schlimm, NVIDIA würde das auch ausschlachten, wenn sie an AMDs Stelle wären und diese Technologie als erstes für Gamerkarten bringen;)
 
Zuletzt bearbeitet:
In dem Bereich glaube ich das auch durchaus.
Aber einige meinen ja das die Grakas wer weiß wie durch abgehen oder gar Voraussetzung wäre um die volle Performance zu entfachen und da glaube ich beim besten willen nicht dran aus genannten Gründen, daher verstehe ich nicht warum das - im Bezug auf Grakas - so oft Thematisiert wird nur weil PCIe 4.0 so eine Art Buzzword der Marketingabteilungen ist für die neuen Boards.
 
Aber einige meinen ja das die Grakas wer weiß wie durch abgehen oder gar Voraussetzung wäre um die volle Performance zu entfachen
Wer soll das hier glauben?

Also ich lese viele Kommentare, aber so eine Behauptung ist mir da noch nicht unter gekommen!
 
Zuletzt bearbeitet:
Nö? Hast doch selbst auch was zu dem Thema gesagt.

Ab #24
 
Laut Igor ist es also auch keine komplett neue µArch, ich wurde für diese Behauptung im Forum zielmlich angegriffen/beschimpft.


Mehr als dumm herumtrollen kannst du nicht?

WAs Fakt ist wird sich zeigen, bei intel liegst du aber nachweislich falsch, weil sich gezeigt hat, daß es diese komische Schublade von der Leute wie du immer erzählt haben nicht gibt;I)

sprach der Obertroll: warum können die Trolle mich nicht leiden...???

Fakten Kind Fakten, hat nix mit trollen zu tun, ABER dafür darf der Troll auf die Igno---
 
Und in meinem Posting steht nicht, daß ich glaube daß PCIe 4.0 die Leistung bei Gaming erhöht!

Fakt ist, daß du einfach nur Müll schreibst, könntest dafür wenigstens dein echtes Profil nutzen...
 
PCIe 4.0 wird für die Dektop-Karten keine Rolle spielen. Als Interlink für APUs/Chiplets wirds hingegen interessanter.
 
Als Interlink nimmt AMD doch HT.

Beim Mac Pro werden die GPUs zb. nicht per PCIe 4.0 untereinander verbunden, weil es da keine Kohärenz geben würde.
 
Langsam wirds mir zu blöd echt.
Hast du kein Text Verständnis?

Es ging doch darum das ich sagte das einige das glauben würden. (Noch mal extra -> Nicht das du das glaubst)
Du meintest, du hättest keine Kommentare diesbezüglich gelesen.

Daraufhin sagte ich, das man dies ab #24 doch lesen kann und du während dessen auch was gesagt hast -> also diese Beiträge durchaus hättest sehen und lesen müssen.
Im Bezug dessen das du was zu PCIe 4.0 gesagt hast meinte ich dein Beitrag #30.

Das du irgendwas in Verbindung zu PCIe 4.0 in Verbindung mit Grafikkarten geschrieben hättest habe ich nie gesagt.

Es diente also als Orientierung, da ab #24 darüber geredet wurde, die Kommentare die du nicht gesehen haben möchtest ... aber selbst in #30 Postest. Das du es also nicht gesehen haben möchtest ist quasi ausgeschlossen außer du liest nicht was andere Schreiben ;)

Hier muss man echt über jeden Scheiß Diskutieren mittlerweile...
 
Als Interlink nimmt AMD doch HT.

Beim Mac Pro werden die GPUs zb. nicht per PCIe 4.0 untereinander verbunden, weil es da keine Kohärenz geben würde.

Öhm... meinst du jetzt auf der Karte selbst oder zwischen den Karten? Meinem letzten Stand nach wurde Crossfire durch mGPU ersetzt und würde dort halt weiter die PCIe Funktionen nutzen. Auf einer Graka mit mehreren GPUs selbst nutzt AMD einen IF Ansatz. (Der sich dann wohl HT nennt - ich habs ehrlich gesagt vergessen wie der sich genau schimpft)

Aber ja, in Zukunft wird AMD wohl eher darauf umsteigen, statt PCIe-Brücken zu basteln. Von daher ignorier meinen Post. Ich hatte das HT-Ding nicht auf dem Schirm. ^^
 
Hast du kein Text Verständnis?
Ich schon, aber du nicht!

Daraufhin sagte ich, das man dies ab #24 doch lesen kann
Ich hab extra nachgesehen, niemand behauptet soetwas, du kannst nur nicht sinnerfassend lesen!

- - - Updated - - -

Öhm... meinst du jetzt auf der Karte selbst oder zwischen den Karten?
Die Karten sind über die IF, als HyperTransport verbunden.
Also die Karten selbst und auch die 2 GPUs pro Karte!
 
Wenn die Dame sagt: "Dank PCIe 4.0 kann Navi die 2070 schlagen" und dann ein Benchmark zeigt.
Ist es dann zu weit hergeholt, dass man AMD zutraut die Bandbreite irgendwie für Leistungssteigerung zu nutzen?

Traue ich AMD zu viel zu? Und wieso ist das haten,...

Termin beim Optiker?
Genau das was ich ansprach und in Frage stellte wurde Thematisiert....

Ich geb´s auf, ist mir zu dumm über sowas zu diskutieren :coffee:
 
Zuletzt bearbeitet von einem Moderator:
Von der Bandbreite werden die GPUs erstmal sicher nicht besonders viel profitieren (kleiner einstelliger % Wert bei einer 4.0 GPU in der Leistungsklasse der 2080Ti).
Wie viel sie von der theoretisch halbierten Latenz profitieren ist noch offen, allerdings ist auch das eine Milchmädchenrechnung und das eine bedingt das andere.

Bei Storage sieht das natürlich anders aus, allerdings wird auch das noch recht lange dauern bis wir davon profitieren werden - PCIe 4.0 x4 nutzt uns im RL eben nicht wirklich, ist aber schön für das Marketing...
 
Genau das denke und vermute ich nämlich auch, und ist das was ich ansprach.
PCIe 4.0 ist toll fürs Marketing aktuell, aber da brauch keiner glauben das die Karten, besonders in der Leistungsklasse DESWEGEN irgendwen oder irgendwas schlagen würden.
Deswegen wunderte es mich das einige eben darüber spekulieren.
 
Niemand spekuliert darüber, du kannst nur nochimmer nicht sinnerfassend lesen;)
 
Also doch der Besuch beim Optiker.
Bist jetzt bald fertig dich an dem immer selben aufzuhängen?

Schön, dann hab du deine Meinung, darfst gerne haben, belastet mich nicht.
Wiederhole dich noch weitere 100 mal, unterstelle weiter irgendwas was deiner Meinung entspricht und du bloß nichts zu geben musst dich geirrt zu haben - weil das Thema eben doch im Raum gestellt wurde -. Belastet auch niemanden, nervt aber einfach ;)
Aber das der Nick nicht ganz Grundlos bei dir ist, wurde ja auch schon in diversen anderen Threads von anderen festgestellt.
Daher gehe auf diese Kinderei auch nicht weiter ein ;)

Wie man das bei Kindern so macht hat man es auch dir versucht zu erklären, sogar sehr ausführlich, kam nicht an.
Wenn das Zitierte nicht genau das ist was ich Ansprach, dann weiß ich auch nicht :fresse:
Also will oder kann man es nicht verstehen , sei es drum ;)

Dir steht es aber frei weiter über so lapidaren Mist zu diskutieren, das dann aber mit dir selbst :wink:

Thema wurde ja inzwischen behandelt und meine Meinung darüber bestätigt.

Irgendwer was neues zum Topic bei zutragen? Wäre toll. :)
 
Zuletzt bearbeitet von einem Moderator:
Genau das denke und vermute ich nämlich auch, und ist das was ich ansprach.
PCIe 4.0 ist toll fürs Marketing aktuell, aber da brauch keiner glauben das die Karten, besonders in der Leistungsklasse DESWEGEN irgendwen oder irgendwas schlagen würden.

Lass dich nicht verunsichern - selbst AMD haut ganz galante auf die Kacke mit nem Slide zu PCIe 4.0


Da steht zwar schön im Kleingedruckten was von based on PCIe Featuretest - die Medienwirksame/Marketingwirksame Zahl springt einem trotzdem direkt ins Auge...
Habe den genauen Wortlaut jetzt nicht (mehr) im Ohr, aber Lisa sagte auch irgendwas in der Richtung von wegen "durch PCIe 4.0 gibts mehr Leistung" oder irgendwo so ähnlich. Was wohl auch der Aufhänger war für die ersten Kommentare zu diesem Thema.

Ein interessantes Video, was Anti Lag und AMDs Sharpening vs DLSS etc demonstriert: What is Anti-LAG? (RX 5700 and RX 5700 XT Specs and Feature Detail) - YouTube

Anti-LAG ist mMn genau so Marketing-Unsinn.
Auch AMD kann sich nicht über die Physik hinwegsetzen. Wie soll es technisch möglich sein, während der Fahrt da Inputs in die Bildausgabe reinzuimpfen? Der Knackpunkt ist hier eher das Pre-Renderlimit. Bei NV per default auf 3 - das heist bei den im Video zu sehenden ~60 FPS hast du einen Lag von bis ca 48ms im ungünstigsten Fall - einfach weil so konfiguriert.
Dreh das auf 1 und schon sinkt das Lag bei NV.

Ich könnte mich irren, aber es gibt nach wie vor so eine Konfig nicht bei AMD?? Zumindest fand ich auf die Schnelle Reddit Posts aus Herbst 18 mit der Frage und als Antwort kam nur, geht nicht...

Mal gucken was draus wird am Ende - NV ist im Marketing auch ganz groß. Ein Feature ala Gameworks Inputlag Reduction, was den aktuell nur per Tool zur Profileditierung erreichbaren Pre-Renderlimit Schalter änderbar macht - und schon hast eine NV Lösung fürs gleiche "Problem"
 
Lass dich nicht verunsichern - selbst AMD haut ganz galante auf die Kacke mit nem Slide zu PCIe 4.0


Da steht zwar schön im Kleingedruckten was von based on PCIe Featuretest - die Medienwirksame/Marketingwirksame Zahl springt einem trotzdem direkt ins Auge...
Habe den genauen Wortlaut jetzt nicht (mehr) im Ohr, aber Lisa sagte auch irgendwas in der Richtung von wegen "durch PCIe 4.0 gibts mehr Leistung" oder irgendwo so ähnlich. Was wohl auch der Aufhänger war für die ersten Kommentare zu diesem Thema.



Anti-LAG ist mMn genau so Marketing-Unsinn.
Auch AMD kann sich nicht über die Physik hinwegsetzen. Wie soll es technisch möglich sein, während der Fahrt da Inputs in die Bildausgabe reinzuimpfen? Der Knackpunkt ist hier eher das Pre-Renderlimit. Bei NV per default auf 3 - das heist bei den im Video zu sehenden ~60 FPS hast du einen Lag von bis ca 48ms im ungünstigsten Fall - einfach weil so konfiguriert.
Dreh das auf 1 und schon sinkt das Lag bei NV.

Ich könnte mich irren, aber es gibt nach wie vor so eine Konfig nicht bei AMD?? Zumindest fand ich auf die Schnelle Reddit Posts aus Herbst 18 mit der Frage und als Antwort kam nur, geht nicht...

Mal gucken was draus wird am Ende - NV ist im Marketing auch ganz groß. Ein Feature ala Gameworks Inputlag Reduction, was den aktuell nur per Tool zur Profileditierung erreichbaren Pre-Renderlimit Schalter änderbar macht - und schon hast eine NV Lösung fürs gleiche "Problem"

Danke dir :)

Was das PreRendering angeht.
Normal im Treiber lässt sich da bis jetzt nichts einstellen.
Das sich das bei nV einstellen lässt weiß ich.

Ich bin jetzt allerdings auch überfragt was bei AMD der default wert ist.

Edit:

Das sind die aktuell möglichen Grafiksettings im Treiber aktuell:

 
Zuletzt bearbeitet von einem Moderator:
Nvidia hatte in einem neueren Beta-Treiber auch eine neue Einstellungsoption im NCP hinzugefügt. Diese nennt sich Latency und darunter wurden die beiden Optionen "Threaded Optimization" und "Pre-Rendered Frame" verschmolzen.

58677109-3fa35c80-834a-11e9-8b32-b50c2a52364a.jpg

Releases · CHEF-KOCH/nVidia-modded-Inf · GitHub (Etwas scrollen bis Version 435.27)
 
Zuletzt bearbeitet:
Ah interessant, wusste ich bis dato nicht, dass dsa jetzt auch in den Treiber gewandert ist...

Die Fragezeichen nach den Settings bei AMD bleiben halt trotzdem. Bis das nicht beantwortet ist läuft so ein "Feature" bei mir unter purem Marketinggeblubber... Ähnlich der Killer-NIC seinerzeit. Klingt cool und es wird immer Leute geben, die das für bare Münze nehmen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh