AMD VGA´s haben immer mehr Tflops als Nvidia Karten

Status
Für weitere Antworten geschlossen.
@slot108
Klar unfehlbar ist keiner, das erzählte deckt sich nur zu gut mit meiner eigenen Erfahrung.
Von daher ist das nur wieder die Bestätigung das was dran ist.

Übrigens ich seh bei dem Video schon ein optischen Unterschied und das nicht gerade zu knapp!
Zu mal dort ein fixer Focus der Kamera genutzt wird, fehlt die Tiefenunschärfe bei nvidia.

Aber das mögen eh nicht alle Gamer, Geschmäcker sind ja bekanntlich Unterschiedlich. :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@slot: Ah klasse! Und du deckst diese Verschwörung jetz auf! Super! Holy Shit :fresse:
 
Zuletzt bearbeitet:
beide haben gar keine Tiefenunschärfe. Tiefenunschärfe is das Weichzeichnen von weit entfernten Objekten, die sind dann wischiwaschi; das siehste aber bei beiden nicht. vor allem nicht, wenn die 2 abgefilmten und nebeneinander montierten screens deinen Monitor nicht voll ausfüllen, das wird schwer. aber schön, dass du auf sonst nix eingehst. immer feste glauben! wird schon.
 
Zuletzt bearbeitet:
Ich konnte noch den fehlenden "glow" Effekt ausfindig machen und das was du meinst ist DOF (DepthOfField).
Bewölkung in der Atmosphäre scheint es bei nvidia auch weniger zu geben. ;)
 
Zuletzt bearbeitet:
...
Übrigens ich seh bei dem Video schon ein optischen Unterschied und das nicht gerade zu knapp!
...
ohja, ich auch! hat hier jemand AoS und kann bitte mal den interaktiven Boden aufnehmen und das hier verlinken, bitte? wenn der nämlich nicht interaktiv ist, kaggt AMD da aber mal so richtig derbe ab.

- - - Updated - - -

Ich konnte noch den fehlenden "glow" Effekt ausfindig machen und das was du meinst ist DOF (DepthOfField).
Bewölkung in der Atmosphäre scheint es bei nvidia auch weniger zu geben. ;)
der "fehlende glow-Effekt" kommt von der korrekteren Darstellung. wenn ich hier an den Reglern dreh, hat auch ne Menge mehr nen "glow-Effekt". dreh mal an deinem Gamma, und freu dich über ordentlich glow.

Tiefen(un)schärfe ist Depth of Field ;)

und wie siehste bitte schön mitm Blick aufn Boden die Bewölkung? is das nich die andere Blickrichtung, gen Himmel? was siehste denn, wenn du in den Himmel schaust, Gras etwa? sag ma, hör ma auf mich zu verar.....
 
Zuletzt bearbeitet:
*aufgeräumt*...
 
ohja, ich auch! hat hier jemand AoS und kann bitte mal den interaktiven Boden aufnehmen und das hier verlinken, bitte? wenn der nämlich nicht interaktiv ist, kaggt AMD da aber mal so richtig derbe ab.

- - - Updated - - -


der "fehlende glow-Effekt" kommt von der korrekteren Darstellung. wenn ich hier an den Reglern dreh, hat auch ne Menge mehr nen "glow-Effekt". dreh mal an deinem Gamma, und freu dich über ordentlich glow.

Tiefen(un)schärfe ist Depth of Field ;)

und wie siehste bitte schön mitm Blick aufn Boden die Bewölkung? is das nich die andere Blickrichtung, gen Himmel? was siehste denn, wenn du in den Himmel schaust, Gras etwa? sag ma, hör ma auf mich zu verar.....
Ich hab AoS selbst, wenn ich Zeit finde kann ich ein paar Logs erstellen. ;)

Wegen den Wolken, man schaut ja aus der Stratosphere Richtung Planet je nach höhe/tiefe sind auch Wolken im Blickfeld nach unten.
Nennt sich Z (X und Y) Achsen im 3D Koordinaten System.
Im Datacenter Bereich schreien sie gerade ganz groß "Cloud"

Das finde ich bei ROTT genial, da siehste Lara´s Hauch aus dem Mund. :xmas:
 
ja, mach mal ne Aufnahme vom interaktiven Boden.
das die Böden sogar verschiedene Moiré-Effekte aufweisen, fällt dir auch nich auf? der Vergleich in dem Video is für mich dermaßen krass auffällig daneben und daher Null aussagekräftig. aber ich beschäftige mich ja auch nur mit sowas nebensächlichem. deswegen kalibriere ich meinen Monitor ja auch mitm eyeOne, weil ich Null Plan hab. muss ich ja mal zugeben.
 
ja, mach mal ne Aufnahme vom interaktiven Boden.
das die Böden sogar verschiedene Moiré-Effekte aufweisen, fällt dir auch nich auf? der Vergleich in dem Video is für mich dermaßen krass auffällig daneben und daher Null aussagekräftig. aber ich beschäftige mich ja auch nur mit sowas nebensächlichem. deswegen kalibriere ich meinen Monitor ja auch mitm eyeOne, weil ich Null Plan hab. muss ich ja mal zugeben.
Es gibt nur komprimierte Boden Texturen zur Auswahl, welche Einstellung soll der interaktive Boden sein bei AoS?

Es ist nicht mein Ziel dich zu veräppeln, dafür ist das Leben zu kurz! :)
Daher hier mal ein Hauch aus der Sicht vom Boden schräg nach oben: http://abload.de/img/rottr_2016_10_11_19_4iyp6s.jpg
 
Zuletzt bearbeitet:
ich red die ganze Zeit von AoS. aber Danke dennoch für die Mühe.
 
Naja, dass bei AMD die DX12 Implementierung langsamer ist, ist eher die Ausnahme. IdR ist sie schneller oder zumindest gleich auf, plus minus ein paar Prozent. Dass die DX12 Implementierung teils deutlich langsamer ist, trifft vor allem auf Nvidia zu. Auch ein Indikator der beim Thema DX12 alles andere als für Nvidia spricht. Es geht ja nicht nur um schneller oder langsamer, sondern auch um Tendenzen. Aber du hast natürlich Recht, im Moment ist es zu früh für finale Bewertungen. Die bisherigen Eindrücke der neuen APIs sprechen aber klar für AMD. Was hauptsächlich an den wesentlich besseren Async Compute Fähigkeiten liegt. Das kann keiner mit klarem Verstand leugnen.

In den Texten zu den Tests die ich verfolge steht bei gefühlt mindestens 60% der DX12 Titel, das die unter DX12 langsamer laufen, als unter DX11 und wenn das nicht, dann das die Frametimes deutlich schlechter sind. Was für mich gleichbedeutend ist, da ich eine empfindliche Natur bin und das sehe. Ja, AMD gewinnt deutlich mehr durch Async Compute, das möchte ich auch zu keinem Zeitpunkt leugnen. Im Endeffekt kann man unterstellen, das eine RX480, die unter DX11 knapp hinter der GTX1060 liegt, dann unter DX12 kanpp vor einer GTX1060 liegen könnte. Mehr nicht. Zu oft werden hier wunder erwartet. Bisher wirkt auf mich eher so, das AMD im CPU Limit deutlich aufholen kann, in DX12. Im GPU Limit ist es wie immer, mal der Eine, mal der Andere vorn. Das ist nur das, was ich bisher sehe. Mehr wird sich zeigen, wenn mehr DX12 Titel draußen sind und dieses auch Tatsache unter DX12 besser laufen ;)
 
Zuletzt bearbeitet:
Sehr fragwürdig! Vielleicht ist man selbst auf irgendetwas fokussiert. Aber ich habe mich eine Zeit lang sehr mit den Benchmarks der verschiedenen Plattformen beschäftigt und kam gerade bei PCGH zu dem Schluss, das die am realistischsten sind.
Mir selbst ist zuletzt eher anders herum aufgefallen, das Probleme, die ich mit der R9 290X und der R9 390 hatte, bei den Tests keine Erwähnung finden. Weil so ein 30s Bench eben nicht alles darstellen kann.

Schade das es keine Fury X mit 8GB gab, sonst hätte ich mir mal eine zum vergleichen besorgt ;) Wann kommt endlich Vega... ;)

Gerne kann ich dir auch per PN (hier artet das sonst wieder aus) mehr aus meinen eigenen Erfahrungen berichten, aus der Zeit wo ich Karten beider Hersteller, der gleichen Leistungsklasse hatte.
 
Zuletzt bearbeitet:
DX12 ist schlicht schwerer umzusetzen, weswegen man auch einiges an Leistung gewinnen kann (was sich nicht unbedingt in FPS ausdrücken muss, ob die CPU nun 50% oder 30% Auslastung hat, spielt kaum eine Rolle, wenn die Grafikkarte auch so schon gut ausgelastet ist). Auch ist DX12 zu DX11 nicht so wie das früher immer der Fall war (früher ein paar Optimierungen + neue Features - dagegen ist DX12 fast komplett neu). Bis DX12 seine stärken wirklich ausspielen können wird, werden noch ein paar Jahre vergehen (bis die Entwickler alle kniffe raus haben).
 
Naja, dass bei AMD die DX12 Implementierung langsamer ist, ist eher die Ausnahme. IdR ist sie schneller oder zumindest gleich auf, plus minus ein paar Prozent. Dass die DX12 Implementierung teils deutlich langsamer ist, trifft vor allem auf Nvidia zu. Auch ein Indikator der beim Thema DX12 alles andere als für Nvidia spricht. Es geht ja nicht nur um schneller oder langsamer, sondern auch um Tendenzen.

Eigentlich sind die Tendenzen völlig irrelevant... Wen interessiert bitte ernsthaft, wer da wo wie viel in einer anderen API zulegt?
Was hinten bei rum kommt, ist entscheidend... Und dort zeigt sich oft genug, dass NV egal ob DX11 oder 12 am Ende bis dato oftmals oben steht. Muss nicht ewig so bleiben und irgendwann wird wohl die geringere Rohleistung bei NV ihren Tribut fordern. Zum Release der jeweiligen Modelle und ganz paar Monate oder Jahre danach, ist das aber kein wirkliches Problem.

Was hauptsächlich an den wesentlich besseren Async Compute Fähigkeiten liegt. Das kann keiner mit klarem Verstand leugnen.

Halte ich für ein Gerücht... Die Titel, die bis dato eine seperate An- und Abschaltung bzgl. ASync Compute erlauben bescheinigen AMD zwischen 5 und 20% Vorteil für dieses Feature.
AMD gewinnt, vor allem in weniger GPU belastenden Settings deutlich mehr als 5-20% durch DX12. -> ergo kann es schlicht NICHT "hauptsächlich an den wesentlich besseren Async Compute Fähigkeiten" liegen :wink:
DAS kann keiner mit klarem Verstand leugnen, der dazu noch eins und eins zusammen zählen kann ;)

Zudem ist es doch so: P10=max. 5.8TFlops, GP106=min. 4.7TFlops. Daher relativiert sich der Thread doch relativ schnell ....

Das stimmt übrigens nicht...
Sowohl AMD als auch NV geben max. Boost für die TFlop/sec Werte an! Die 4,7TFlop/sec bei NV beziehen sich also auf 1,85GHz, wie die 5,8GFlop/sec bei AMD sich auf 1,26GHz beziehen!
Das ist im Endeffekt kein wirklicher Unterschied. Selbst wenn die NV Karte auf 1,9-1,95GHz gehen würde, was sie Dauerhaft teils ja schafft, kommt da nicht viel mehr Rohpower drauf ;)
 
Zuletzt bearbeitet:
Na interessant ist es schon, ob AMD, oder Nvidia schneller, oder langsamer werden in einer anderen API, wenn es die ist, die zunehmend, die bisherige ersetzen wird. Aber klar ist, das am Ende abgerechnet wird.

Betabrot sieht es schon richtig, das DX12 noch Zeit brauchen wird. Ich denke zwar nicht das ganz so lange dauern wird, aber es wird noch dauern. Dazu ist auch Async compute nicht alles was DX12 kann. Kommt aber AMD entgegen, weil man da öfter das Problem hat, das die Ihre Chips nicht ausgelastet bekommen.
 
Doom und Hitman sind Gaming Evolved Titel, in Doom werden shader intrinsic functions für AMD genutzt und Hitman läuft unter Directx11 massiv auf AMD schneller. Völlig abseits jeder Normalität.
Das ist wirklich Rosinenpickerei und entspricht in etwa dem, wenn ich ein Gameworksspiel nehme und das für hohe Nvidialeistung zur Rate ziehe.
Wahrscheinlich schaut der mr.dude nur diese zwei Benchmarks, obwohl er doch sonst immer gegen jedwede einseitige Vorteilnahme durch Zusatzfunktionen, die dem anderen IHV nicht zugute kommen, ist.

EDIT: Hier stand Mist...
 
Na interessant ist es schon, ob AMD, oder Nvidia schneller, oder langsamer werden in einer anderen API, wenn es die ist, die zunehmend, die bisherige ersetzen wird. Aber klar ist, das am Ende abgerechnet wird.

Aber was bitte soll mich das Wissen über den Umstand, dass eine AMD GPU sonst wie viele xxx Prozent zwischen DX11 und DX12 zulegt, interessieren? Das ist mir doch völlig hupe. Ich nutze als Endkunde entweder die API, die schneller ist oder die API, die optisch das bessere Ergebnis liefert (oder die API, die es gibt, sofern es irgendwann mal DX12 only/Vulcan only Titel geben sollte)
DANN, wenn ich mich für eine API entschiedene habe, vergleiche ich ggf. mit den Leistungen der Konkurenz... Solange es aber optisch genau NULL Unterschied macht, spielt es schlicht und ergreifend keine Rolle, ob DX12, Vulcan oder DX11. Man nutzt doch so oder so das, was das beste Ergebnis liefert. Wenn die DX11 Umsetzung bei NV dann schneller als die DX12 Umsetzung bei AMD ist -> und das ist öftmals immernoch der Fall -> außer bei Doom und Hitman, wenn ich das richtig sehe. (siehe jüngst BF1 Benches), dann ist doch alles in Butter für NV und AMD!? AMD spielt ihre Stärken aus und löst die DX11 CPU-Limit Fußfesseln. NV spielt die DX11 stärken weiter aus und alle sind glücklich... (oder sollten sein eigentlich sein)
 
@AotS
Wie schon verlinkt gab es auch Vergleichsvideos. Die Unterschiede sind deutlich zu erkennen. Dass das Darstellungsfehler beim Abfilmen sein sollen, ist Unfug. Bei AMD werden definitiv mehr Details gerendert. Die Frage ist nur, rendert Nvidia absichtlich weniger Details, um bei den FPS zu schummeln? Oder arbeitet deren Hardware/Treiber einfach nicht korrekt?


In den Texten zu den Tests die ich verfolge steht bei gefühlt mindestens 60% der DX12 Titel, das die unter DX12 langsamer laufen
Wenn die aus Sicht von Nvidia sprechen, dann mag das ja auch stimmen. ;) Bei AMD habe ich bis auf ein Spiel (IIRC) aber noch keines gesehen, was sichtbar langsamer unter DX12 läuft.


Eigentlich sind die Tendenzen völlig irrelevant
Nein, sind sie nicht. Wenn du nichts zum diskutierten Thema beizutragen hast, dann musst du auch nichts sagen.

ASync Compute erlauben bescheinigen AMD zwischen 5 und 20% Vorteil für dieses Feature.
AMD selbst gibt bis zu fast 50% an.

AMD gewinnt, vor allem in weniger GPU belastenden Settings deutlich mehr als 5-20% durch DX12.
Fast 50% ist ja auch deutlich mehr als 5-20%. ;) Was soll denn sonst verantwortlich sein?

Was hinten bei rum kommt, ist entscheidend
Ja ja, die typisch abgedroschenen Pseudosprüche, wenn einem zum Thema nichts konstruktives einfällt oder man absichtlich etwas wegzureden versucht. Ich bin schockiert. :rolleyes:
 
@AotS
Wie schon verlinkt gab es auch Vergleichsvideos. Die Unterschiede sind deutlich zu erkennen. Dass das Darstellungsfehler beim Abfilmen sein sollen, ist Unfug. ...
da is zu erkennen, das esn schwachsinniger möchtegern-Vergleich is. nich mal die settings sind vorher auf den getrennten screens zu sehen, sondern in einem und dann, schwupp, 2 screens. glaubwürdig is anders.

- - - Updated - - -

Anhang anzeigen 378060
hab vergessen den Moiré-Effekt auf der rechten Seite zu erwähnen (das ist das Muster). wer die ganzen Unterschiede nicht sieht oder dem sie egal is, is blind in irgendeiner Hinsicht.
 
Zuletzt bearbeitet:
Aber was bitte soll mich das Wissen über den Umstand, dass eine AMD GPU sonst wie viele xxx Prozent zwischen DX11 und DX12 zulegt, interessieren? Das ist mir doch völlig hupe. Ich nutze als Endkunde entweder die API, die schneller ist oder die API, die optisch das bessere Ergebnis liefert (oder die API, die es gibt, sofern es irgendwann mal DX12 only/Vulcan only Titel geben sollte)
DANN, wenn ich mich für eine API entschiedene habe, vergleiche ich ggf. mit den Leistungen der Konkurenz... Solange es aber optisch genau NULL Unterschied macht, spielt es schlicht und ergreifend keine Rolle, ob DX12, Vulcan oder DX11. Man nutzt doch so oder so das, was das beste Ergebnis liefert. Wenn die DX11 Umsetzung bei NV dann schneller als die DX12 Umsetzung bei AMD ist -> und das ist öftmals immernoch der Fall -> außer bei Doom und Hitman, wenn ich das richtig sehe. (siehe jüngst BF1 Benches), dann ist doch alles in Butter für NV und AMD!? AMD spielt ihre Stärken aus und löst die DX11 CPU-Limit Fußfesseln. NV spielt die DX11 stärken weiter aus und alle sind glücklich... (oder sollten sein eigentlich sein)

Ich bezweifle ja nicht, das letztendlich entscheidend ist, das absolut betrachtet, das beste Ergebnis bekommt. Also egal welche API. Aber DX12 wird irgendwann die einzige API sein und zwar spätestens ab ende 2017 wird es die ersten großen Engines geben, die nur auf DX12 bauen (nur meine Meinung). Daher ist es schon wichtig auch über den Tellerrand zu schauen. Aber auch außerhalb des Tellerrandes zeigt sich noch nicht das AMD wirklich gewinnt. Bisher nur minimal. und das ist noch nicht Aussagekräftig, wie ich schon mehrfach eingebracht habe.

- - - Updated - - -

Wenn die aus Sicht von Nvidia sprechen, dann mag das ja auch stimmen. ;) Bei AMD habe ich bis auf ein Spiel (IIRC) aber noch keines gesehen, was sichtbar langsamer unter DX12 läuft.

Aber du liest auch die Texte bei solchen Tests? Weil es steht öfter darin, das auf AMD Hardware zwar die Framerate, von den nackten Zahlen zwar toll ausschaut, aber die Frametimes so schlecht sind, das es sich dennoch ruckelnd anfühlt. Nix aus Sicht von Nvidia. (versteh das nicht falsch, aktuell würde ich schon fast eher zur RX480 tendieren, als zur GTX1060) Aber was du schreibst deckt sich einfach nicht, mit dem was ich bisher gelesen und gesehen habe.
 
AMD selbst gibt bis zu fast 50% an. (Vorteil durch Async Compute)

Fast 50% ist ja auch deutlich mehr als 5-20%. ;) Was soll denn sonst verantwortlich sein?

Die Vorteile die größer sind, kommen dadurch das unter DX11 die CPU auch stärker limitiert hat. Ein genereller Vorteil von DX12. Warum wirkt das bei Nvidia nicht so schnell ;)? Weil Nvidia unter DX11 schon oft nicht so limiert war wie AMD (nicht negativ gemeint, aber eben Fakt).

Diese Gewinne rein weg AC zuzuschreiben halte ich für falsch. Auch hierzu habe ich die Tage einen Artikel in der PCGH Print gelesen, wo auch CPU Benchs gemacht wurden. Beispiel Spiel (weiß gerade leidr nicht welches),
Nvidia AMD
DX11 65Fps DX11 47Fps je im CPU Limit, in 720P
DX12 69Fps DX12 71Fps je im CPU Limit, in 720P

Klar kann AMD in diesem Szenario mehr gewinnen, wenn das Grafiklimit erst bei rund 65-70Fps einsetzt. Genau so war es auch und AMD und Nvidia waren in 1080p eigentlich gleich schnell. Erst mit steigender Auflösung stellte isch die Übliche Reihenfolge der einzelnen Karten wieder ein. Fury X etwa auf Augenhöhe zur GTX980TI und GTX1070 (beide mit Nvidia Stock Takt, im Falle der 1070, also 1683MHz), dann die GTX1080 schneller. Nvidia hat in diesem Fall einfach in 1080P ein CPU Limit. Was auch sich darin wiederspiegelt das die GTX1070 ind 1080p, praktisch genau so schnell war wie die GTX1080, -2Fps.

- - - Updated - - -

du meinst also echt, dass die dann auf sämtliche Windows-Nutzer unterhalb Win10 verzichten werden?

Ja, ich denke das es spätestens dann die ersten Engine geben wird die nur noch auf DX12, oder Vulcan (wäre ja flexibler, also auch Win 7) bauen. Dabei kann ich mir gut vorstellen, das die Frostbyte Engine vorne mit dabei sein könnte. Ich sage nicht, das alle Spiele dann nur noch für DX12 erscheinen!

Ich verstehe sowieso nicht, was dieses krampfhafte Festhalten an verflossenen Betriebssytemen bringen soll. Klar anfangs, gab es ein paar Fragezeichen, bei Win 10 und es hat auch hier und da seine Schwächen. Aber in Summe, ist es das flottere Betriebsystem. Mit den Jahren ändert sich auch mal was ;)...
 
die meisten user kümmern sich nicht ums BS. die hinterfragen, ergoogeln sich da nix. fahren ihr BS nis nsien es eines tages wechseln müssen, bzw sich komplett neue hardware anschaffen wo ein neues BS dabei ist. bemrk ich immer wieder bei wirklich all meinen Kumpels. die haben Null Plan. alles was die über 10 wissen is: Datenkrake. und selbst das sind die wenigen "Informierten" ... ich bhab schon aufgehört, die drauf anzusprechen. ich geh denen damit nur aufn Keks.
 
Kenne ich. Ist ja auch ok, für viele soll so ein Rechenknecht einfach funktionieren und das wars. Aber es ist auch normal, das die Zeit kommt, wo halt nicht mehr alles unterstützt wird ;)
 
Bestes beispiel ist die GTX 1060 die weit weniger Gflops hat wie die RX 480.
Aber in Games ist die GTX 1060 extrem schneller und bringt mehr FPS auf den Bildschirm

Nicht in allen Spielen:



Ich schätze die GFLOPS sind als Maßstab einfach nicht wirklich relevant.
 
Ja ja, die typisch abgedroschenen Pseudosprüche, wenn einem zum Thema nichts konstruktives einfällt oder man absichtlich etwas wegzureden versucht. Ich bin schockiert. :rolleyes:

Ach mr.dude... Schon wieder am stänkern?
Viel spaß noch. Auf dein Niveau hab ich wie so oft keine Lust. Nichtmal die Mühe gemacht die Aussage zu lesen hast du dir, aber gut gebrüllt ;)

Aber eine Frage habe ich dann doch noch... Wie kommst du auf das schmale dünne Brett, dass deine Aussagen hier irgendwie Themenrelevant wären?? Dir ist bewusst um was es hier geht?
DX12 gehört nicht dazu. Nur so als Info nebenbei!

Ich bezweifle ja nicht, das letztendlich entscheidend ist, das absolut betrachtet, das beste Ergebnis bekommt. Also egal welche API. Aber DX12 wird irgendwann die einzige API sein und zwar spätestens ab ende 2017 wird es die ersten großen Engines geben, die nur auf DX12 bauen (nur meine Meinung).

Ende 2017 wäre ein Jahr... Meinst du ernsthaft? Heute sind nichtmal ALLE Titel DX11, DX10 oder mindestens neuer DX9... Warum sollte das nun innerhalb kürzester Zeit mit DX12 anders ausfallen??
Es wird wie so oft eher in Abhängigkeit dessen sein, was die Entwickler überhaupt machen wollen.

Auf der anderen Seite ist die Frage eher, was wird NV mit ihrem DX12 defizit für die Zukunft machen? Man könnte nun versuchen, das Thema mit Rohleistung zu erschlagen. Aber das Gegenteil ist im Moment eher der Fall und auf Dauer wird das wohl auch nix... Da muss also was passieren.
 
Was soll ich da definieren? Ist doch nun mehr oder weniger bekannt, dass NV bei Thema ASync Compute hardwarebededingt Nachteile hat, Pascal machts etwas besser als Maxwell, aber nicht wie man es erwarten würden...
Die Frage ist eher, wohin geht die Reise? Bleibts bei den aktuell messbaren ~5-20% Zusatz bei AMD durch ASync, ist das sicher kein Beinbruch... Mit steigendem Alter der Modelle wird das Feature wohl aber ggü. NV für eine größere Lücke sorgen im direkten Vergleich, weil bei AMD einfach mehr Rohleistung da ist, die es damit freizulassen gilt. Ob sich dann, wenn das der Fall ist, noch jemand um Maxwell und Pascal oder GCN 1-4 schert, abwarten...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh