GeForce GTX 1080: Asynchronous Compute plus AoS-Benchmarks, kein VGA und Verwirrung um Founders Edition

Bis dahin kann ich nur vollstens zustimmen!!

Da muss ich allerdings teilweise widersprechen. Wenn es keinen gäbe, der teilweise sogar mit roten Zahlen ein Konkurrenzprodukt auf den Markt bringt, wären wir noch weiter hinten was die Forschung angeht. AMD hätte sich auch aus dem Desktop-Consumer-Markt zurückziehen können. Dann könnte NV machen was sie wollen. Tun sie ja jetzt auch schon teilweise, aber die Leute kaufen es zurecht trotzdem, weil die Produkte einfach im Schnitt besser und fortschrittlicher sind.

Nun ja, Nvidia muss weniger forschen, hat somit weniger Ausgaben, kann günstiger produzieren und trotzdem mehr verlangen, weil sie AMD immer ein bisschen voraus sind und das Angebot somit attraktiver ist.

Zumindest ist es das, was ich sehe. Habe leider keine Ahnung von der Technik und muss mich nur darauf stützen was ich lese und verstehen kann, aber die Anzeichen dafür sind sehr eindeutig.

Worauf ich mich nach wie vor freue sind Perspektivkorrektur bei mehr als 1 Monitor und Ansel, da ich Surrounduser bin und es liebe, aber der Markt der letzten Jahre hinterlässt bei mir einen unangenehmen Geschmack zurück. Und es ist schwer einer Firma grundsätzlich Vertrauen zu schenken, welche bezüglich der Wahrheit den Bogen überspannt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Frage ist eben, wieso die 980 überproportional (bei späteren Titeln, ohne vollen VRAM bei der 780ti) zugelegt hat.
Weil die 780 bereits ausgereizt war und es bei der 980 bedingt durch die neue Architektur noch Optimierungsmöglichkeiten gab?
Weil die Karte nun auch den Game-Entwicklern flächendeckend zur Verfügung stand?
Sind aber nur Vermutungen.....
 
Weil die 780Ti bei erscheinen der 980 bereits gut optimierte Treiber hatte, während das bei der 980 zu diesem Zeitpunkt nicht der Fall war.
Natürlich gewinnt die 980 damit im weiteren Verlauf der Zeit mehr dazu als die 780Ti.

Genauso wars bei der 680 und der 780 auch schon: 680 ist optimiert und 780 erscheint, später wird 780 optimiert und die 680 wírd vergleichsweise "langsamer" da sie bei Erscheinen der 780 bereits optimiert war.

Weil die 780 bereits ausgereizt war und es bei der 980 bedingt durch die neue Architektur noch Optimierungsmöglichkeiten gab?
Weil die Karte nun auch den Game-Entwicklern flächendeckend zur Verfügung stand?
Sind aber nur Vermutungen.....

Amen!
 
Weil AMD seit Jahren den gleichen Plastikbaustein verkauft, und somit alle Änderungen für die "älteren" Karten auch gelten...

Kannst du das genauer erklären?
NVIDIA labelt jede zweite gen. genauso um.
Bei notebook/ OEM grakas treibt nvidia das 3 Generationen lang.
 
Alles klar, sorry. Das habe ich dann falsch zugeordnet.

Natürlich wurden die FPS nicht weniger. Die Frage ist eben, wieso die 980 überproportional (bei späteren Titeln, ohne vollen VRAM bei der 780ti) zugelegt hat.

die Frage stellt sich. die Antwort werden wir nicht glaubhaft bekommen. alles andere sind Gerüchte und/oder Wunschdenken basierend auf persönlichen ..., auf die zumindest ich erstmal nichts gebe. überbordende Tesselation, Mantle, Treiberpflege, asyncs of singularity, ... was hat man von all dem außer Stimmungsmache, wenn nichts davon über meinen oder deinen Monitor flackert?
ich versteh nich, was AMDler auf der ollen Holzatrappe von damals rumhacken. wem wurde die denn als GraKa verkauft? das ist doch haltlos.
was hatten die Leute davon sich ne AMD-Karte wegen zukünftigen mantle support zu kaufen? wo ist der denn?
was hat wer, außer massig unnötigster Textzeilen in PC-Foren, real von async shadern?

- - - Updated - - -

Weil die 780 bereits ausgereizt war und es bei der 980 bedingt durch die neue Architektur noch Optimierungsmöglichkeiten gab?
Weil die Karte nun auch den Game-Entwicklern flächendeckend zur Verfügung stand?
Sind aber nur Vermutungen.....
+1
(und geil geschrieben noch dazu)
 
Kannst du das genauer erklären?
NVIDIA labelt jede zweite gen. genauso um.
Bei notebook/ OEM grakas treibt nvidia das 3 Generationen lang.
AMD genauso ... HD 7970M -> HD 8970M -> R9-290M ... alles der gleiche Pitcairn GPU.
 
Nun ja, Nvidia muss weniger forschen, hat somit weniger Ausgaben, kann günstiger produzieren und trotzdem mehr verlangen, weil sie AMD immer ein bisschen voraus sind und das Angebot somit attraktiver ist.

Zumindest ist es das, was ich sehe. Habe leider keine Ahnung von der Technik und muss mich nur darauf stützen was ich lese und verstehen kann, aber die Anzeichen dafür sind sehr eindeutig.

Worauf ich mich nach wie vor freue sind Perspektivkorrektur bei mehr als 1 Monitor und Ansel, da ich Surrounduser bin und es liebe, aber der Markt der letzten Jahre hinterlässt bei mir einen unangenehmen Geschmack zurück. Und es ist schwer einer Firma grundsätzlich Vertrauen zu schenken, welche bezüglich der Wahrheit den Bogen überspannt.

Wie kommst du auf die Idee das Nvidia weniger Forschen muss ? Die müssen genauso forschen wie alle anderen auch und stecken derzeit seit Jahren am meisten Geld in Forschung und Entwicklung.
Die Produktion hat auch rein gar nichts mit der Forschung perse zu tun und warum sollte Nvidia da günstiger produzieren können ?
Spar dir bitte auch solche Floskeln wie "AMD immer ein bisschen voraus". Entweder du beweist das "immer" oder du lässt solche Sätze einfach sein da sie zu keine vernünftigen Diskussion beitragen vor allem wenn du selber sagt das du eigentlich keine Ahnung hast.
 
Zuletzt bearbeitet:
Kannst du das genauer erklären?
NVIDIA labelt jede zweite gen. genauso um.
Bei notebook/ OEM grakas treibt nvidia das 3 Generationen lang.

AMD setzt wie auch schon viele vorher richtig erkannt haben seit Jahren auf die gleiche Architektur, die natürlich bei jeder Generation ein wenig verbessert wurde. Aber auf vielen Ebenen dürften die Treiber bzw. die Hardware an sich ähnlich arbeiten, was vermutlich auch den Aufwand senkt.
 
dann optimiert und labelt AMD also seit Jahren nur um? und jede neue Umlabelung bekommtn neuen Namen, Hawaii, Bora Bora, Sahara, Hinterwuppingen, etc? echt?
das fällt mir ganz schwer zu glauben.
 
Und Nvidia fängt jede Generation an eine komplett neue Architektur zu entwickeln oder was ? Und weil Nvidia nichts auf die Reihe kriegt mit ihren ständigen Neuentwicklungen muss AMD immer nur ihre alte Architektur ein bisschen verbessern. Dafür reichen auch ein paar Praktikanten weshalb die dann nur 250 Mio ausgeben müssen.
Macht euch doch nicht lächerlich hier...
 
Zuletzt bearbeitet:
genau und echt mal!
Jeder Hersteller nutzt das KnowHow aus den vorigen Gens. keiner der beiden Hersteller ist blöd.
bis auf AMD, die habens verkaufstechnisch nich so drauf.
 
bisher konnte ich alle Spiele mit Maxwell spielen.
wo, außer beim Ashes Bench, haste denn was von async shadern? und welchen Spaß hast du am diesem Ashes benchmark? warum ist dieses eine DX12-feature das wichtigste? warum ist es nicht wichtig, dass AMD auch nicht alle DX12-Features hat?

Nur um kurz eins vorweg zu nehmen. Mir ist komplett wurscht, von wem meine nächste Karte kommt, nur soll sie nicht nur fett Power haben, sie soll sie auch auf die Straße bringen können. Ich lese hier von NV Verteidigern viel wischy waschy Argumente (AMD ist schlecht, NV ist toll), belegt wird das mit Umsätzen und Marktanteilen oder der Tatsache, dass AS noch nicht verbreitet ist. Aber auf die wirkliche Technik und eine vernünftige Argumentation legt keiner Wert.

Natürloch ist DX12 und AS wichtig, jetzt ein bisschen, in Zukunft noch viel mehr. Die Argumentation ist die selbe wie damals als Apple das IPad eingeführt hat. "Wann brauchst du schon ein Tablet?". Sie geht der Tatsache aus dem Weg, dass NV hier absolut geschlafen hat. Wenn Pascal DX12 nicht voll unzerstützt und durch superhohe Takte versucht wird, das zu kaschieren, bin ich raus sorry. Auch wenn ich lieber jetzt Highend ohne Wasserkühlung gehabt hätte, greife ich (je nach dem) doch lieber zu einer Polaris oder warte auf Vega.
 
is doch ok. wenn dir AS so wichtig ist, ist das so. gibt auch Leute, die minen oder wie das heißt, für die sind bisher AMDs die besseren Karten.
warum ist dir AS so wichtig? also aktuell, jetzt live meine ich.
 
Einige hier haben echt ne Störung am Start^^
 
Auch wenn ich lieber jetzt Highend ohne Wasserkühlung gehabt hätte, greife ich (je nach dem) doch lieber zu einer Polaris oder warte auf Vega.
Und warum verbringst du deine Wartezeit nicht einfach in einem Polaris- oder Vega-Thread?
Machst du gerade die Prüfung für die Missionars-Schule:rolleyes:
 
beim Übertakten? also ich glaube die grünen Karten sind schon taktfreudiger?!

AMD geht ab Werk näher ans Limit und nV ist eher etwas konservativ

Definitiv, da AMD wie schon so oft erwähnt nie neue Karten gebracht hat. Die 3XX sind spannungs- und taktmäßig am absoluten Limit.

Maxwell war eine neue Generation und dort waren 45-55 % OC auf einer Titan X oder Stock 980Ti normal, inklusive dem Leistungsscaling. Es bleibt zu hoffen dass sich das nun nicht ändert, dann wird man 1080(Ti) auf 1,8-2,4 GHz betreiben können, die Ti natürlich erfahrungsgemäß etwas weniger heftig.
 
Ich weiß ja nicht, ob ich da nen Denkfehler habe, aber interessiert es wirklich die Masse was solche Karten in 1080p für 'ne Leistung haben?

Das ist ne >600€/$ Karte, die sicher auch übertaktet ist. So was lässt doch kein Mensch auf nem 1080p Monitor laufen. Oder verkenne ich da gerade die Realität?

Leute, die noch immr auf Crysis 2 warten, so Leute wie mich.
 
Die Argumente sind dir ausgegangen hm? :haha:
Nein, gar nicht:d
Mich wundert nur warum sich kein einziger Kommentar von dir in den mittlerweile stattlichen Polaris Threads findet. Wo du doch offensichtlich grosses Interesse an Polaris hast;)
Vielleicht hast du sie bis jetzt auch einfach nicht gefunden, ich gebe dir gerne die Links:
http://www.hardwareluxx.de/communit...ng-der-geforce-gtx-980-ti-bieten-1117198.html
http://www.hardwareluxx.de/communit...ur-ende-mai-offiziell-vorstellen-1118617.html
 
Zuletzt bearbeitet:
Das man so wohl zugibt, das die Maxwell Generation kein AS hat (oder kein brauchbares) ist schade (und nicht die erste "Fehlkommunikation") aber soweit nicht so tragisch.
Auch AMD hat ihre Fehler (hier wäre insbesondere die immer noch Mangelhafte Tesselationleistung zu erwähnen - ein Feature Kernfeature von DX 11), welche dafür gesorgt haben, das man bestimmte Technologien nicht so sehr in Spielen einsetzt wie es sonst machbar gewesen wäre.

Sonst schön das wenigstens Pascal AS hat, da gab es ja auch schon Gerüchte die Gegenteiliges besagt hatten.
 
News schrieb:
Die Unterstützung von Asynchronous Shaders ist aber ein zentraler Bestandteil der Leistungsoptimierung unter DirectX 12 und bisher konnte NVIDIA hier keine Hardware-Unterstützung vorweisen.

Bisher konnten sie auch keine Software Lösung vorweisen, die steht auch noch aus.

News schrieb:
Dies ändert sich mit der GeForce GTX 1080 bzw. der Pascal-Architektur. NVIDIA selbst nennt in einem Newsbeitrag auf der Webseite: "New asynchronous compute advances improve efficiency and gaming performance." – Konkreter wird NVIDIA an dieser Stelle nicht. Doch es wird klar, dass NVIDIA sich der Leistungsoptimierung durch eine asynchrone Behandlung von Compute- und Shader-Berechnungen angenommen hat.

Auch hier immer noch fraglich, ob es eine Hardwarelösung oder doch nur die schon längst versprochene Softwarelösung für Maxwell ist. Ich geh eher von letzterem aus.

bisher konnte ich alle Spiele mit Maxwell spielen.
wo, außer beim Ashes Bench, haste denn was von async shadern? und welchen Spaß hast du am diesem Ashes benchmark? warum ist dieses eine DX12-feature das wichtigste? warum ist es nicht wichtig, dass AMD auch nicht alle DX12-Features hat?

Schau dich doch mal bei Nvidia im Software Ökosystem aka. Gameworks um und auch bei der Vorstellung der 1080 wurden wider zwei neue Compute-Effekte gezeigt. Das wird alles neben der eigentlichen Bildberechnung auf der Grafikkarte berechnet und jedes mal bleibt Leistung auf der Strecke, weil entweder Compute oder Grafik berechnet werden kann.
Mit Async Compute hättest du hier keine serielle Abarbeitung der Tasks sondern eben eine parallele und am ende mehr FPS, denn auch Nvidia schaft es nicht eine GPU immer zu 100% auszulasten.
 
Definitiv, da AMD wie schon so oft erwähnt nie neue Karten gebracht hat. Die 3XX sind spannungs- und taktmäßig am absoluten Limit.

Maxwell war eine neue Generation und dort waren 45-55 % OC auf einer Titan X oder Stock 980Ti normal, inklusive dem Leistungsscaling. Es bleibt zu hoffen dass sich das nun nicht ändert, dann wird man 1080(Ti) auf 1,8-2,4 GHz betreiben können, die Ti natürlich erfahrungsgemäß etwas weniger heftig.

45-55% gaaanz normal. 1500mhz auf einer 980ti sind nur 39,5% und auf einer 970 sind es lediglich 27%. Dazu war die Effizienz aber dann auch derbe im Keller und vor allem bei den dicken Chips hat das bei weitem nicht jede stabil geschafft. Auch die 780er und 780ti Modelle waren damals keine OC Wunder. Nur wenige machen so Taktraten wie deine von 1300mhz mit. Die meisten bleiben bei 1150mhz hängen oder sogar darunter. Nur so am Rande.
Die 3xx Generation erwähnst du aber die Fury lässt du mal eben unter den Tisch fallen wie so vieles andere.

Diese krankhafte selektive Wahrnehmung mancher hier nervt einfach nur noch. Immer wird ein Hersteller besser geredet als er ist und der andere schlechter. Seht das ganze doch mal etwas realistischer und vergleicht nicht andauernd irgend welche Ausnahmen.
 
Zuletzt bearbeitet:
...
Mit Async Compute hättest du hier keine serielle Abarbeitung der Tasks sondern eben eine parallele und am ende mehr FPS, denn auch Nvidia schaft es nicht eine GPU immer zu 100% auszulasten.

der theoretische Teil ist mir klar. ich wollte wissen wo du jetzt ganz in echt async shader nutzt. wenn Maxwell kein async kann, wie kommt dann Maxwell zu den Plätzen im async-bench? die wurden hier doch gerade seit gestern mehrmals verlinkt und Maxwell steht da ganz gut da, finde zumindest ich. die 980Ti find ich ziemlich weit oben.
 
45-55% gaaanz normal. 1500mhz auf einer 980ti sind nur 39,5% und auf einer 970 sind es lediglich 27%. Dazu war die Effizienz aber dann auch derbe im Keller und vor allem bei den dicken Chips hat das bei weitem nicht jede stabil geschafft. Auch die 780er und 780ti Modelle waren damals keine OC Wunder. Nur wenige machen so Taktraten wie deine von 1300mhz mit. Die meisten bleiben bei 1150mhz hängen oder sogar darunter. Nur so am Rande.
Die 3xx Generation erwähnst du aber die Fury lässt du mal eben unter den Tisch fallen wie so vieles andere.

Diese krankhafte selektive Wahrnehmung mancher hier nervt einfach nur noch. Immer wird ein Hersteller besser geredet als er ist und der andere schlechter. Seht das ganze doch mal etwas realistischer und vergleicht nicht andauernd irgend welche Ausnahmen.

Richtig, die Fury X läuft soweit ich weiß auf 1050 MHz und macht bereits nach 50 MHz schlapp. Und nein die 780(Ti) sind keine OC-Wunder, obwohl ich gehört habe dass es Leute gibt die welche auf 1400 MHz hatten, obwohl bei mir bereits 15 MHz mehr instabil werden.

Die 980 die ich mal hatte lief mit Werks-OC auf 1,55 GHz Boost, den sie auch permanent hielt bei 52°. Jedoch hatte ich auch geschrieben dass es bei den Titan/Ti-Karten am Heftigsten ist, meine Prozentzahlen gelten für die Referenzversion.
 
Maxwell kann DX12, die Asynchronous Shaders sind noch einmal ein anderer Punkt. Die Frage ist, ob man AoS mit ein- und ausgeschalteten Asynchronous Shaders wird testen können und dort einen Unterschied sieht.
 
Mit der habe ich auch gerechnet. Eine Referenz hat einen Boostclock von mindestens 1075mhz laut Nvidia Specs. Die meisten laufen zwar eh schon darüber aber wenn wir mit dem rechnen sind wir bei 39.5% angenommen sie schafft 1500mhz. Das haben aber wie ich schon sagte nicht wirklich viele dauerhaft stabil gemacht. Ich hab die Diskussionen hier verfolgt und hab noch gut im Kopf wie viele dann auf 1450 Mhz zurück gegangen sind und das teils auch schon mit Wakü weil die 1500mhz halt dann doch nicht 100% stabil waren.
Wie das aktuell mit den Furys aussieht und in wie weit dort die Spannungsversorgung freigeschaltet wurde weiß ich ehrlich gesagt nicht (da war zum Release war). Mal Abwarten was bei Pascal am Ende geht. Ich liebe OC und trauere meiner 7950 mit knapp 1300 Mhz noch hinterher (Scheiß Vram hat iwann die Taktraten nicht mehr gemocht).
 
Richtige Frechheit von big N mit dieser Referenzdingsbums. Hoffe die fliegen mal auf die Fresse, wird aber wohl leider nicht passieren.
 
Wahrscheinlich kommen von den ersten Partnern einfach "2GHZ" Editions, bei nem default Boost von 1,7Ghz.
 
Vielleicht magst du mir dann erklären wieso die 780ti nach Erscheinen der 980 zunächst gleichauf und manchmal vorne lag, dann aber bei div. Spielen plötzlich gänzlich abgeschlagen dasteht?

Wenn du vergleichst, dann doch bitte nicht Äpfel mit Birnen...
Die Spiele, wo die 780TI auf gleiche Leistung wie die 980er kommt, gibt es heute wie auch damals... In genau diesen Spielen hat sich der Verhältnis nicht verändert. Bench mit dem Releasetreibern der 980er diese Spiele und vergleiche gegen den aktuellen NV Treiber -> es ist wie damals im Rahmen der üblichen Treiberoptimierung ein Unterschied von im Schnitt vielleicht 0-10% zu sehen. Mal hoch, mal runter...

Warum diese Vergleiche zum Unsinn werden, ihr wollt anhand von Titeln, die weit nach der GK110 GPU released wurden irgendwelche Vergleiche anstellen.
Wer sagt, das Kepler, der vom Aufbau noch deutlich weniger FrontEnd hatte, überhaupt an der ALU Leistung krankt? Wer sagt, das dort nicht irgendwo am Verhältnis zwischen den verschiedenen Performancewerten der einzelnen Einheiten ein "Problem" entsteht, was damalige Titel aufgrund anderer Anforderungen gar nicht haben/hatten -> und, wie erwähnt, auch mit neuen Treibern nicht haben?
Nimm Takt * Einheiten und stelle fest, das ein nichtmal ganz 1,3GHz GM204 schon die ALU Rohleistung einer viel fetteren GK110 GPU mit ~900MHz (stino ohne Tweaks und Reglerschubsen) erreicht.

Wenn ich mir mal eine einzige Einheit rauspicke. Schau dir den Aufbau der Tesselatoren zwischen Maxwell und Kepler an. Ein GK110 im Vollausbau wie die 780TI ihn hat, nutzt fünf GPCs, welche drei SMs beherbergen. Jedem SM steht eine PolyMorph 2.0 Engine beiseite, welche die Tesselation Units mitbringt.
Bei Maxwell GM204 ist das analog... Allerdings ist der Aufbau viel breiter. GM204 kommt trotz weniger ALUs schon auf 16 SMs und damit 16 PolyMorph 3.0 Engines. Zusätzlich ist die Taktrate von GM204 üblicherweise deutlich höher.
Allein was die Tesselation Performance angeht, soll es dort bis zu Faktor 3 bei hohen Tesselation Leveln mehr Power geben... Der Wert selbst ist wenig relevant in der Praxis als einzelner. Allerdings wird Tesselation oftmals trotzdem genutzt. -> ein GM204 hat dort ggü. einem GK110 klar einen massiven Vorteil. Und es reicht schon, wenn von diesen up to 3x mehr Tesselation Leistung real 10-15% über bleiben. Schon entsteht eine "Lücke" zwischen den Modellen, die man hier offenbar sucht um mangelnde Optimierungen zu unterstellen.

Weiter gibt es in Kreisen der Cuda Entwickler die Aussagen, das Kepler "Probleme" hat(te) die ALU Performance auch auf die Straße zu bringen... Sprich der Anteil der nutzbaren ALU Power im Verhältnis zur Rohleistung war recht bescheiden. Das fällt dir unter Umständen in alten Titeln gar nicht auf, nämlich die Titel, wo GK110 heute immernoch gut dasteht. Bei höherer Anforderung und ohne Optimierungen seitens der Entwickler auf solche Eigenarten muss das aber keineswegs mehr belanglos bleiben... Maxwell egalisiert diesen Fakt weitestgehend. Und Anwendungen werden üblicherweise auf Hardware entwickelt, die eben zur Entwicklungszeit verfügbar ist/war. Siehst du auch schön an den VRAM Themen. Kein Entwickler der Welt überfordert mit seiner Software die am Markt verfügbare stino Hardware derart, das es nicht läuft. Bringt die Nachfolgegeneration aber mehr Hardware, wird man das früher oder später ausnutzen... Mehr Tesselationleistung in Hardware -> wird irgendwann genutzt. Mehr VRAM in Hardware -> wird irgendwann ausgenutzt, mehr ALU Rohleistung in Hardware -> wird irgendwann ausgenutzt usw.
Ändern sich dann die Leistungsverhältnisse zwischen verschiedenen Modellen bei einzlenen Teilaspekten drastisch, kann das klar ein Nachteil werden!



Das ganze hier kratzt nur an der Oberfläche, sollte denke ich klar sein... Aber man muss schon recht tief in die Materie einsteigen, um da überhaupt belastbare Werte rauszubekommen. Es gibt im Netz aktuell genau NULL!! Benchmarks und Auswertungen zu dem Thema, die nicht Äpfel mit Birnen gleich setzen um irgend ein windiges Fazit zu bilden. Irgendwas an den Tests passt immer nicht. Seien es die Treiber, seies es die Settings, seien es die Szenen oder weis der Teufel.

Kurzum, eine 780TI ist in den Titeln, die sie damals ggü. einer 980er gut dasteht, auch immernoch recht exakt im selben Verhältnis. Was neuere Titel angeht? Da stehen die Aktien anders... Bedrüfen aber auch einer detailierten Betrachtung anstatt irgendwelchen unsinnigen Annahmen. :wink: Die Leute machen sich halt aber nicht die Arbeit, das zu untersuchen (oder eher, sie machen es nicht gründlich genug) Denn es geht der Community gar nicht um das "Warum", sondern das Ziel ist klar irgendwen oder irgendwas am Ende abzustrafen. Siehst selbst an deinem "Fazit" -> NV ist scheiße, weil Kepler nicht optimiert wird. Im Grunde ist das einfach eine Annahme deinerseits ohne belastbare Zahlen und vor allem, ohne das du dich selbst damit ansatzweise auseinander gesetzt hast. ;)

Natürlich wurden die FPS nicht weniger. Die Frage ist eben, wieso die 980 überproportional (bei späteren Titeln, ohne vollen VRAM bei der 780ti) zugelegt hat.

Die Karte hat aber nicht zugelegt... Sondern die FPS sind wie sie sind und setzen sich aus vorhandenen Gegebenheiten zusammen. Es gibt auch weitestgehend wenig bis keinen direkt großen Einfluss durch die Treiber... Sprich ob du nen optimierten oder unoptimierten Treiber nutzt für eine Karte, ist fast egal. Die Performance ist wie sie ist.
Ein Verhältnis zu anderen Modellen, älteren Generationen oder anderen Herstellern kann man da einfach nicht pauschal bilden... Zumindest keins, was allgemeingültig sein wird.
Das siehst du auch schön an Titeln, die mal sehr gut, mal eher schlecht im Verhältnis auf AMD Hardware abschneiden.

AMD hat im übrigen ein Stück weit das gleiche Problem. Denn es gibt nicht nur bis dato drei Generationen GCN GPUs. Sondern es gibt auch eklatante Unterschiede im Verhältnis zwischen den Einheiten. Ein PitCairn mit 1280 ALUs und "doppel" FrontEnd kommt auf 10 CUs zu 64 ALUs. Ein Tahiti aus der gleichen Generation kommt auf 16 CUs zu 64 ALUs bei gleich breitem FrontEnd.
Und wie das bei Maxwell vs. Kepler auch so ist, mal performt Tahiti im Vergleich zur Rohleistung eher mau, mal performt Tahiti richtig gut.
Analog das selbe wie bei Tonga vs. Fiji. Fiji nutzt ein analoges FrontEnd zu Tonga bei doppelt so vielen CUs. -> was die Skalierung von Fiji zum Teil äußerst mau scheinen lässt.
Gib dem Ding aber richtig viel Stress auf den ALUs und es skaliert auch brauchbar ;)

Aber auf die wirkliche Technik und eine vernünftige Argumentation legt keiner Wert.

Das liegt wohl eher daran, dass den Leuten völlig egal ist, wie Leistung zustande kommt... Entweder sie ist da, dann ist gut. Oder eben nicht. Solange ASync keine nennenswerte Marktrelevanz hat, interessiert das effektiv auch Keinen abseits von Technikdebatten. Und wenn du mal ehrlich zu dir selbst bist, selbst das Paradebeispiel schlechthin, der Ashes Bench, zeigt einen relativen Unterschied zwischen ASync Compute ON/OFF von ~10-15%.
Interessiert das am Ende wirklich??

Schau dich doch mal bei Nvidia im Software Ökosystem aka. Gameworks um und auch bei der Vorstellung der 1080 wurden wider zwei neue Compute-Effekte gezeigt. Das wird alles neben der eigentlichen Bildberechnung auf der Grafikkarte berechnet und jedes mal bleibt Leistung auf der Strecke, weil entweder Compute oder Grafik berechnet werden kann.
Mit Async Compute hättest du hier keine serielle Abarbeitung der Tasks sondern eben eine parallele und am ende mehr FPS, denn auch Nvidia schaft es nicht eine GPU immer zu 100% auszulasten.

Das ist aber nur die Theorie... Am Ende ist es völlig hupe, ob die GPU xx Sachen sequenziell durchrackert und dafür Zeit y braucht, oder ob sie diese xx Sachen parallel durchführt und dafür Zeit y braucht.
Erst wenn bei letzterem die Zeit < y liegt, wäre ein "Vorteil" für den Endnutzer zu sehen. Bei AMD ist das defakto der Fall. Bei NV? Aus mangel an Maxwell/Kepler mit ASync Compute in Hardware Werten kann man das bestenfalls spekulieren... Wer will sich ernsthaft hinstellen und behaupten, die ALUs bei Maxwell würden davon profitieren? An welchem Indiz macht man das fest?
Und bevor es falsch verstanden wird -> das heist klar nicht, dass es nicht so sein kann! Nur wird eine Diskusion durch eine nicht nachweisbare Behauptung nicht besser. Weder in die eine, noch die andere Richtung!
 
Zuletzt bearbeitet:
Danke für den ausführlichen und sehr lehrreichen Beitrag fdsonne.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh