[Sammelthread] Grafikkarten - Technikdiskussion

Die Arbeiten am grafischen Schnickschnack sind noch lange nicht fertig. Die fangen jetzt an mit Wolken/Nebeleffekten, Wasser, neuen Lichtrendering-Methoden, neue Reflexionen - bisher haben sie nur das Skelett und ein paar Dummy-Effekte benutzt, die noch weit vor "fertig" sind. Da kommt noch einiges. Und das ist nur die Grafische Schiene.
Gute Erklärung dafür das noch einiges an Performance von nöten sein wird.

Die bisherigen Alphas sah es echt mau aus.
Kann ich nicht bestätigen. Es fehlen halt noch einige Effekte, aber das was sie haben, ist top notch. Keine verwaschenen Texturen, keine Nebel-in-grau Filter um Dinge zu verbergen, die weiter weg sind, keine Widerholungen, die Meshes gehen in die Millionen, die Texturen sind eh über alle Dinge erhaben. Es ist eigentlich ein wunder, dass ich nicht mit 5 FPS durch die Gegend ruckle.
Ich meinte nicht die Optik sondern die Leistung. Glaube damals fehlte allerdings noch die SLI Unterstützung. Unsere Karten stammen aus der gleichen Generation/Zeitraum. Wenn ich das aber noch richtig im Kopf habe sollte eine meiner GTX680 nen ticken schneller sein als deine 7970.

Ich denke, da hast du evtl. was falsches aufgeschnappt. Chris sagte "Content-Phase" - also, dass die jetzt mit den Kerntechnologien so weit sind, dass sie ihre Art-Designer vollständig von der Leine lassen können. Außer beim Netzwerk-Code erwarte ich keine Optimierungen - und beim Netzwerk-Code wirds auch nur gemacht, weil der einen Blocker darstellt. Sobald du Multiplayer-Modus anschaltest, sind deine FPS auf max. 30 gelocked, weil die Refresh-rate vom Server abhängig ist, während sind deine CPU und GPU langweilen. Der Blocker muss weg, um besser testen zu können.
Du sagst selbst das viele Effekte noch fehlen. Und diese müssen am ende eben auch noch Optimiert werden.
https://www.youtube.com/watch?v=A2nQKp03DXA
Gegen Ende wird auf eine Userfrage geantwortet nach den Hardwareanforderungen. Demnach soll schon viel aus der Engine an Performance raus geholt worden sein.

4K bin ich mir nicht so sicher, LOD: Jupp. Auch einige Lichteffekte werden umschaltbar sein, zwischen "normal" und der "Raytracing Methode". Du kannst damit, wenn du alles ausreizt gefühlt jedes System an die Wand fahren.
4K klar. Das komplette Spiel kommt wohl frühstens in 2 Jahren raus. Denke ehr 3. Bis dahin wird sich 4K noch viel weiter verbreitet haben. Gerade unter den Entusiasten am PC. Wie du schon sagtest. Soetwas will man nicht auf einem Mittelklasse PC zocken. Der Monitor/Fernsehr gehört für mich dazu. Und wenn es dann noch 3D Ready ist bzw VR wird es erst richtig lustig. Und zumindest VR soll ja kommen soweit ich weis.

Als ich die Smartphone-Demo von Vulkan gesehen hab, ist mir klar geworden, dass du eigentlich mit der CPU nur die GPU befeuerst. Die braucht halt nur eine Minimal-Performance, alles darüber wird dann auf der GPU gemacht. Natürlich ist SC nicht nur Vulkan, sondern auch gefühlt 20.000 Scripte, die ebenfalls alle parallel ausgeführt werden wollen. Aber generell spielt die CPU eine wesentlich geringere Rolle als heutzutage mit DX11, wo ab einem bestimmten Draw-Call Durchsatz einfach Schluss ist.
Demo ist das Stichwort. Zeig mir eine Engine die in den Spielen genauso krass aussah wie in der Demo selber. Wenn das passierte das meist kurz vor dem Ende der Version, bevor die nächste stufe der Engine auf den Markt geworfen wird.

Auf der anderen Seite: Wenn du dir die Sysconfig der Tester anguckst, hat fast jeder ne andere Graka-Triber Version, obwohl es nur 2 geben sollte. (Neueste AMND und neueste NVidia) - evtl. 4, wenn man beta-Versionen mit einschließt. Aber die Anzahl an Leuten, die mit 3+ Jahre alten Treibern durch die Gegend juckeln ist erschreckend.
3 Jahre und mehr ist wirklich etwas alt. Aber immer den aktuellsten Treiber zu haben finde ich auch nicht richtig. Wie oft gab es schon schwerwiegende Bugs in aktuellen Treibern. Bei beiden Herstellern gab es sogar schon Treiber die ihre karten gegrillt haben. Ein Grund warum ich den Nvidia Treiberthread zumindest verfolge. :) Hab auch jetzt erst auf Win10 umgestellt kurz vor dem Ablaufen. Den Treiber den ich dann hatte bescherte mir tonnen an Treiberabstürzen. Treiber nur eine Version weiter Aktualisiert und Problem ist vorbei. Und das war nicht das erste mal.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So langsam kommen wir auf die gleiche Schiene. Hab mal kurz die Benches nachgeschlagen, und die 7970 liegt so zwischen der NVidia 760 und 770 und ist im Vergleich zur 680 ein mü langsamer. Kommt also hin, ja.

Generell rennt mir der VRAM aus und da ich hohe LODs haben will, sollte der schon "größer" sein. Die Engine wird noch weiter optimiert, gleichzeitig kommen aber auch noch zusätzliche Effekte rein - am Ende werden wir von der Performance her eher ein paar Flaschenhälse gelöst sehen, als wirklich noch einen großen Optimierungssprung im Sinne von "was frisst das Spiel für diesen/jenen Effekt" sehen - ergo werden wir in Zukunft eher noch mehr an Rohleistung entgegenstellen müssen als weniger. Wenn was optimiert wird, dann eher die CPU-Belastung, die GPU-Belastung geht eher noch hoch - vor allem mit der kommenden Prozeduralen Technologie und den noch kommenden Effekten.

Wie weit Vulkan da jetzt noch reinbrechen kann, kann ich kaum sagen - aber wenn ich mir Doom so angucke, sind bei guter Programmierung noch 70% Mehrleistung drin. Hier drehen wir uns also im Kreis. Tatsache ist, dass Vulkan versucht die gesamte GPU-Pipeline an die Grenze zu fahren - kein Shader unbelastet, kein Element am Warten, kein Speicherchip im Urlaub. Das ist bei DX11 ja noch der Fall, wo teilweise >30% der GPU im idle rumkröten, weil wo anders noch auf einen Flaschenhals gewartet wird - gezeigt werden aber 100% Auslastung in Sachen wie Afterburner. NVidia hat da mal ne schöne Statistik rausgebracht und gezeigt, wie sehr Vulkan da hilft. Leider haben die Async-Compute (und das passende Vulkan Derivat) nicht wirklich in Hardware gegossen - von daher fällt die 1000'er Generation hier für mich flach - das ist ein MUSS-Feature.

Zum Gamestar-Video: Heilige Kuh, der reded da glaub ich grad über mich - hab mich mit ihm mehr als ne halbe Stunde unterhalten. xD Okay, ja - ich meinte das rein technisch, dass die halt Technologie benutzen, an die sich noch nie jemand rangewagt hat, u.a. dass am Ende der Trefferberechnung das tatsächliche Mesh einbezogen wird. Im Sinne von "Wie kann man das gleiche Feature günstiger/effizienter" implementieren hat CIG denke ich noch recht wenig gemacht, bis auf eine gute und saubere Erstimplementation.

4K ist natürlich medial sehr interessant, aber wenn du nicht gerade am Projektor oder 70" hängst, wirst du mit nem Gaming-Monitor halt wieder alles "größer" machen müssen, damit du überhaupt noch was erkennst (DPI ist abartig hoch bei 4k und sagen wir 27" - Schrift in Standardgröße erkennst du nicht mehr bei ~75 cm Abstand zur Glotze - und das ist schon dicht dran bei der Diagonale)
Entweder hast du dann einen deutlich über 30" großen Monitor oder du bekommst Probleme beim "nativen" Spiel.

Deswegen wäre ich mit 4K vorsichtig, vor allem, da es kaum Standards gibt, die 4K auf "Gaming-Performance" aka 120/144 Hz, HDR, <5ms Reaktionszeit und bei der Displaygröße dann bitte auch Blkickwinkelstabilität (also IPS und Konsorten) darstellen. Ich halte das für einen Bereich, der eher für Film relevant ist, aber fürs zocken reicht wohl auch ne 2000'er Auflösung. (Erst recht im Hinblick, dass es schön an der Performance nuckelt)

SQ42 kommt innerhalb von einem Jahr raus - auch wenn Herr Roberts 2016 gesagt hat, denke ich, dass H1 2017 realistischer ist, Q1 wäre zwar schön, wird aber auch schon knapp. Also ähnlich wie der große Vega Release. Und wenns rauskommt, brauch ich ne neue GPU. Sowohl zeitlich, als auch von P/L, als auch von den Features als auch vom Leistungssprung passt das alles ziemlich gut zusammen.
 
Generell rennt mir der VRAM aus und da ich hohe LODs haben will, sollte der schon "größer" sein.
Performance Technisch sehe ich den VRam bei unseren beiden Karten generell als den einzigen Nachteil. Gefühlt finde ich ist in meinen beiden Karten viel mehr Leistung drin, nur die 2GB bremmsen stark aus. Rechenleistungsmäßig sind meine GTX680 zusammengerechnet auf dem Nivau einer GTX980TI. SLI macht zwar bissel was kaputt, aber bei optimierten Spielen bedeutet das immer noch einiges. Wenn man sich die Systemanforderungen von aktuellen Titeln anschaut sind unsere Karten am unteren Rand. Im SLI/CF sieht das schon anders aus bei SLI Optimierungen.

Die Engine wird noch weiter optimiert, gleichzeitig kommen aber auch noch zusätzliche Effekte rein - am Ende werden wir von der Performance her eher ein paar Flaschenhälse gelöst sehen, als wirklich noch einen großen Optimierungssprung im Sinne von "was frisst das Spiel für diesen/jenen Effekt" sehen - ergo werden wir in Zukunft eher noch mehr an Rohleistung entgegenstellen müssen als weniger. Wenn was optimiert wird, dann eher die CPU-Belastung, die GPU-Belastung geht eher noch hoch - vor allem mit der kommenden Prozeduralen Technologie und den noch kommenden Effekten.
Naja, wie wir beide ja wissen bremsen bei unseren Karten der VRAM durch die Größe. Das wird auch bei der 780 und 980 später mal der Fall sein. Wenn der Entwickler es also schafft den VRAM verbrauch ein zu dämmen wird das schon sehr viel Helfen für ältere Karten. Einerseits muss weniger bis gar nicht mehr nachgeladen werden, dazu kommt das weniger traffic zwischen GPU und Vram existiert und am ende hat die GPU selber noch weniger Material zu berechnen. Merkt man ja ganz gut wenn man nur allein die Texturdetails in den Spielen runter regelt. Bei beinahe jedem Spiel explodieren dann die FPS sofern die CPU nicht limitiert beim Füttern.
Unterm Punkt, können so schon kleine Optimierungen einen großen Rattenschwanz hinter sich herziehen und älterer Hardware für aktuelle Titel freischalten.

Leider haben die Async-Compute (und das passende Vulkan Derivat) nicht wirklich in Hardware gegossen - von daher fällt die 1000'er Generation hier für mich flach - das ist ein MUSS-Feature.
Bedeutet für dich, das bis zum Release von SC wohl nur AMD in frage kommt. Den Nvidia wird noch einige Pascal Versionen raus bringen die sich ja nicht mehr wirklich in den Details entscheiden sondern mehr nur noch in der Größe. Die Unterschiede von Pascal für den Server sind ja nicht wirklich Techniken die beim Zockenden Endkunden zum Tragen kommen.

4K ist natürlich medial sehr interessant, aber wenn du nicht gerade am Projektor oder 70" hängst, wirst du mit nem Gaming-Monitor halt wieder alles "größer" machen müssen, damit du überhaupt noch was erkennst (DPI ist abartig hoch bei 4k und sagen wir 27" - Schrift in Standardgröße erkennst du nicht mehr bei ~75 cm Abstand zur Glotze - und das ist schon dicht dran bei der Diagonale)
Entweder hast du dann einen deutlich über 30" großen Monitor oder du bekommst Probleme beim "nativen" Spiel.
Der Trend geht auch ganz klar weiter in Richtung größere Monitore. Früher waren es 10", dann 13" und 14". Mit dem Aufkommen von TFT ging es von 17" bis 21". Mittlerweile ist 24" Standard und immer mehr 27" kommen in die Wohnungen. Vereinzelt auch 30". Gleichzeitig wird immer mehr im Wohnzimmer auf der Glotze gezockt. Inhome Streaming machts möglich. Vor allem bei den Interessierteren Käufern die sich mit der Technik auskennen. Das wird in Zukunft sicher nicht aufhören. Wahrscheinlich erst wenn die Wände nicht mehr groß genug sind. :bigok:
Die Auflösungen von VR steigen ja genauso. Die Erste Generation ist noch nicht wirklich am Markt, da hat die Rift schon ein Update bekommen was die Auflösung betrifft.
Und zu guter letzt. Immer mehr Multimonitor leute. Hab selber 3x 24" 16:10 :p
 
Viele gute Punkte. SC benutzt anstatt 4k oder 8k Texturen viele kleine 512x512 Texturen, die überlagert werden. Dieser ineinander-verschachtelte Modus hat den Vorteil, dass du sowohl sehr viel Performance sparst (VRAM - deswegen läuft SC überhaupt bei unseren Grakas) und auch mit den gleichen Texturen je nach Anordnung eine neue Gesamttextur erzeugen kannst. Diese Methode ist extrem effizient und auch noch qualitativ hochwertiger. Ich sehe jedenfalls keine Pixel, wenn ich 2 cm nahe ans Schiff rangehe, außer bei Decals.

Aber selbst dann geht mir der Speicher aus (hab 3 GB) und ich nehme mal an, dass das mit den späteren, zusätzlichen Effekten nicht besser wird. Zum Thema AMD vs. NVidia bin ich eher agnostisch, aber du hast bereits richtig festgestellt, dass durch meine Bedingungen eigentlich nur AMD übrig bleibt. Treibermäßig hat sich NVidia in letzter Zeit auch nicht mit Lorbeeren beträufelt und der Linux-Support wird bei AMD so langsam auch konkurrenzfähig (hier aber eher dank der Open Source Community) Summa sumarum gibt es bei NVidia leider kaum Gegenargumente, die auf der "pro" Seite stehen (außer man will genau *jetzt* kaufen)

Zu den Monitoren: Jupp, hast recht, hab die ultrawide-curved-newkid-of-the-block vergessen. VR ist auch so ne Sache, die bei SC aber noch etwas rumgebastelt werden muss. Spielst es ja im Sitzen und nicht im Raum mit virtueller Bewegung und dann musst du "blind" Joystick, Maus und Tasta benutzen. Da ist noch einiges fraglich bzw. an Arbeit notwendig. Replays hingegen würde ich mir durchauis unter VR angucken.
 
Zuletzt bearbeitet:
Hallo. Dachte ich frag mal hier im allgmeinden Thread.
BEi mir läuft noch eine Gainward 680 mit 4GB. Seit neuesten setzt sich der Grakatreiber nach einer Runde Zocken (in dem Falle wows) nach Beenden des Spiels einfach zurück. Ingame läuft aber alles tadellos, keine Bildfehler oder ähnliches. Spiel beenden, und schwups, ist die Graka sozusagen deaktiviert.
Erst nach Shutdown und rebbot läuft alles wieder normal.Verwendet wird immer der aktuellste Treiber.
Gibt ja im Moment Treiberprobs bez 1080er reihe, aber ev hat wer von euch eine Idee?

gruezi
 
untertakte die grafikkarte mal um 100mhz im Kerntakt und teste ob es wieder abschmiert.
 
erste benchmarks der 1050ti
First GeForce GTX 1050 Ti Benchmarks Leak Online

boostet angeblich@default nur auf 1400mhz. wenn das ding wie die anderen pascal karten um die 2000mhz packt könnte die karte für übertakter echt interessant werden.
 
Hat die titan x kein hdmi audio mehr?
Wird nicht mehr extra aufgefuehrt.

MfG

Schoenes Wochende Allerseits.
 
Ich würde gerne mal wissen, wer von euch eine externe Grafikartenlösung im Einsatz hat und mit welchem System und Zusatzkomponenten ihr dieses System fahrt?
Ich hab einen Externen Grafikkarten Adapter mit USB 3.0 Anschluss im Auge aber die Übertragungsrate für USB 3.0 ist viel zu Mau im vergleich zu PCIx.
Ich hab an meinem Notebook einen mSata Anschluss und müsste die Wlan karte ausbauen,was aber kein Problem wäre.Das Gerät was ich im Auge hab, hat zusätzlich auch einen msata Anschluss.6,0 Gbit/s Vs 500M/s sind ja Welten die dazwischen liegen.
Ich möchte aber keine Grundsatzdiskusion führen,nur lediglich wissen wer sowas zu Hause fährt und welche technischen Spezifikationen sein System hat.

Ich hab noch eine 750ti geschenkt bekommen und mein Notebook hat nur ne 840m verbaut.Aus Neugier würde ich durchaus bereit sein da so ein Adapter zu kaufen, diese gibt es weit unter 100 Euronen in der Bucht.
 
So meine GTX 980 hat es auch zerlegt. Stand hier nicht irgendwo mal , das EVGA keine mehr auf Lager hat und auf die 1070/1080 tauscht?
 
Ist euch aufgefallen dass seit 900er Reihe die Texturen mehr Flimmern? Ich hab auf HQ im Treiber eingestellt aber das macht es nicht besser. Windows und Treiber wurden schon mal neu aufgesetzt

Gesendet von meinem SM-G925F mit Tapatalk
 
Ist von Anfang an bekannt gewesen das diet GTX 900er serie Probs damit hatte. Mal mehr mal weniger.
Musste dich mit abfinden. Hab sogar den Wechsel von GTX 770 auf RX470 stark an der Bild Quali bemerkt.
 
@Nighteye
hast du irgendwelche Belege zu der Aussage?
Der von dir angesprochene Umstand wurde mit dem 344.80 Hotfix Treiber beseitig. Seit dem ist auch nix dergleichen mehr bekannt... Wenn du da was sehen solltest im Vergleich NV zu AMD -> dann hast du arg was auf den Augen. Zumal Kepler davon gar nicht betroffen war -> sondern die GM2xx GPUs.

Bitte keine Unwahrheiten verbreiten. Oder eben, wenn da was dran sein sollte, mit Belegen untermauern... :wink:

PS: nur zur Vollständigkeit, es gibt/gab mit Tonga (285) einen AF Bug... ;) Kein Plan, ob das mittlerweile behoben ist. Betrifft dort aber nur DX9 wenn ich mich nicht vertue...
 
Zuletzt bearbeitet:
@sTOrM41
wenn du dir die Kommentare durchließt, dann stellst du schnell fest, dass auch nakte Zahlen den Leuten ihren "Glauben" an Böse NV nicht nimmt :fresse:
Zumindest nicht die üblichen Verdächtigen
 
@Nighteye
hast du irgendwelche Belege zu der Aussage?

Ne ist nur meine Subjektive Meinung.
Aber diesen eindruck hatten schon einige hier im Forum, daher habe ich es für erwähnenswert gehalten.
Also um es nochmal im detail zu beschreiben. Ich habe monatelang eine GTX770 verwendet, und dann die RX470 eingebaut und direkt ein viel besseres Bild bemerkt. Also auch im Windows schon.

@ Storm.
Hier gibts n neuen Test der das exakt klar macht.

https://www.computerbase.de/2017-01/geforce-treiber-test/

Fazit:
Ein neuer Treiber lohnt sich immer

Die Benchmarks zeigen primär eine Sache: Während es bei AMD traditionell mit der Zeit größere – aber keine riesigen – Performance-Sprünge durch neue Treiber gibt, hat Nvidia die eigene Hardware bereits beim Start gut im Griff und auf maximale Leistung optimiert. Das zeigt sich auch bei der aktuellen Generation. Während AMD die Radeon RX 480 seit dem Erscheinen um etwa fünf Prozent beschleunigt hat, kann die GeForce GTX 1080 nur um ein Prozent zulegen – und hatte dazu noch einige Wochen mehr Zeit.

--------
Im Test wurden auch GTX780 ti und GTX980 getestet.
Als test gabs einen 1,5 Jahre alten Treiber und den neusten.
Die Karten wurden nicht langsamer in diesen 1,5 Jahren.
Somit ist die behauptung, Nv verlangsamt ihre Karten, ein Vorurteil. :)

Dennoch darf man sie nicht mit AMD,s Extremer Treiber Optimierung über die zeit vergleichen.
Bei Nvidia kann man quasi mit dem Rechnen was man beim Kauf in den Benchs sieht.

Bei AMD kann man eig fast schon fest davon ausgehen das mit der Zeit mehr Leistung da sein wird.
Ist zumindest seit 2011 immer wieder zu sehen. Oft waren Karten teilweise über 15% schneller nach 3 Jahren.
 
Zuletzt bearbeitet:
Ne ist nur meine Subjektive Meinung.
Aber diesen eindruck hatten schon einige hier im Forum, daher habe ich es für erwähnenswert gehalten.
Also um es nochmal im detail zu beschreiben. Ich habe monatelang eine GTX770 verwendet, und dann die RX470 eingebaut und direkt ein viel besseres Bild bemerkt. Also auch im Windows schon.
Dann ist es Einbildung :wink:
Es gibt/gab nach der angesprochenen Maxwell Problematik zum Thema AF Filterung unabhängige Messungen -> da ist kein Unterschied.
Wenn du da was anderes siehst, dann liegt das entweder A) an falschen Einstellungen -> bspw. Farbsettings usw. usf könnten Unterschiedlich sein, gefällt dir vllt bei AMD besser als bei NV oder ähnliches oder B) es ist Einbildung...

Im Test wurden auch GTX780 ti und GTX980 getestet.
Als test gabs einen 1,5 Jahre alten Treiber und den neusten.
Die Karten wurden nicht langsamer in diesen 1,5 Jahren.
Somit ist die behauptung, Nv verlangsamt ihre Karten, ein Vorurteil. :)

Dennoch darf man sie nicht mit AMD,s Extremer Treiber Optimierung über die zeit vergleichen.
Bei Nvidia kann man quasi mit dem Rechnen was man beim Kauf in den Benchs sieht.

Bei AMD kann man eig fast schon fest davon ausgehen das mit der Zeit mehr Leistung da sein wird.
Ist zumindest seit 2011 immer wieder zu sehen. Oft waren Karten teilweise über 15% schneller nach 3 Jahren.

Kann es sein, dass du die Aussagen etwas übergenau nimmst?
-> was ICH persönlich an dem Artikel vermisse -> er geht nicht im geringsten auf den Umstand ein, dass bspw. Spiele unterschiedlichen Alters einfach unterschiedliche Anforderungen haben.
Komischerweise macht man nach bester pro AMD Manier daraus einfach nur -> AMD leistet saubere Treiber-Optimierungsarbeit. Real bleibt davon aber soooo extrem viel gar nicht über.
Denn schau dir mal Benches alter Titel mit neuestem Treiber an. Der Zuwachs bei der Performance ist gering und im Schnitt auch nicht höher als bei NV über die selbe Nutzungszeit.
DAS was AMD Hardware hier und heute schmeckt, die Titel haben höhere/andere Anforderungen an die Hardware -> und damit legt Hardware, die diese Anforderungen auch nach Jahren Nutzung noch abdeckt, natürlich entsprechend auch ein gutes Ergebnis an. Die "Karten" werden damit aber schlicht und ergreifend NICHT schneller. (genau so wenig wie NV Karten langsamer werden) Die waren schon immer so schnell wie sie sind. Der Treiber ändert daran wenig... Im Schnitt im unteren zweistelligen Prozentbereich in etwa. NV wie AMD...

Man muss nur mal weiter ins Detail gehen... Die Geometrieleistung bspw. beim Kepler ist schlecht. Weit schlechter als auf GCN der gleichen Zeit. Wundert es also wirklich, dass da GCN GPUs mehr leisten können als Kepler? Mich nicht... Das zieht sich durch so einige Details durch. NV sprach von der ALU Effizienz, die bis zu 35% besser auf Maxwell sein soll. Die Geometrieleistung usw. wie angesprochen teils deutlich gestiegen -> und war bei GCN eben damals schon höher. All das sind Umstände, die im Detail über geänderte/angepasste Anforderungen der Software Kepler ins Abseits schieben und GCN based GPUs hervorheben. -> ob das ewig so bleiben wird? Wir werden es sehen... Im Moment ist Polaris in Sachen Hardwarerohleistung über der 1060. Duelliert sich aber mit dem Teil in den Games... Es ist also nicht auszudenken, dass der Umstand ebenso irgendwann umgekehrt wird -> und wundern brauch man sich darüber auch nicht.

Der Umstand bei AMD ist einfach nur der, Software von vor Jahren war nicht in der Lage, GCN GPUs bei AMD ähnlich auszufahren wie es Software heute schafft. Ob man das nun AMDs grandioser Treiber-Optimierungsarbeit zuschreiben kann/will? Das darf jeder für sich selbst entscheiden :wink:
 
Also könnte man sagen in älteren Spielen wäre der ältere Treiber genauso schnell wie der neue Treiber und es im Endeffekt auf die Anforderungen durch die Aktuelle Engine kommt und daraus die Mehrleistung resultiert.
Gibt es einen Aktuellen Bug bei NV die bewirkt das Hohe Qualität nicht übernommen wird im Treiber? Bei CSGO ist es am deutlichsten, bei cache die Ziegelwand Texturen Flimmern an den Textur Rändern oder liegt es an MFAA?

Gesendet von meinem SM-G925F mit Tapatalk
 
Ja, so in etwa könnte man das sagen... Natürlich gibt es aber trotzdem Fortschritt. Der ist aber eben gering(er), als so mancher hier gern propagiert.
Warum das (vor allem bei AMD) gern falsch wargenommen wird liegt einfach daran, dass man über sehr lange Zeit (seit Anfang 2012) GCN nutzt, teils Hardware einfach nur als Rebrand unter neuem Namen verkauft usw. -> die GPU selbst also entsprechend "alt" ist und sich somit über die Nutzungszeit und angepasste Spiele/Software ggü. direkten Konkurenten eine positive Kurve ergibt... Das schmälert natürlich keineswegs die Leistungsfähigkeiten der Hardware, die sind halt wie sie sind... Aber es beugt unnützem Schönreden vor ;)

Was die Filterqualität angeht, ich glaube du unterliegst da einem "Irrtum". HQ -> also das AF, was du im Treiber aktivieren/erzwingen kannst bzw. was du über den Treiber Forcieren kannst muss nicht zwangsweise an Texturkanten für wenig/kein Flimmern sorgen.
Schau dir dazu mal das hier an:

Dort siehst du, was es "macht".
Texturkantenflimmern hört sich für mich stark nach AA Settings an. Meist sollten auch Texturkanten entweder direkt an Objektkanten anzutreffen sein oder wenn mitten auf Flächen, dann keine wirkliche Flimmerneigung haben. CSGO ist nun auch nicht mehr der neueste Titel. Sprich die Objekte sind dort eher "klobig" -> klingt also eher nach AA Settings, die nicht passen.

-> kannst du davon mal ein Video hochladen?


PS: wenn mich gerade nicht alles täuscht, MFAA geht A) nur mit NV GPUs ab Maxwell und B) nur, wenn der Titel es supportet?
-> In CSGO dürfte es also gar nicht gehen...
Versuchst du dich also an MFAA und es geht einfach nicht, klingt das für mich so, als greife gar keine Kantenglättung. Sinnvoller wäre hier für CSGO eher MSAA, ggf. auch gleich echtes SGSSAA, wenn mehr GPU Power vorhanden, dann auch Downsampling in Verbindung mit SGSSAA. SGSSAA hat grundsätzlich den Vorteil, dass es ähnlich AF auch für bessere Filterung sorgt. Sprich diese "Bugwelle", welche man oben auf dem Screen sieht, die ist mit SGSSAA noch weiter nach hinten verschoben bis hin zu gar nicht mehr sichtbar -> was diesen Modus auch so klasse macht. Leider ist er heute eher selten bis gar nicht mehr nutzbar (in aktuellen Titeln), weil er sich oftmals mit Post Processingeffekten beißt. Für alte Schinken an Games ist das aber immernoch erste Wahl.
 
Ich hab eine 980m, Spiele mit 4xAA im Game und Laut Internet ist MFAA überall möglich sofern man es im Treiber aktiviert da es ein eigener Zusatz Algorithmus ist von NV.
AF ist im Game auf 16. Und ich meine nicht Texturen auf dem Boden und auch meine ich den Effekt nicht von der Seite.
Man sieht es wenn man frontal drauf zu läuft das sich die Kanten/Linien innerhalb der Textur Flimmern, die Textur ist eine Klinkerwand. Evtl ist das ein AA Fehler, Transparent AA hab ich im Treiber auch Aktiv, Multi oder Super.
Mal sehen ob ich das aufgezeichnet bekomme.

Gesendet von meinem SM-G925F mit Tapatalk
 
Nein, Digifrag, MFAA, wenn du wirklich das meinst, was hinter dem Namen steckt, MUSS vom Spiel unterstützt werden... Es gibt bei NV eine Liste (irgendwo auf geforce.com) mit supporteten Titeln. CSGO ist da aber nicht drunter... ;)

Möglicherweise meinst du aber FXAA? Also ein Post Processing AA?
"Echtes" AA in Hardware ist effektiv nicht überall möglich. Egal welchen Modus man nun wählt... Wenn das "Internet" also erzählt, MFAA wäre überall möglich, dann ist das defakto falsch :wink: Schon allein deswegen, weil es im Grunde auf MSAA basiert und eine tempolare Komponente hinzufügt. Dazu basiert es auf Daten vom Vor-Frame, was sogar noch eine mindest FPS Anzahl (von 40, wenn mich nicht alles täuscht) vorraussetzt.

Wie gesagt, nimm am besten einen anderen Modus. Mit einer 980m dürftest du definitiv für CSGO genug Power haben um andere, weit bessere AA Modi fahren zu können...
 
Hast du nicht richtig gelesen?

-> was ICH persönlich an dem Artikel vermisse -> er geht nicht im geringsten auf den Umstand ein, dass bspw. Spiele unterschiedlichen Alters einfach unterschiedliche Anforderungen haben.

Es wurden jeweils 2-3 verschiedene Treiber mit jeweils einem einzigen Spiel getestet, warum sollten also die Unterschiede in den Anforderungen der verschiedenen Spiele eine Rolle spielen? Das ergibt doch keinen Sinn...

Komischerweise macht man nach bester pro AMD Manier daraus einfach nur -> AMD leistet saubere Treiber-Optimierungsarbeit. Real bleibt davon aber soooo extrem viel gar nicht über.

Genau das macht man in dem Artikel nicht - man betont im Gegenteil, wie gut NVIDIA seine Treiber schon bei Release optimiert hat.
 
Nein, Digifrag, MFAA, wenn du wirklich das meinst, was hinter dem Namen steckt, MUSS vom Spiel unterstützt werden... Es gibt bei NV eine Liste (irgendwo auf geforce.com) mit supporteten Titeln. CSGO ist da aber nicht drunter... ;)

Möglicherweise meinst du aber FXAA? Also ein Post Processing AA?
"Echtes" AA in Hardware ist effektiv nicht überall möglich. Egal welchen Modus man nun wählt... Wenn das "Internet" also erzählt, MFAA wäre überall möglich, dann ist das defakto falsch :wink: Schon allein deswegen, weil es im Grunde auf MSAA basiert und eine tempolare Komponente hinzufügt. Dazu basiert es auf Daten vom Vor-Frame, was sogar noch eine mindest FPS Anzahl (von 40, wenn mich nicht alles täuscht) vorraussetzt.

Wie gesagt, nimm am besten einen anderen Modus. Mit einer 980m dürftest du definitiv für CSGO genug Power haben um andere, weit bessere AA Modi fahren zu können...
Dann guck ich Mal weiter was es sein könnte, es ist halt das typische Flimmern wie wenn man Qualität auf Höhste Performance stellt.

Gesendet von meinem SM-G925F mit Tapatalk
 
Es wurden jeweils 2-3 verschiedene Treiber mit jeweils einem einzigen Spiel getestet, warum sollten also die Unterschiede in den Anforderungen der verschiedenen Spiele eine Rolle spielen? Das ergibt doch keinen Sinn...
Reden wir über den gleichen "Test"?
-> das sind die Titel, die bei CB hinter dem Rating stecken:

- Anno 2205: GeForce GTX 780 Ti
- Ashes of the Singularity: GeForce GTX 780 Ti – DX11
- Assassin's Creed Syndicate: GeForce GTX 780 Ti
- COD: Black Ops III: GeForce GTX 780 Ti
- Dirt Rally: GeForce GTX 780 Ti
- Doom: GeForce GTX 780 Ti – OpenGL
- F1 2015: GeForce GTX 780 Ti
- Fallout 4: GeForce GTX 780 Ti
- Far Cry Primal: GeForce GTX 780 Ti
- GTA V: GeForce GTX 780 Ti
- Hitman: GeForce GTX 780 Ti – DX11
- Just Cause 3: GeForce GTX 780 Ti
- M&M Heroes VII: GeForce GTX 780 Ti
- Mirror's Edge Catalyst: GeForce GTX 780 Ti
- Rainbow Six Siege: GeForce GTX 780 Ti
- Rise of the Tomb Raider: GeForce GTX 780 Ti – DX11
- The Division: GeForce GTX 780 Ti
- The Talos Principle: GeForce GTX 780 Ti
- The Vanishing of Ethan Carter Redux: GeForce GTX 780 Ti
- The Witcher 3: GeForce GTX 780 Ti
- XCOM 2: GeForce GTX 780 Ti


Und natürlich ergibt die meinige Aussage Sinn. Denn das Problem ist einfach, wenn du Titel testest, die (teils) weit nach der Lebzeit der Hardware released wurden und deren Anforderungen zum Teil die Hardware überfordern, bspw. beim VRAM, ALU Power, Filterleistung usw. usf., dann ergibt sich ein ganz anderes Potential in Sachen Treiberoptimierung. Schaut man sich aber die Titel an, die vor der 780er released wurden und entsprechend auch den Zenit der Optimierungen idR überschritten haben, gibt es effektiv wenig bis keinen Leistungszuwachs durch jene "Optimierungen"
Interessant wir das ganze dann, wenn man mal in die Details geht. Wieso ist eine 980 in F1 2015 grob 50% schneller als die 780TI während es in Heroes 7 quasi andersrum ist?
-> das Kernargument der Kritik bei NV ist doch, dass NV die alte Hardware nicht mehr optimiert. Wenn da derartige Ungereimtheiten zwischen den Titeln existent sind, dann ist das nunmal in Sachen Aussagekraft ein massives Problem. Ich hätte mir an der Stelle gewünscht, dass man im Test darauf näher wäre eingegangen. Sprich das man untersucht hätte, warum das so sein kann. Denn der unbedarfte User sieht nicht den Treibertest, sondern er sieht das Review der Hardware oder der Spiele und stellt fest, dass eine 780TI bspw. teils meilenweit hinter einer 980er hinterher hinkt -> jüngstes Beispiel ist wohl RE7 während das damals, zu Release der 980er nicht so war. Darauf fußt doch überhaupt erst die Frage nach der mangelnden Treiberoptimierung.

Genau das macht man in dem Artikel nicht - man betont im Gegenteil, wie gut NVIDIA seine Treiber schon bei Release optimiert hat.
Darum gings doch gar nicht... :wink:
 
wie schaut das bei aktuellen karten eigentlich beim anschluss von 3 displaydevices aus?

können die dabei den idle takt halten?

bei meiner 970 ist es so das sie bei 2 bildschirmen anstandslos den idle takt hält.
schließe ich allerdings noch meinen beamer mit an, dann wars das mit niedrigem 2d verbrauch.

aktuell handhabe ich es so das ich den beamer in der nvidia systemsteuerung immer komplett deaktiviere wenn ich ihn nicht brauche, das ist allerdings dezent nervig und oft vergesse ich das deaktivieren nach dem filmabend dann auch..
 
Bei Nvidia gibt es da aktuell via Treiber immer mal wieder Probleme, aber generell schaffen das AMD und Nvidia.
Allerdings machen das auch schon meine beiden alten GTX680 (GPU - 324MHz; VRAM - 162MHz) und auch meine vorherige HD5870 konnte das. Ist komischer weise von User zu User unterschiedlich.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh