[News] NVidia GeForce GTX 980 Ti bestätigt

Wieso klatscht du dir da gegen den Kopf?
Das einzige sinnvolle wäre (Ausgehend man ist min 60 FPS verwöhnt wie ich) max ein 2560er IPS , meinetwegen mit 120hz.

Ansonsten kriegst die Karte auch in FHD platt.
Dragon Age Inquisition -> alles hoch (nicht ultra) 2x MSAA -> 60 FPS. 4x MSAA -> fällst schon runter.
In UHD auf mittleren Details ohne AA schaffst auch keine 60 konstant.

BF4 / Hardline -> Hohe Details @ UHD ohne AA kriegst auch nicht auf konstante 60 FPS mit 1x 980.

Krüppel wie Unity erwähne ich erst gar nicht die selbst @ FHD kein AA möglich machen ohne unter 60 zu fallen.

Und abgesehen davon, ich zock doch nicht in UHD um dann die Settings runter zu schrauben... (Mit Runter schrauben mein ich nicht Ultra auf Hoch was man fast eh nie sieht , sondern ab mittel)

Also wäre der Mittelweg 2560er Auflösung, da wiederum fährst wieder besser mit 2x 290x im CF die nur etwas teurer sind als eine 980 ^^ wo man dann aber die bekannten Probleme hat. von CF mal ganz abgesehen.

Edit:

Wie das ganze sich mit GSync verhält , weiß ich nicht, da fehlt mir der eigene Praxis Test ob man da auf 60 FPS verzichten kann und mit 30 oder 40 das gleiche Erlebnis hat wie ohne GSync @ min 60 fps.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit Sicherheit wirds keine GTX980 für 300€ geben ... da wird bestenfalls eine 290x oder eben eine GTX970 ins Budget passen.

Der Unterschied dürfte vernachlässigbar sein ob Du jetzt kaufst oder danach.
 
Ach jetzt hör aber auf.
AMD hat auch leichen im Keller, wie NV auch.
Man kann es auch übertreiben.

Kopf in den Sand nützt leider nichts. Was für Leichen hat denn AMD im Keller. Behauptungen kann man ja viel. Nur müssen dann auch Beweise her. ;)

Und wie man mittlerweile wissen sollte bin ich ebenfalls geprellter 970 User gewesen der Sauer drüber war / ist und habe im leben mehr ATi/AMD Karten gehabt als NV Karten :)

Und verstehst meine Argumente nicht ? Nun da muss ich wohl noch mehr Aufklärungsarbeit leisten.
Kommentar: Nvidias schmutzige Kartentricks | heise online

Schade, bis vor kurzen war es hier noch schön Sachlich, jetzt beginnt es leider wieder - wie so häufig - abzudriften.

Hat das eher was mit den Usern zu tun, oder mit den Produkten der Hersteller. Wenn ein Hersteller ein Produkt liefern würde, das makellos ist, so hätte niemand etwas zu meckern. ;)
Hätte NVIDIA mit der GTX970 nicht Kundenverarsche betrieben, so würde ich Heute ein anderes Avatar nutzen. Fakt ist eben, das NVIDIA zur Zeit recht schwer zu vertrauen ist und das müssen sie sich erst einmal wieder verdienen, bevor man sich nochmals zu einer NVIDIA-Karte entscheidet. Aber im Verzeihen ist man ja immer großzügig und recht schnell vergesslich. Zumindest bei NVIDIA. Bei AMD/ATI werden die Treiberprobleme von 2007 noch als Referenz in jeder Argumentation herangezogen. Da sind wir offensichtlich nicht so schnell vergesslich...
 
Ich weiß zwar nicht wieso du beweise für dinge willst die schon 100 mal durch gekaut wurden, zu hauf zu finden sind wenn man nur mal google bemüht, oder sonstiges, ist mir aber auch wurst.
Und ich weiß auch nicht ,wieso du mich noch mal aufklären möchtest über das was NV da gemacht hat, wo ich einer der jenigen war der das im entsprechenden Thread gebetsmühlenartig vorgebetet habe , aufgezeigt habe, diskutiert habe , videos gemacht habe und schluss endlich eine 290x gekauft habe...

Das hat auch nichts mit Kopf in den Sand stecken zu tun.
Mir geht es langsam echt auf die nerven das man hier von immer den selben Leuten binnen kürzester Zeit von einer Schublade in die andere geschoben wird.

Da reicht ein Satz oder eine andere Ansicht um als NV Fanboy zu gelten.
Im nächsten Satz, ist dann man dann wieder nen AMD Fanboy.

Frag mich echt ob einige hier zu viel langeweile oder keine anderen Probleme haben.

Habe jedenfalls keine Lust mehr über so nen Stuss immer wieder aufs neue zu diskutieren mit immer den selben Ausgang -> Das im nächsten Thread der gleiche Scheiß von vorne los geht.

Sorry, aber langsam reicht es wirklich mal. Was hier im Luxx in der Grafikabteilung los ist, ist schlimmer als vor Jahren (Ja ich bin noch nicht so lange registriert, war es aber mal vor jahren ;) ) im CPU bereich.

Kindergarten de luxx.
 
Wie das ganze sich mit GSync verhält , weiß ich nicht, da fehlt mir der eigene Praxis Test ob man da auf 60 FPS verzichten kann und mit 30 oder 40 das gleiche Erlebnis hat wie ohne GSync @ min 60 fps.

Man kann es schwer beschreiben. G-Sync macht 45fps nicht zu 60fps, fixt aber vom Gefühl wieder andere Probleme. Ich fühle mich im 45-60 fps Bereich mit G-Sync jedenfalls wohl, als mit 60 fps und dem Input Lag oder Tearing Problem. Ein absolut subjektive Entscheidung.

Wieso klatscht du dir da gegen den Kopf?

Weil einige Leute unendlich viel Geld für Grakas ausgeben und dabei vergessen, dass die GPU nicht die Schnittstelle ist sondern nur die Leistung liefert. Es muss auch keiner auf 4K gehen, das ist mein Weg (ich kam ja auch von 1080p über 1440p). Es reicht, wie du schon sagst, ein guter 1440p Monitor, welcher einem viel mehr bringt, als ein tolles Benchmark-Ergebnis auf einem 1080p Gerät.

Ich habe nun auch diverse Geräte da bzw. da gehabt. Ich weiß wie toll 144 Hz (nutze ich für CS) sind und auch wie 1440p @ Ultra aussieht. Daher kann ich für mich den Schluss ziehen, dass 4K @ 45-60 fps mit hohen Details & G-Sync ein viel besseres Spielerlebnis bietet als 1440p und natürlich 1080p. Das muss nicht für jeden zutreffen, ich kann nur aus meinen Erfahrungen berichten.

Was ich auch aus Erfahrung sagen kann: 144 Hz mit 144 fps (bei 1440p musst du gleich mal mit CPU & GPU liefern) zu befeuern ist nicht weniger schwer, wenn nicht schwerer als 4K zu bedienen.

Hat das eher was mit den Usern zu tun

Mit Usern wie dir, die ihre Meinung gefühlt 1013780913x in allen Thread im Wutbürger-Stil präsentieren müssen, statt einmal einen qualifizierten & kritischen Beitrag mit Inhalt zu liefern.
 
Zuletzt bearbeitet:
30 FPS mit Gsync sind nicht mehr aushaltbar, 45er-Drops hingegen schon. Die merkt man nämlich dann gar nicht mehr... Das weiß ich übrigens weil ich es gestern und heute morgen "praktisch" erprobt habe. Das Gsync hilft sehr gut um das Erlebnis zu glätten.
 
30 FPS mit Gsync sind nicht mehr aushaltbar, 45er-Drops hingegen schon. Die merkt man nämlich dann gar nicht mehr... Das weiß ich übrigens weil ich es gestern und heute morgen "praktisch" erprobt habe. Das Gsync hilft sehr gut um das Erlebnis zu glätten.

Korrekt, G-Sync arbeitet bei 30 FPS auch nicht mehr sauber, sondern nur mit Tricks. Unter 37 fps darfst du nicht fallen, wobei ich auch das nicht optimal finde. 45 fps drops im sind okay für mich in Games wie GTA.
 
Aber wenn ich Leute mit einer 980 oder sogar 980 SLI sehe, welche ernsthaft auf 1080p spielen (und da ist es egal von wie viel sie downsamplen), dan klatsch ich mir gegen den Kopf.

Was spricht dagegen? Und warum solche Pauschalaussagen?
Kommt doch immer aufs Spiel an...
Mal ein Beispiel: Ich hab damals The Witcher 2 für nen schmalen Taler erstanden. Das war zu Zeiten, als ich noch eine 680er hatte -> mit Supersampling selbst in FHD nicht spielbar. (also hab ich es ausgesessen) Mit dem 680er SLI ging es besser, aber bei weitem nicht rund, mit ner Single 780TI und OC wurde es nochmals etwas besser, lief aber nicht sooo viel anders, als mit den beiden 680ern. Mit dem 780TI SLI und OC komme ich hingegen flächendeckend auf über 60 FPS. SuperSampling ist aktiv und die Optik ist hübsch anzusehen... Seit dem lässt es sich nun erstmal richtig spielen. Warum sollte ich darauf verzichten?

Das gleiche gilt auf für neuere Titel ala GTA V und Co. Du spielst einfach in höheren Settings als mit weniger GPU Power. Und spätestens wenn du an dem Punkt kommst, wo die Settings die SGPU überfordern, die es zu kaufen gibt, bleibt nur MGPU -> oder BQ Verlust. Warum sollte ich auf 2xMSAA setzen, wenn es auch 4xSGSSAA gibt? Warum sollte ich auf irgendwelche MLAA/FXAA und ähnliche Matsche Patsche setzen, wenn man via Downsampling die bessere Glättung hinbekommt? Dergleichen Beispiele gibts dabei noch mehr...

wie fdsonne trotzdem genau mit diesen leuten immer wieder diskutiert, will mir incht in den kopf

Neja, soll man den Stuss immer nur unkommentiert stehen lassen? Das machts nicht besser ;) Und ich bin durchaus ein hartes Hemd und lach mich eher schlapp bei einigen Aussagen, die mich in Lager stecken als es mir anzunehmen... Mittlerweile bin ich sowohl AMD als auch NV Fan, genau so wie Intel, Microsoft, Apple, Samsung usw. usf nach den Aussagen besagter Personen... Von daher.

Wenn ich mich Recht erinnere, hat tatsächlich fdsonne mal relativ überzeugend klargestellt, dass die schlechte Anbindung des Vram-Teils, offenbar doch Absicht und kein unvermeidbarer Nebenefekt des Cuts war.
Damit hat Unrockstar bezüglich "Ettikettenschwindel hoch 10." aber nur noch eher Recht.

Ich würde es rückblickend eher geduldetes Übel als wirkliches Problem nennen...
Einen Zusammenhang, der generell bei einem Cut der Chips diesen Umstand auslöst, haben wir aber grundsätzlich nicht, wie die Modelle der 980M belegen... Die nochmals kastrierte 970M hat, wenn ich das recht in Erinnerung habe, allerdings ebenso das Problem -> und dort sogar soweit, dass man das SI bewusst eingekürzt hat -> und dem Chip dennoch ein sechstel (der sonstigen acht) "Beinchen" fehlen.

Warum und Wieso Rückschlüsse auf den GM200 gezogen werden, kann ich irgendwie nicht nachvollziehen. Es spricht nicht wirklich viel dafür, dass NV den Umstand nochmals provoziert... Und wenn doch, dann darf man fast sicher davon ausgehen, dass man es genau so publiziert.
Meckern kann man dann, wenn es abermals anders läuft. Verkackt es NV aber nochmals, dann ist dehnen in der Tat nicht zu helfen :fresse: So extrem blöd kann aber selbst NV nicht sein, würde ich meinen.
 
Mittlerweile bin ich sowohl AMD als auch NV Fan, genau so wie Intel, Microsoft, Apple, Samsung usw. usf nach den Aussagen besagter Personen... Von daher.

Hey dann stehen wir ja auf das gleiche, auf HW :fresse: (Sarkasmus lässt grüßen)

Mal im ernst, ich schätze deine Geduld die du immer aufbringst.
Was ich noch mehr schätze ist dein Fachliches wissen.

Habe ich schon oft an manch einer Sichtweise bei mir gemerkt ,die ich dann kund getan habe.
Dann kommst du, postest und erklärst was , und beim lesen fällt mir dann sehr oft auf "oh da hat er recht, so hab ich das nicht gesehen". oder aber "das wusste ich noch gar nicht- wieder was gelernt" , je nach Kontext eben.

Daher einfach mal an dieser Stelle, ein Danke für deine Arbeit und Geduld hier. :bigok:
 
Zuletzt bearbeitet:
Grakaorakel oder was?
 
Seit dem lässt es sich nun erstmal richtig spielen. Warum sollte ich darauf verzichten?
[...]
Warum sollte ich auf irgendwelche MLAA/FXAA und ähnliche Matsche Patsche setzen, wenn man via Downsampling die bessere Glättung hinbekommt? Dergleichen Beispiele gibts dabei noch mehr...

Du kannst darauf verzichten, weil dir die höhere Auflösung einen viel größen Sprung in Sachen Bildqualität bietet, als SuperSampling. Zudem wird jegliche Art von SuperSampling absurd, je höher PPI ist. Ergo benötigst du es überhaupt nicht mehr.

Ich habe nie gesagt, dass man auf 1080p ein mGPU Setup aus z.B. zwei 980er nicht auslasten könne, das kann man logischerweise immer. Die Frage ist nur was man für die "bezahlte" Leistung bekommt. Wenn ich sehe, was ich aktuell mit einer 780 aus 4K rausholen kann, weiß ich in etwa, was dann zwei 980er können. Genau das ist der Punkt: Warum sollte ich Leistung XY für eine Bildqualität von 60% ausgeben, wenn ich 80% erhalten kann? Gerade wenn man nun alle Varianten durch hat und selbst auch lange Zeit mit Downsampling gearbeitet hat, ergibt das keinen Sinn für mich.

Auch der letzte zitierte Satz zeigt, dass wir irgendwie aneinander vorbei reden. Meine Anmerkung war: höhere Auflösung = massiver BQ Gewinn + weniger Glättung (wenn kein >30" TV verwendet wird) nötig = bester Einsatz der Leistung. Wenn man also Budget für ein großes mGPU Setup hat, soll man den Monitor nicht vergessen.
 
Zuletzt bearbeitet:
wieso soll ss absurd werden? verstehe ich grad nicht ganz. es glättet kanten und gerade titel wie GTA V haben das dringend nötig.

prizipiell gebe ich aber auch dir recht. denn man kann noch so hochauflösende texturen haben, erst mit mit einem großen display kann man die texturen genießen. auf einem 17" laptop display wirst du die texturen nie so genießen bzw wahrnehmen im detail, wie auf einem großen 27"er, unabhängig der auflösung. so viel bq auf so kleinen raum, so hohe ppi, lassen sich nur schwer wahrnehmen bzw voll auskosten. die details nimmt man auf einem großen UND höher aufgelösten bildschirm freilich eher wahr. du kannst noch so viele details aktivieren und monster texturen haben, du wirst sie zwar auch auf einem 24" HD bildschirm sehen aber auf einem 34" UHD screen, kommen die ganzen details und texturen einfach besser zur geltung. brutalste auflösungen helfen aber auch teilweise wenig, zb auf einem 15" laptop, wie ich bei meinem macbook pro 15" festellten konnte. dort ultraeinstellungen zu fahren, ist in der tat eher verschwendung, weil ich die details bei 1800p auf 15" schlichtweg nicht sehe, um mal ein extremes beispiel zu nennen. insofern hast du teilweise recht.

das problem ist einfach, dass bei mir zu bq mehr als nur die reine bq gehört. auch wie flüssig das bild ist, zähle ich zu bq und da sind wir aktuell mit 60hz bei 4k einfach zu weit von den schnelleren 144hz modellen entfernt, als das ich pers. schon umsteigen würde. aktuell ist WQHD bei 144hz einfach der beste kompromiss.
 
Zuletzt bearbeitet:
wieso soll ss absurd werden? verstehe ich grad nicht ganz. es glättet kanten und gerade titel wie GTA V haben das dringend nötig.

Weil es mit steigender pixel density immer unnötiger wird Kanten zu glätten. Natürlich sind die Kanten in der Theorie immer da und wenn du einen 4K Screenshot zoomst wirst du sie auch sehen, Pixel bleibt Pixel. Allerdings hat das mit der Praxis nichts zu tun. Durch höhere pixel density bei gleichen Sitzabstand siehst du die Kanten einfach weniger. Bei 1080p zu 1440p ist der Sprung minimal merkbar, von 1440p zu 4K ganz eindeutig. Für ein optimales Bild bei GTA V müsste man trotzdem noch ~2x MSAA zuschalten, da es doch teilweise sehr auffällt. Aber es geht ja um die Verbesserung, welche entsteht.

das problem ist einfach, dass bei mir zu bq mehr als nur die reine bq gehört. auch wie flüssig das bild ist, zähle ich zu bq und da sind wir aktuell mit 60hz bei 4k einfach zu weit von den schnelleren 144hz modellen entfernt, als das ich pers. schon umsteigen würde. aktuell ist WQHD bei 144hz einfach der beste kompromiss.

BQ und framerate sollte man schon trennen. Das eine ist Qualität, das andere Performance. Ich verstehe was du meinst, das ist aber eher das Ergebnis aus Beidem, was du in der Praxis siehst.

Stimme dir hier teilweise zu, für Shooter wie CS:GO, CoD usw. ist mir 144 Hz auch wichtiger, deutlich wichtiger. Aber das ändert sich von Spiel zu Spiel. In Games wie Witcher 3 ist die Gewichtung (für mich) der Auflösung (Qualität) deutlich höher als die framerate (Performance). Natürlich ist mir die Performance nicht komplett egal, aber eben in der Priorität bei diesem Titel geringer.

Grundsätzlich sage ich aber nichts dagegen, für mich ist 1440p@144Hz und 4K@60Hz gleichzeitig der Stand der (kaufbaren) Technik aktuell.
 
Zuletzt bearbeitet:
Du kannst darauf verzichten, weil dir die höhere Auflösung einen viel größen Sprung in Sachen Bildqualität bietet, als SuperSampling. Zudem wird jegliche Art von SuperSampling absurd, je höher PPI ist. Ergo benötigst du es überhaupt nicht mehr.
Durch was du die GPU Leistung verballerst, ist doch völlig nebensächlich. Ob das nun durch AA Mechanismen, DS oder aufgrund der nativen Monitorauflösung ist... Für UHD reicht mir eine GPU stand heute nicht aus. (TitanX mal außen vor). Kaufe ich also UHD und bekomme Leistungsprobleme, dann wirds doch erst richtig interessant. ;) Mit FHD habe ich stand heute zumindest noch ausreichend Spielraum das für mich Beste Ergebnis zu erzielen.
Zumal gerade Downsampling ja noch für andere Faktoren gut ist, anstatt nur dem Vorbeugen des Treppchen Effekts. Es steigert auch den Detailgrad -> fällt bspw. bei Rollenspielen ala Skyrim und Co. ziemlich stark auf. An UHD + Downsampling für noch weitere Detailsteigerung wäre ohne MGPU gar nicht zu denken -> oder man begnügt sich mit alter Spielekamelle :fresse:

Genau das ist der Punkt: Warum sollte ich Leistung XY für eine Bildqualität von 60% ausgeben, wenn ich 80% erhalten kann? Gerade wenn man nun alle Varianten durch hat und selbst auch lange Zeit mit Downsampling gearbeitet hat, ergibt das keinen Sinn für mich.

Auch der letzte zitierte Satz zeigt, dass wir irgendwie aneinander vorbei reden. Meine Anmerkung war: höhere Auflösung = massiver BQ Gewinn + weniger Glättung (wenn kein >30" TV verwendet wird) nötig = bester Einsatz der Leistung. Wenn man also Budget für ein großes mGPU Setup hat, soll man den Monitor nicht vergessen.

Das lese ich aber nicht aus deiner obigen Aussage herraus... Denn du vergisst bei dem Umstand einfach den kleinen aber feinen Punkt, das dich hohe native Auflösung vor ganz andere Anforderungen stellt. Dabei spreche ich nichtmal von UHD, sondern das geht schon bei 1440/1600p los. Die Anforderungen steigen einfach. -> du sagtest, die Leute sollen lieber in einen anständigen Monitor investieren, vor allem, wenn sie sich MGPU kaufen... Allerdings stellt sich doch viel eher die Frage, kaufen die Leute MGPU, weil sie mehr Power in der gegenwertigen Auflösung wollen oder kaufen sie MGPU, weil sie mehr "Features" in der gegenwertigen Auflösung wollen? -> dein Argument zieht rein auf letzteres ab, deckt aber ersteres in keinster Weise... -> und Messungen zur Folge kostet dich bspw. der Sprung von FHD auf UHD (völlig unabhängig der AA Settings) ca. 50-70%. Um die gleiche FPS Rate zu erzielen brauchst du also, wenn es schlecht läuft, 3x so viel GPU Power. MGPU mit zwei Karten bringt dir im Schnitt 80, lass es 90% sein. Woher kommt der Rest??

Ich stimme dir generell zu, dass das Ausgabegerät einen extremen Einfluss auf die BQ hat. Allerdings sind dort auch Vorlieben der User zu beachten, die gewisse Ansprüche stellen. Und vor allem, die den Preis extrem variabel halten. Pauschal zu sagen, Monitor vor GPU Power? Ne... Halte ich für unsinn.

Weil es mit steigender pixel density immer unnötiger wird Kanten zu glätten. Natürlich sind die Kanten in der Theorie immer da und wenn du einen 4K Screenshot zoomst wirst du sie auch sehen, Pixel bleibt Pixel. Allerdings hat das mit der Praxis nichts zu tun. Durch höhere pixel density bei gleichen Sitzabstand siehst du die Kanten einfach weniger. Bei 1080p zu 1440p ist der Sprung minimal merkbar, von 1440p zu 4K ganz eindeutig. Für ein optimales Bild bei GTA V müsste man trotzdem noch ~2x MSAA zuschalten, da es doch teilweise sehr auffällt. Aber es geht ja um die Verbesserung, welche entsteht.

Irgendwie relativierst du deine Aussagen von oben mit jedem Absatz immer weiter ;)
Zumal es eben auch von der Monitor Diagonale abhängt. Berichtige mich, wenn ich falsch liege, aber fiktive 46"@UHD Auflösung sehe bestenfalls unwesentlich anders aus, als 23"@FHD. Allerdings ist das Feeling bei 46" bedeutend besser. Ich für meinen Teil will mittlerweile nicht mehr an so nem Mäusekino sitzen... Was nutzen mir die vielen Details, wenn es so winzig ist, dass man es einfach permanent übersieht? Aus meiner Sicht ist das ne Ansichtssache bzw. eine Gewichtungsfrage, was einem da eher wichtig ist... Und bis dato gehe ich zugunsten der Fläche/dem Feeling den Kompromis ein, auf Pixeldichte verzichten zu müssen...
 
Zuletzt bearbeitet:
Es steigert auch den Detailgrad -> fällt bspw. bei Rollenspielen ala Skyrim und Co. ziemlich stark auf.

[...]

du sagtest, die Leute sollen lieber in einen anständigen Monitor investieren, vor allem, wenn sie sich MGPU kaufen... Allerdings stellt sich doch viel eher die Frage, kaufen die Leute MGPU, weil sie mehr Power in der gegenwertigen Auflösung wollen oder kaufen sie MGPU, weil sie mehr "Features" in der gegenwertigen Auflösung wollen?
Ich stimme dir generell zu, dass das Ausgabegerät einen extremen Einfluss auf die BQ hat. Allerdings sind dort auch Vorlieben der User zu beachten, die gewisse Ansprüche stellen. Und vor allem, die den Preis extrem variabel halten. Pauschal zu sagen, Monitor vor GPU Power? Ne... Halte ich für unsinn.

1. Diesen Detailgrad bekommst du bei höherer Auflösung out of the box.

2. Das zielt speziell auf die Aussage "Ehrlich gesagt weiß ich nichtmal wofür ich eigentlich aufrüsten will." ab. Ich wollte damit verdeutlichen, dass viele User upgraden würden aber nicht wissen warum. Ich habe dann drauf hingewiesen, dass hier erstmal Investition in einer höherer Auflösung staffinden sollte.

Den Unterschied sehe ich auch einfach darin: Hat jeder hier schon alles mal zwei Wochen gesehen/getestet oder redet er nur in der Theorie? Das soll in keinster dumm oder arrogant kommen, aber ich habe zu 4K@60Hz, 1440p@144 Hz, 1440p@60 Hz, 1080p@144 Hz persönliche praktische Erfahrung. Ich lese nämlich oft (nicht von dir, allgemein), es wäre "kein großer Unterschied" (in Bezug auf die BQ) und irgendwelche Theorien, wie viele GPUs man benötige, um "gut" zu spielen. Beides deckt sich mit Praxis überhaupt nicht. Der Unterschied der Bildqualität, gerade in Sachen Detailgrad ist enorm und mit einer Titan X oder 980 Ti ist es soweit gut zu bewältigen.
 
Zuletzt bearbeitet:
1. Diesen Detailgrad bekommst du bei höherer Auflösung out of the box.
Richtig, es geht dann aber "noch" mehr... Wenn es die Leute heute mit FHD und Co. machen, warum sollten sie es in Zukunft mit UHD nicht ebenso machen?
Aber ich denke, die Aussage relativiert sich relativ schnell an dem Punkt, wo UHD massentauglich auch von normal bezahlbarer GPU Hardware abgedeckelt wird. Kann vielleicht noch ein paar Monate dauern, aber wir sind auf dem richtigen Weg... ;)

Den Unterschied sehe ich auch einfach darin: Hat jeder hier schon alles mal zwei Wochen gesehen/getestet oder redet er nur in der Theorie? Das soll in keinster dumm oder arrogant kommen, aber ich habe zu 4K@60Hz, 1440p@144 Hz, 1440p@60 Hz, 1080p@144 Hz persönliche praktische Erfahrung.

Ich kenne zumindest den Unterschied zwischen FHD und UHD bei nativer Darstellung... Letzteres zwar nur @24/30Hz, weil es am TV nur mit HDMI 2.0 geht und das meine GPUs nicht liefern. Allerdings reicht mir die Angabe der FPS schon aus um zu erkennen, dass es für mich noch nicht tauglich ist. -> ergo sitze ich es aus, bis es zufriedenstellend läuft. 2x Fiji XT oder 2x GM200 GPUs könnten das ggf. sogar packen -> und das HDMI 2.0 Problem ist damit auch vom Tisch :fresse: Win:Win würde ich sagen... Und das Feeling ist nochmals besser als bei 36 oder 40" in FHD heute :fresse: Bis dahin muss man halt den Kompromis eingehen. Sehe darin generell erstmal kein "Problem"...
 
Zuletzt bearbeitet:
Kleiner als 27 Zoll am Desktop möchte ich auch nicht.
Für mich die Optimale größe. 24 zu klein, über 27 auf der Schreibtisch Distanz zu groß und guckst im kreis.

Idial würde ich da noch den LG empfinden ->
LG 34UM65-P 86,4 cm LED-Monitor schwarz: Amazon.de: Computer & Zubehör
Der dank 21:9 auch gerne 34 Zoll messen darf. Und trotz 21:9 nicht so mega schmal ist wie sonst 21:9 typisch.

Mit dem liebäugle ich schon etwas länger, durfte ihn aber noch nicht real testen.
Und 21:9 schreckt mich auch noch etwas ab da manche Spiele ja mit Probleme habe sollen... zum Arbeiten ist das Teil allerdings perfekt.

Oder dessen Ultra HD Bruder.

------

Im Grunde kann man doch schon gut sehen wo Performance mässig die 980 TI laden wird?

Wenn ich mir so manch sehr gute 980iger angucke die fast an die 1600 schaffen somit - fast - an die Titan X ran kommen
 
Im Grunde kann man doch schon gut sehen wo Performance mässig die 980 TI laden wird?
Wenn ich mir so manch sehr gute 980iger angucke die fast an die 1600 schaffen somit - fast - an die Titan X ran kommen

Die Leistung bei Standardtakt ist bei Maxwell doch ziemlich nebensächlich - man kann selbst mit Luftkühlung noch ordentlich and er Taktschraube drehen.
D.h. bevor wir nicht wissen ob die 980-Ti ein Cut ist, oder nicht, kann man kaum die Leistung einschätzen.
 
Downsampling erreicht nicht die Qualität wie ein nativer 4K oder Ultra HD Monitor.
In vielen Spielen sieht das Bild selbst ohne AA wie downgesampelt aus.
Ich spiele Call of Duty Black Ops auf 4K nur mit MLAA, die Glättung ist alleine durch die 4K Auflösung genial.

In Nuketown flimmert beim Onlinezocken nichts.
 
Sehe ich genauso. AA ist eigentlich nicht großartig von Nöten in 4k. Hab Crysis 3 in 4k gezockt ohne den ganzen glattziehungskram

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
hab auch die Erfahrung gemacht das FXAA reicht. bei genügsameren Titeln - wenn man es sich FPS technisch leisten kann - SMAA
alles drüber verballert nur "unnötig" Leistung
 
Oh oh, das sehe ich - und viele andere - aber entschieden anders.
In 4k ja. Da verzichte ich auch gerne auf AA.

Aber in Full HD sehe ich doch noch ein beträchtlichen unterschied - je nach Titel (!) - zwischen SMAA und SSAA etc.
 
Oh oh, das sehe ich - und viele andere - aber entschieden anders.
In 4k ja. Da verzichte ich auch gerne auf AA.

Aber in Full HD sehe ich doch noch ein beträchtlichen unterschied - je nach Titel (!) - zwischen SMAA und SSAA etc.

klar - unter FullHD ist AA Pflicht
meine Aussage bezieht sich auf 4K (siehe meine Sig :cool:)
 
Wir reden hier über Monitore und nicht über TV-Geräte. Das ist durchaus ein Unterschied. ;)
Bei 4k als Monitor mit 28-32 Zoll ist AA nur sehr selten nötig. Das beste Bildergebnis erzielt man "ohne" die ganzen Filter. Was soll denn AA ursprünglich sein ? Es soll dir ein Bild mit deutlich höherer Auflösung "vorgaukeln" als es eigentlich ist. Dazu werden Bildinhalte verändert "geglättet". Dadurch verliert das Bild allerdings an Schärfe und wird verfälscht.
Bei 4K ist die Auflösung nun schon so hoch, das du keine höhere mehr benötigst. Spätestens ab 5K ist es dann völlig überflüssig AA zu verwenden. Selbst AF ist nicht mehr nötig, da es in die Tiefe auch deutlich mehr Auflösung gibt !

Man muss einfach sehen, was das Auge überhaupt noch wahrnehmen kann. Natürlich sind die Treppenstufen noch da und wenn ich meine Nase an den Bildschirm drücke erkennen ich sie auch bei 4K. Aber so spielt doch keiner oder ?
 
Oh oh, das sehe ich - und viele andere - aber entschieden anders.
In 4k ja. Da verzichte ich auch gerne auf AA.

Aber in Full HD sehe ich doch noch ein beträchtlichen unterschied - je nach Titel (!) - zwischen SMAA und SSAA etc.

Das kommt im Endeffekt doch drauf an, wie sich das Spiel präsentiert.
Es gibt Titel, dort skaliert der Sichtbereich 1:1 mit der Auflösung bei gleichem Seitenverhältnis -> das bedeutet im Endeffekt, man sieht 4x so viel Inhalt auf dem Schirm. Pro Objekt werden damit allerdings aber nicht mehr Pixel aufgezeigt. Um so größer die Diagonale des Monitors, desto stärker werden die Treppchen sichtbar sein.
Andere Titel skalieren gar nicht im Sichtbereich -> dort verhält sich dann natives 4k/UHD genau so wie 2x2 DS. Nur das es dazu noch die Bildpunkte auch wirklich darstellt anstatt diese im Anschluss wieder runterzurechnen. Diese Titel werden entsprechend nicht mehr wirklich von AA profitieren und selbst bei steigender Diagonale am Monitor stehen am Ende immernoch 4x so viele Bildpunkte für das gleiche sichtbare Objekt bereit -> was Treppchenbildung von Haus aus vorbeugt.
Und noch was anderes sind Titel, wo es eine Mischung aus beiden vorherigen Sachen ist. Dort werden einerseits Objekte skaliert (und entsprechend kleiner, dafür aber in der Anzahl mehr -> Sichtbereich steigt) und andererseits eben einfach größer und somit durch mehr Pixel abgedeckt.

-> kommt am Ende also immernoch drauf an, was man spielt ;)
Nach dem ganzen Unkenrufen der Communitys geht der Trend allerdings eher zu Version 2 respektive 3. -> sprich das Sichtfeld wird nicht primär größer. Meist bei Shootern und Co. anzutreffen. Strategiespiele hingegen gehen oftmals den anderen Weg.
 
Hat jemand neue Fakten?

Release wird sich ja regelrecht gestritten, der eine sagt Ende des Jahres der andere Mitte bis Ende Mai.

Ob sie vor oder nach Release als highend Platinen voN AMD reagieren?

Habe leider keine Glaskugel, aber mein ungeduld ist da ;)
 
Hat jemand neue Fakten?

Release wird sich ja regelrecht gestritten, der eine sagt Ende des Jahres der andere Mitte bis Ende Mai.

Ob sie vor oder nach Release als highend Platinen voN AMD reagieren?

Habe leider keine Glaskugel, aber mein ungeduld ist da ;)

Würde es offizielle neue Fakten gäbe, würdest Du hier auf HWL sicher davon lesen....aber die Hoffnung, das irgendjemand hier vielleicht eine Glaskugel besitzt, stirbt zuletzt hmm...? Fakten würden ja bedeuten, das es sichere Informationen wären und die kann Dir zum momentanen Zeitpunkt einfach keiner geben.

eQualize87
 
Zuletzt bearbeitet:
ich tippe auf den 2-6 Juni (Computex) als Vorstellungstermin
Release VOR der 390X da diese wahrscheinlich schneller sein wird. nVidia möchte sicher zum Zeitpunkt des Releases auf Platz 1 sein
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh