[News] NVidia GeForce GTX 980 Ti bestätigt

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich habe auch zuerst etwas skeptisch überlegt, bevor ich von FHD/120Hz auf UHD/60Hz am schreibtisch gewechselt bin. der schritt war aber abolut richtig und das panel ist sogar performanter als ich im vorfeld gedacht hatte. skalieren auf kleinere auflösungen funktioniert erstaunlich gut und da wo man es lauffähig bekommt, ist die hohe auflösung ein augenöffner, der durch nichts zu ersetzen ist.

die pixeldichte zusammen mit dem mehr an bildinformationen erzeugt mehr verblüffung als das gematsche mit DS oder DSR. auf letzteres greife ich nur noch zurück, wenn ich auf dem beamer spiele. am schreibtisch wirkt ein 4K DSR+gaussgematsche @native 1080p auf mich inzwischen wie ein SD-film auf ner HD-glotze. aber das ist die krux.. das bessere erkennt man nicht immer sofort, aber es fällt doch tierisch auf, wenn man dann auf das altgewohnte zurückgeht.

bis grafikkarten mit drastisch gesteigerter bandbreite (erst mit HBM-speicher) erscheinen werde ich mich allerdings noch in geduld üben und von titel zu titel kompromisse in der darstellung eingehen. ist ja nicht so, dass einem die augen aus dem kopf faulen, wenn man die texturen von sehr hoch auf hoch zurückdreht.

ich habe auch den eindruck, dass mit einzug der deferred renderer unter DX11 das ende von multisampling eingeläutet wurde. es ist zunehmend ineffizient in leistung und wirkung und da es eh nur auf polygonkanten wirkt und nichts gegen shader oder texturealiasing ausrichten kann, werden wir zunehmend auf andere methoden ausweichen müssen. etwa hohe dpi + postfilter AA; am besten noch mit einer temporalen komponente.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
4K ist eine Investition für die Zukunft, den Unterschied merkt man deutlich. Einerseits kann man angenehmer arbeiten aufgrund der Schärfe, andererseits wird jedes Spiel schärfer, selbst wenn es eigentlich gar keine Anti-Aliasing-Optionen bietet. Downsampling ist angenehm aber kein Vergleich zu einem echten 4K-Monitor.

An Grafikkarten ist derzeit eigentlich nur die Titan X für diese Auflösungen richtig geeignet, und vielleicht noch die 290 8 GB. Die anderen Karten schwächeln am VRAM und selbst wenn die Leistung für mehr da ist fehlt der VRAM.
 
die 290 verhungert vorher am frontend. ich hatte ne 290 unter titan stecken und habe auch beide karten per accelero3 und 4 aufgerotzt bis aufs äußerste. nichts was man derzeit kaufen kann, würde in populären tripleA-titeln für kompromisslose 4K darstellung ausreichend sein. aber zum glück sind wir schon alle groß und erwachsen genug, dass wir mit den ingame-optionen umgehen können, wenn es darum geht, in der zielauflösung brauchbare frames zu kreieren.

was die arbeiterei unter windows angeht stimme ich voll und ganz zu. dieses FHD, was wir seit jahren vorgesetzt bekommen, ist wirklich überholt und 1440p ist ein aus meiner sicht viel zu kleiner schritt.. wenn auch in die richtige richtung.

btw,
ich finde VRAM wird überbewertet. natürlich funktioniert ein 8K DSR auf nem nativen 4K-TFT mit einer titan besser als mit einer GTX970, aber beide karten liefern so wenige frames, dass es völlig hupe ist, ob eine karte 13 und die andere nur noch 5fps erreicht. aber das wäre eh eine realitätsferne und künstlich herbeigeführte situation.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
die 290 verhungert vorher am frontend. ich hatte ne 290 unter titan stecken und habe auch beide karten per accelero3 und 4 aufgerotzt bis aufs äußerste. nichts was man derzeit kaufen kann, würde in populären tripleA-titeln für kompromisslose 4K darstellung ausreichend sein. aber zum glück sind wir schon alle groß und erwachsen genug, dass wir mit den ingame-optionen umgehen können, wenn es darum geht, in der zielauflösung brauchbare frames zu kreieren.

was die arbeiterei unter windows angeht stimme ich voll und ganz zu. dieses FHD, was wir seit jahren vorgesetzt bekommen, ist wirklich überholt und 1440p ist ein aus meiner sicht viel zu kleiner schritt.. wenn auch in die richtige richtung.

btw,
ich finde VRAM wird überbewertet. natürlich funktioniert ein 8K DSR auf nem nativen 4K-TFT mit einer titan besser als mit einer GTX970, aber beide karten liefern so wenige frames, dass es völlig hupe ist, ob eine karte 13 und die andere nur noch 5fps erreicht. aber das wäre eh eine realitätsferne und künstlich herbeigeführte situation.


(..)

mfg
tobi

Das hatte ich vorher auch gedacht. Aber spätestens beim SLI (Was bei 4K sowieso nötig ist, und selbst dann manchmal noch nicht ausreicht) limitiert der VRAM, selbst wenn die GPUs dann noch Leistung haben. Es gibt Benchmarks mit der Titan X und 2x 980ern, die das sehr gut aufzeigen.

Mit einer 980 bekommst du sehr gute Ergebnisse hin auf 4K, man muss ein paar Optionen runterregeln aber es ist sehr flüssig. Leider belegen neuere Spiele dann 3,5-4 GB (Die 970 ist hier also schon aus dem Spiel) und kommende werden noch mehr brauchen. Zudem arbeitet die GPU am absoluten Limit, und schafft es mit 100% Last noch 40-50 FPS zu kreieren. Warum dann Highend kaufen wenn man in einem Jahr nur noch auf "Mittel" spielen kann?

Derzeit ist es am Besten zu warten, neben der Titan ist die 290X 8 GB die einzige brauchbare Karte die sich für MGPU lohnt.
 
ja, mgpu.. darauf muss man bock haben. wie schön das funktioniert wissen wir ja. ich sehe das nicht mehr als alternative und hab da einen haken hinter gemacht. daher baue ich das kaum noch in meine denkweisen ein. aber ja.. da kann einem der speicher ausgehen, wenn man die anforderungen entsprechend erhöht.
apropos erhöht..
es erhöht die anforderungen an case, psu, cooling.. dazu die eine oder andere inkompatiblität und das gefrickel mit bits..

joa, muss man bock drauf haben. und natürlich zeit. meinereiner hat inzwischen familie und zwei geschäfte (IT / tattoostudio). mein letztes SLI ging als titan kam.

höher als 1080p spielen, geht erstaunlich oft. klar, nicht kompromisslos, aber will man irgendwen beeindrucken oder die grad investierten 50€ (spiel) genießen?!


(..)

mfg
tobi
 
Zuletzt bearbeitet:
die kohle für eine zweite gpu lieber einmalig in einen gsync/fsync fähigen monitor stecken, hat man mehr von
 
Ach man kann alles schlecht reden.
Wenn Du SLI brauchst (nicht willst), dann bist Du auch glücklich damit.
Ich würde auch gerne mit einer Karte auskommen, geht aber nicht (auch mit TitanX nicht).
 
Ohne MGPU gibt es derzeit ausschließlich die Titan und die ist nicht gerade die beste Lösung. Auch die 390er wird das nicht ändern.

Für mich gehört ordentliche Grafik inzwischen dazu. Ich habe CoD4 angefangen auf 640x480 mit 30 FPS, danach ging es dann richtig mit Highend weiter 1024 auf 30-40 FPS. 2012 musste ich mir dann eine GT520 kaufen weil Mass Effect 2 einfach nicht lief auf dem PC, ich habe mich damals gefragt wer mehr Leistung braucht als das (Mein voller Ernst!). Soviel dazu...

Es muss nicht immer alles auf Ultra laufen aber bestimmt nicht wie oben beschrieben. Leider gewöhnt man sich auch schnell daran, was ich merkte als meine 980 kaputt war und nachdem ich sie verkaufte.
 
Ach man kann alles schlecht reden.
Wenn Du SLI brauchst (nicht willst), dann bist Du auch glücklich damit.
Ich würde auch gerne mit einer Karte auskommen, geht aber nicht (auch mit TitanX nicht).

lustig, denn eine 1500er x ist etwa so schnell wie dein sli, insofern ...
 
Wenn eine X 30-35% mehr Leistung als eine TitanBlack hat, wie soll sie dann die Leistung von 2Blacks (kommt auch aufs Spiel an, hier Skyrim z.B. 160% Scalierung) haben.
Sie müsste mindestens 60% schneller sein, das ist sie aber nicht.
Leider! Wenn dem so wäre, hätte ich schon längst EINE TitanX im System.

Beweis: NVIDIA GeForce GTX Titan X im Test

Achso: selbst mit den 2 Blacks@1.300+ gehen bei mir in einigen Spielbereichen die Frames auf 60 runter.
 
Zuletzt bearbeitet:
Wenn eine X 30-35% mehr Leistung als eine TitanBlack hat, wie soll sie dann die Leistung von 2Blacks (kommt auch aufs Spiel an, hier Skyrim z.B. 160% Scalierung) haben.
Sie müsste mindestens 60% schneller sein, das ist sie aber nicht.
Leider! Wenn dem so wäre, hätte ich schon längst EINE TitanX im System.

Beweis: NVIDIA GeForce GTX Titan X im Test

Achso: selbst mit den 2 Blacks@1.300+ gehen bei mir in einigen Spielbereichen die Frames auf 60 runter.

sehe ich inzwischen als stromverschwendung, aber ich bin ja auch nur noch gelegenheitsspieler. mein system mit 6GiB titan kam mit offenem bios und 1.3GHz takt auf 600+ Watt peak. meine kleine, aber gut aufgerotzte GTX970 schafft vergleichbare frames mit 400W. kompromisslos sind beide nicht. ähnlich verhält es sich mit titan vs. titan X oder GTX980. spätestens mit erscheinen der 980Ti sind die kepler titanen entwertet. man kann sie aber gut zu geld machen.. gestern und vllt. noch heute. für meine gab es letzte woche zusammen mit dem VG278H (3DVision TFT) 850€. davon habe ich mir einen UHD schirm geholt und ne übergangskarte (besagte GTX970, die ich für 250€ bekommen habe). es blieben sogar noch zwei grüne scheine übrig. von der performance in spielen bin ich überrascht, weil einerseits meine erwartungshaltung ggü. dem kleinen kärtchen durch die negative berichterstattung im netz im keller war. und andererseits weil ich titan für den heiligen gral hielt. zu unrecht, wie ich mir selbst beweisen konnte. dass GTAV beim nageln quer über die karte jetzt hier und da mal nachlädt, was bei titan nicht auffiel stört mich nicht wirklich. die frames passen, die hardware hat wieder garantie (der alte kram war durchgerockt über über 2 jahre alt) und die anzeige auf meinem leistungsmessgerät beruhigt mich (hab im märz 500€ strom nachlatzen dürfen; das möchte ich nächstes jahr nicht wieder müssen).

wenn die frames zu sehr einbrechen, sind entweder deine einstellungen falsch, deine erwartungshaltung an die hardware ist zu hoch oder das spiel ist kaputt. ich habe mir sagen lassen, dass der durchschnitt der PC-spieler mit weniger unterwegs ist.. und die spielen auch. es gibt auch engines (skyrim und oblivion gehören dazu) die eigentlich nur mit 60fps @60Hz anständig funktionieren, weil bei höheren frameraten die KI oder physik verrückspielt. da fliegen dann irgendwelche flügellosen tiere durchs bild oder sie laufen ohne die beine zu bewegen, was zwar lustig aussieht, aber die immersion stört.

btw,
genauso wie man aus der kepler-titan mit erweitertem PT 50% OC herausholen konnte, geht das auch mit aktuellen karten. so kommst du schnell zu einem delta von 80% mehrleistung. und 80% mehr frames sind es auch, was dir mit den alten karten AFR kreiert (nicht vom gefühl, aber von den messbaren frames), sofern es anständig greift und du auf DSR oder gsync verzichten magst.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
wäre interessant dazu einen separaten "test-thread" zu erstellen. ich habe die titan und die 290 ja leider nicht mehr (und damals hatte AMD noch kein VSR). hier ist die lobby breit genug, dass sich leute an tests mit aktuellen titeln beteiligen.

statt frontend wollte ich erst "nutzbare rohleistung" schreiben. der olle 6GiB-kepler ist auch meist verhungert bevor der speicher überlief. ich meine davon gelesen zu haben, dass GK110 die 2688 respektive 2880 cores bei der black nie komplett auslasten konnte.

die karten hängen auch irgendwie an ihrem L2 cache. AFAIR hat eine GTX680 0,5MiB, die HD7970 0,8MiB, die 290 1MiB, Titan hat 1,5MiB und eine GTX980 hat 2MiB. GTX970 reiht sich irgendwo zwischen Titan und 980 ein, was zu dem bild passt, das sie hier in performance abliefert.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Dass die Einheiten nicht linear nach oben skalieren, wissen wir seitdem AMD die 9 290 und die r9 290x gebracht hat.
Bei gleichem Takt trennen die Karten nur 5%m obwohl die Streamprozessoren etwa 10% mehr sind, hier könnte sich ein besseres Frontend bemerkbar machen.

Interessant wird noch die Directx12 Geschichte mit den Asynchronous Shadern, nur deswegen habe ich mir noch ne 290x warm gehalten.
 
Zuletzt bearbeitet:
diese "Leaks" sind für die Katz
 
achso..dachte schon.... aber das ati ding soll diesmal ein grösserer chip sein im gegensatz zu sonst....naja mal gucken...weil eigentlich wollte ich auch die 980 ti holn bin schon immer nvidia fan
 
Die Leaks sind alt und nicht unbedingt glaubwürdig... aber schon mit einfacher Hochrechnung der Shadereinheiten im vergleich zur R9 290X sollte die 390X nur noch ein Katzensprung entfernt von der Titan sein.. hinzu kommt dann eventuell ein Vorteil durch geringere Latenzen von HBM und sehr wahrscheinlich, generelle Verbesserungen der Architektur und die "WCE" wird dank Wasserkühlung wahrscheinlich auch einen ordentlichen Takt abliefern können.
Also man darf optimistisch sein (jedenfalls was eine Titan X @ Stoick angeht).
 
die Benchmarks waren schon vor 2-3 Monaten mal im Umlauf

die Fiji wird denke mehr als 4GB Ram haben
Die Ti aber sicher auch höher takten als 1167 Mhz
ich vermute, dass die 390x/TitanX/980Ti in den Benches +/- 5% bis 10% ausseinanderliegen. nur die Reihenfolge wird spannend :-)
 
Genau das @ Wanderer... ich denke eher positiv für AMD.
Weil, sieht man sich 780Ti und R9 290X an, liegen die Karten fast Kopf an Kopf, bei mehr Shadern für nVidia, diesmal hat AMD aber 33% mehr Shader als nVidia, wenn AMD eine ähnlich gute Arbeit wie nVidia liefern kann, mit der Optimierung der Shader, dann könnte es sein, dass AMD nach Jahren endlich mal wieder ein ordentlicher Wurf gelingt und dieser nVidia echt aus der Bahn wirft.
 
Nimm lieber die GTX980 oder TitanX zum Vergleich heran den die haben ja die Maxwell Chips.
Die 290X hat 44% mehr shader als die 980 und ist dabei deutlich langsamer.
Die Titan X hätte dann ca 25% weniger Shader als die 390X.
Die shader der 390X müssen dann schon ordentlich besser skalieren alls bis her.
Wo bei Momentan die X trotzt 50% mehr Shader bei gleichem Takt zur 980 nur um 35% an Leistung zu legt.

Aber vielleicht steckt bei mir der Jägermeister von Gestern noch im Mark und ich bringe da auch was durcheinander .
Vatertag ist was feines.:wink:
 
Zuletzt bearbeitet:
Ich denke an dem Vergleich müsstest du dann schon Kepler und Maxwell vergleichen....
Also GK110 vs GM200 und daraus dann den Vergleich Hawaii vs Fiji.

Wenn wir jetzt mal davon ausgehen, dass AMD ähnlich gute Leistung bringt wie nVidia bei der Optimierung der Shader dann würde die theoretische Rechnung ja wie folgt aussehen.

2880 vs 3072 Shader = 6,6% mehr Shader = ca 60% mehr Performance
2816 vs 4096 Shader = 45,5% mehr Shader = ca 60% mehr Performance

Würde bedeuten, nVidia hat hypothetisch die Effizient von 0,03 auf 0,05 Prozent pro Shader erhöht.
AMD hat bei dieser Rechnung eine Konstante von 0,04 Prozent pro Shader, ergo der GM200 wäre dennoch Effizienter pro Shader, jedoch durch die Anzahl der Fiji Shader kann Sie gleichziehen.

Als Grundlage dient hier der Test von Computerbase und folgende Statistik.
GeForce GTX Titan*X im Test: Nvidias 4K-Grafikkarte mit 12 GB Speicher (Seite 3) - ComputerBase

Ich habe diese deshalb genommen, weil CB dafür bekannt ist nVidia lastig zu testen und der Test in 4K war, was zum Leistung ausloten ideal sein sollte.
Hoffentlich hat jeder den Gedankengang verstanden :d

Wenn das auch nur ansatzweise so kommt, wie ich hier gerechnet habe, dann MÜSSTE Fiji wirklich ordentlich mehr Performance als Maxwell auf den Tisch legen können... *träum*
 
Zuletzt bearbeitet:
Die X ist extrem langsam getaktet, da verwundert es kaum dass sie so "wenig" Leistung bietet. Die meisten die so eine Karte besitzen werden sie aber übertakten.

Die 390 wird sich vermutlich zwischen Titan/Ti und 980 einordnen, anderenfalls wird Nvidia es kaum auf sich beruhen lassen nicht die stärkste GPU am Markt zu haben. Vermutlich sind es dann ~5%...
 
Bei den Coustom Tis erwarte ich Taktraten mit bis zu 1364MHZ im Boost anhand der TitanX sieht man sehr gut das das das kein Problem ist.

Auf einen Vollaugebaute Ti gesehen können die Hersteller noch mal bei den Coustom Karten an die 15-20% Mehrleistung auf die Stock TitanX oben draufpacken .
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh