Nachfolger für GeForce GTX 970, 980 und 980 Ti kommen im Juni

Ich glaube die Tabelle bezieht sich auf die Leistungsklasse und nicht die tatsächliche Benennung.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eher wohl verschiedene Speicherkapazitäten und verbaute Speichertypen.
Gehe dem Gefühl nicht aus dem Weg als ob NV bewusst Infos im Umlauf bringen lässt um die Leute an der Langen Leine zu halten und nicht zur Konkurrenz zu wechseln.
Denn bis GTX 1080 oder wie auch immer Spruchreif und einigermaßen gut verfügbar sein könnte, dürfte wohl Juli bis August werden.

Polaris bedient wohl andere Gebiete, dürfte aber der GTX 1070, Fury ohne X doch recht nahe kommen.

Warum bei der Stange halten? Derzeit gibt es auch von AMD nichts neues und der Horizont geht weiter als Juni nachdem was man bisher gehört hat :).

Wenn man nun von 3 Chips mit 04er Basis ausgeht was sollte das dann werden? 1070 1080 mit ddr5 und ne 1080 mit ddr5x? Das wäre irgendwie auch unlogisch. Entweder 60 70 80 oder 70 80 80ti. Ich verstehe eh immer nicht diesen nach und nach Launch ...
 
Eher wohl verschiedene Speicherkapazitäten und verbaute Speichertypen.
Gehe dem Gefühl nicht aus dem Weg als ob NV bewusst Infos im Umlauf bringen lässt um die Leute an der Langen Leine zu halten und nicht zur Konkurrenz zu wechseln.
Denn bis GTX 1080 oder wie auch immer Spruchreif und einigermaßen gut verfügbar sein könnte, dürfte wohl Juli bis August werden.

Polaris bedient wohl andere Gebiete, dürfte aber der GTX 1070, Fury ohne X doch recht nahe kommen.

Den Vorwurf mit "an der langen Leine zu halten" kann man AMD mit der Fury X Teaser Aktion machen, welches ein halbe Jahr lief. Die aktuellen Nvidia Leaks wirken wie die normalen kurz vor der Veröffentlichung.
 
Zuletzt bearbeitet:
Also weiter auf die P100 warten :)

Ich hab Zeit.... :coolblue:

Was ich mich bei der ganzen Diskussion immer frage ist, warum Nvidia keine Pascal mit HBM Speicher aus der ersten Generation bauen sollte? Ist DDR5x so viel schneller/besser/günstiger?
HBM (1) sollte doch verfügbar sein...
Aber bevor ich jetzt virtuelle Steine an den Kopf bekomme: Ich habe die Entwicklung in letzter Zeit nicht wirklich beobachtet und warte eh auf eine neue Titan.. oder TI oder wie auch immer die dann heißen mag!
 
Was ich mich bei der ganzen Diskussion immer frage ist, warum Nvidia keine Pascal mit HBM Speicher aus der ersten Generation bauen sollte? Ist DDR5x so viel schneller/besser/günstiger?
HBM (1) sollte doch verfügbar sein...
Es können technologisch bedingt nur 4 GB HBM1 Speicher genutzt werden so weit ich weiß. Das reicht also bestenfalls für eine 1070 - und die wiederum wird keinen schnelleren Speicher als eine 1080 geben.
 
Man kann mit einem anderem Interposer auch 8 HBM Chips verwenden und kommt auf 8GB, allerdings wird das Hauptproblem beim HBM Speicher die hohen Kosten sein.
Und bei Nvidia ist man ja sehr Talentiert die Gewinnmarge so hoch wie möglich anzusetzen. (was jetzt allerdings keine "pro AMD" Aussage von mir sein soll)

Außerdem wird HBM1 zugunsten HBM2 wahrscheinlich nicht mehr hergestellt, und HBM2 braucht noch etwas Zeit für höhere Verfügbarkeit.
 
Ich hab Zeit.... :coolblue:

Aber bevor ich jetzt virtuelle Steine an den Kopf bekomme: Ich habe die Entwicklung in letzter Zeit nicht wirklich beobachtet und warte eh auf eine neue Titan.. oder TI oder wie auch immer die dann heißen mag!

Das werde ich genauso machen. Bis die Kinderkrankheiten ausgerottet sind und die Preisstruktur sich einigermaßen angepasst hat - vielleicht Ende 2016. Ich bin kein EarlyBird mehr. Dafür habe ich zu oft schlechte Erfahrungen gemacht und der Wertverlust ist es einfach nicht wert.
 
Und für die GTX 960 wird der Nachfolger wieder viel zu spät vorgestellt, vielleicht gibts ja diesmal eine "Ti" Version der Karte, das Gap zwischen GTX 960 und GTX 970 ist ja doch ganz schön groß, und das nicht nur wegen des Preises.
 
Das ist natürlich nur mein persönliches Dafürhalten, aber die 60er sind, zumindest im Moment, nicht einmal für 1080p interessant. Mit der 1060 (ti) mag das anders sein.
 
Man kann mit einem anderem Interposer auch 8 HBM Chips verwenden und kommt auf 8GB, allerdings wird das Hauptproblem beim HBM Speicher die hohen Kosten sein.
Und bei Nvidia ist man ja sehr Talentiert die Gewinnmarge so hoch wie möglich anzusetzen. (was jetzt allerdings keine "pro AMD" Aussage von mir sein soll)

Außerdem wird HBM1 zugunsten HBM2 wahrscheinlich nicht mehr hergestellt, und HBM2 braucht noch etwas Zeit für höhere Verfügbarkeit.

Das wäre aber reichlich unsinnig... Denn das bedeutet, min. doppelte Kosten, doppelte Bandbreite, doppeltes Interface, doppelter Verbrauch, doppelter Flächenbedarf.
Sprich effektiv eigentlich alle Vorteile von HBM lösen sich damit in Luft auf bzw. wären nur noch minimal besser als bei einer billigen GDDR5 Umsetzung.

Es ist ja nicht so, dass GDDR5 voll ausgereizt wird -> nichtmal ansatzweise. Man plant offenbar "nur" ein 256Bit SI. Ob der Takt voll ausgefahren wird, ist auch fraglich.
Nimmt man die damaligen Werte von AMD, so steht es bei HBM mit 35GB+/Watt vs. 10,6GB/Watt bei ihrem 512Bit SI. Schaut man sich dann mal den GM204 an, dann reicht dem Chip die Bandbreite... Warum sollte es mit dem normals geänderten GP104, mit größeren Caches, mit breiterem FrontEnd nicht ebenso reichen?
Bei diesen fiktiven 10,6GB/Watt verbraucht die Speicheranbindung beim GM204 knapp 22W. Doppelter HBMv1 würde auf gut 30W kommen. Und das für "nur" 8GB Speicher. Von 1TB/sec kann sich mit dem GP104 eben niemand was kaufen... Ein möglicher Quadro Ableger mit GP104 und der wird sicher kommen, könnte dann dank GDDR5 auch 16GB bekommen. -> mit dem HBM Ansatz wäre das nicht drin.

HBMv1 ist und bleibt unsinn, wenn man die Menge nicht entsprechend hoch schrauben kann. Erst mit der variablen Mengenverteilung beim HBMv2 ist der Ansatz überhaupt sinnvoll. Vorteile durch HBM hin oder her...
-> im Endeffekt ist HBMv1 und v2 ja sogar das gleiche. Marketingtechnisch schimpft man das nun halt v2. Da der erste Anlauf eben mit der fixen größe und allen daraus resultierenden Nachteilen auftrifft.
 
Eine TI mit GP104 ? NVIDIAs neues Downsizing-Konzept für die High-End-Klasse. Spart Kosten in der Produktion, genau wie bei den Autobauern, wo ein Motor alle Modelle abdeckt. Mit etwas mehr oder weniger Hubraum(Shader) oder etwas mehr oder weniger Ladedruck(Takt). Mehr Zylinder gibt es nicht mehr so schnell.

Naja, wird es halt dieses Jahr keine neue Grafikkarte geben. Schade ! :shake:
 
Naja, wird es halt dieses Jahr keine neue Grafikkarte geben. Schade ! :shake:
Freu dich doch! Von dem Geld kannst du in den Urlaub fahren, der Liebsten ein paar mal Blumen mibringen, an eine gemeinnüzuige Organisation spenden. Es gibt so viele Optionen!!!
 
ist eigentlich auch egal was sie rausbringen...fakt ist das die eh besser sein werden...wie jedes jahr


fermi haben auch alle gekauft damals
 
Es wird jetzt schon eine Ti kommen, und zwar eine 1060ti. Es wird werden, wie bei Kepler. Jetzt kommen erstmal 3 Karten und dann dieses Jahr nix mehr. Alle kommen mit GDDR5.

1080 8GB 256bit
1070 8GB 256bit
1060ti 6GB 192bit

Im Januar 17 gehts dann weiter mit der Titan 16GB HBM².

Danach folgt der Pascal Refresh mit GDDR5X für 1170 und 1180.

Danach folgt die 1180Ti, die könnte auch HBM² bekommen, da müssen wir mal abwarten.

Das wär jetzt dann so meine Vision. :)
 
ist eigentlich auch egal was sie rausbringen...fakt ist das die eh besser sein werden...wie jedes jahr


fermi haben auch alle gekauft damals

Fermi war allerdings auch eine neue Node, hatte Shader Model 5.0 support und war mit Einführung der Double Precision (FP64 units) auch ein Fundament für general-purpose computing...und mit all den delay's und den Gerüchten schon ein "heißen" Eisen, nicht nur im Stromverbrauch.

Beim GP104 ist noch nicht einmal bekannt, wieviel Neuerungen da vom P100 einfließen werden. Digitimes schreibt wohl nicht aus langerweile "Maxwell based Pascal" zu dem neuen Chip im Performance Segment.

Und dann noch das mit dx12 und async compute und dem resource binding? Mal ehrlich, wer nicht gerade ein Tablet sein Eigen nennt, ein AMD Tattoo sich 2003 hat hacken lassen oder sich selbst ein Programmierer nennt, dem kann das Ganze doch getrost am Poppes vorbei gehen.

Da ist selbst der neueste Streifen von Quentin Tarantino spannender!
 
Zuletzt bearbeitet:
Welcher Chip wird wohl gerelabelt? Ich könnte mir vorstellen, die 1060 ist eine Maxwell 970 mit echten 4GB, wäre zumindest eine Überlegung. Die 1060 Ti dann die Pascal mit 6GB.
 
Das klingt durchaus logisch, wirklich an GDDR5X in diesem Jahr glauben will ich ja nicht.

Ich kann es kaum abwarten wenn es an die X80Ti mit HBM kommt... Wahrscheinlich sind die Karten aber dann dieses Jahr nur effizienter, so wie 780Ti>980. Die 1080 wird mit einem 8-Pin die Leistung einer 980Ti erreichen, interessant wird es wenn nochmal 60-80 % draufkommen durch Vollausbau und HBM2.
 
hatte Shader Model 5.0

weiss nicht .....ich könnte glaube jetz immernoch ne gtx 280 quad sli reinbasteln und würde im spiel immernoch kaum nen grafischen unterschied sehn zu den neuen karten
 
Klar - ne Direct X 10 Karte mit 1GB ... mach das mal - da interessieren mich die Bechmarks und Ergebnisse wirklich.

Das nicht jeder auf diese geile Idee kommt ...
 
Klar - ne Direct X 10 Karte mit 1GB ... mach das mal - da interessieren mich die Bechmarks und Ergebnisse wirklich.

Das nicht jeder auf diese geile Idee kommt ...

Welche Benchmarks interessieren dich?
Spiele habe ich nur ältere, weshalb da "Beweisfotos" etwas schlecht sind. Erzählen kann ich dazu schon was...

4x Einzelkarte gibt's erst ab Fermi.
 
Der Kollege sprach von Quad SLI und keinem merklichen Unterschied zu aktuellen GPUs ... das ist wohl nen bißchen lächerlich ne?
 
weiss nicht .....ich könnte glaube jetz immernoch ne gtx 280 quad sli reinbasteln und würde im spiel immernoch kaum nen grafischen unterschied sehn zu den neuen karten

:lol:

made my day

Du weißt schon, dass diese Karten 1GB DDR3 haben, nicht mal DX 11 unterstüzen und einen Verbauch von ~250 Watt haben!?
Außerdem gabs Quad SLI erst ab GTX 470/480 meines Wissens. Vorher war bei 3 Karten Schluss.
 
Zuletzt bearbeitet:
Ähm nein...
Quad SLI ist doch die offizielle Bezeichnung von SLI mit zwei Dual GPU Karten.
Das was ihr meint ist 4-way SLI. Das ging wohl nicht mit der 280er. Aber mit der 285er ;) Zumindest bei einigen Boards mit einigen Karten.

Quad SLI "geht" grundsätzlich sogar schon mit der 7950GX2 -> bringt aber nix. Bei OpenGL Games könnte das aber anders ausschauen.
Mit den DX10 9800GX2 im Quad SLI funktioniert das aber halbwegs brauchbar... Crysis 1 skaliert damit recht gut -> wenn der VRAM reicht :fresse:
 
Ja, ich meine 4-Way SLI. Sollte aber klar sein, denn eine GTX 280 ist keine Dual-GPU Karte ;)
 
@alashondra

Die ursprüngliche Aussage bezog sich darauf, das man kaum einen grafischen Unterschied sieht. Das wäre (da es sich auf die GTX280 bezog) für mich DX10 im Vergleich zu DX11. Unterschiede empfinde ich als sichtbar, allerdings eher subtil. Tendenziell, je neuer das Spiel, desto eher. Da es jedoch jede menge grafische Optionen gibt, die ja jeder einstellt, wie er lustig ist bzw. wie es die Hardware zulässt, ist eine Vergleichbarkeit schwer.

Das was du angesprochen hattest, betraf die Performance von Multi GPU bei neueren Titeln. Die alten Karten können schlicht nicht DX11. Das was dann aus Leistungssicht übrig bleibt, sind die typischen Probleme von Multi GPU.
Nicht umsonst wird empfohlen, nur starke Karten für Multi GPU zu nutzen, weil die Min/Durchschnitts FPS angehoben werden sollen, bei maximaler Auflösung und allen Optionen, häufig auch mit Mods. Genau das braucht extrem VRAM. Hat das die Karte nicht, stockt das Spiel beim Leeren des VRAM stark. Um diesen Faktor auszuschalten (es gibt ja genug verbleibende Nachteile) braucht es viel Videospeicher. Bei Skyrim etwa kann es sein, dass das Spiel mal 3 Sekunden lang stehen bleibt. Der Titel ist zwar schon älter und läuft bei mir ohne Mods, aber in FullHD mit imho allem was geht. Dabei habe ich FPS von 4,5 (Texturen laden am Anfang/und VRAM leeren) bis 60, im Mittel etwa 43. In der Praxis ist es deshalb bei alten Karten wichtig, wie ja schon angesprochen wurde, die Optionen so zu konfigurieren, dass das VRAM Limit nicht erreicht wird.

Dazu kommt dann die Skalierung. Ich habe seit 2009 kaum ein Problem mit Sli gehabt. Selten mal, dass ein Spiel es nicht unterstützt hat und wenn, dann war es ein alter Titel, bei dem die Leistung einer Karte auch reicht. Gothic 3 läuft z.B. nur auf 2 Karten. Die Zweite Karte skaliert sehr gut. Die Dritte nur noch mäßig, bei einigen Titeln merkt man sie auch gar nicht mehr. Je höher die Auflösung, desto eher fällt sie ins Gewicht. Quad Sli (2x9800GX2+ 8800GT) hatte ich auch mal, aber ohne echten 2D Modus waren die GPU´s 76 Grad warm im Idle und für mein Gehäuse nicht gut nutzbar. Außer Benchmarks gibt es auch kaum ein Spiel, was mit 4 GPU´s nennenswert skaliert.

Mikroruckler merke ich grundsätzlich. Es kommt immer auf den Titel an. Als Beispiel nenne ich gerne Racedriver Grid. Grid 1 lief bei mir mit 140FPS, dargestellt auf 60Hz TFT und das ganze Spiel lief häufig eckig und wie am Gummiband. Der typische Nachteil von Multi GPU, trotz sehr hoher FPS. Gefühlt eher 30FPS. Unspielbarkeit sieht in meinen Augen aber anders aus. Aber mit der Meinung bin ich eher alleine. Grid 2 läuft mit 60FPS und fällt auf niedrige 40er und hat diese Probleme gar nicht. Alles sehr sauber vom Ablauf. Empfindlichkeit des Users aber auch die Titel die gespielt werden, sollte man beachten.

Der Stromverbrauch ist ein weiterer Nachteil. Allerdings habe ich die Karten mit Bios Mod im Betrieb und sehe dass auch als Notwendigkeit an, wenn man Multi GPU richtig umsetzen will. Die GTX280 hat 236W TDP, die GTX260 "nur" 186W. Durch das Anpassen aller VCore Werte sank der Verbrauch Idle um fast 10W und unter Last etwa 35W pro Karte (trotz 99Mhz Übertaktung). Der ganze Rechner verbraucht 500W unter Volllast. Ein Wert, den man mit einer neuen Karte und OC auch erreicht. Es braucht entweder Radialgebläse oder Wasserkühlung um den thermischen Haushalt bei (3er)Multi GPU im Griff zu halten. Mit letzterer auch richtig leise mit viel OC. Es liegt einfach unheimlich viel Optimierungspotenzial brach. Die Karte wird nur unnötig laut und warm. Ich bin deshalb auch ein entschiedener Gegner des Boost, weil dieser unnötig hohe VCore in jeder Stufe hat.

Warum macht man dann sowas?
Ich bin Singleplayer Spieler, Multi-Player interessieren mich nicht.
Ich bin der klassische Pyramidenkäufer. Lieber 5 Titel für 50Euro als einer. Dann sind die Spiele teils älter aber ausgereift. Der Faszination tut das m.M. nach keinen Abbruch.
Ich habe kaum mehr Zeit zum Spielen, ergo passt das nahtlos zu dem oben Genannten.
Ich habe gerne eine Lösung, die nicht jeder hat und eine "Bastellösung darstellt" Die Nachteile habe ich teils ausgemerzt oder umgangen, bei anderen Titeln toleriere ich sie.
Der Hauptgrund für mich ist, dass ich nicht bereit bin hunderte von Euro für eine Karte zu bezahlen. Damals (Kaufzeitpunkt) gab es zwischen NVidia und Ati noch Konkurrenz und sehr niedrige Preise. Ich habe pro Karte 139Euro bezahlt. Für den Preis der drei bekäme ich nicht mal eine GTX980 und dass ist nur der Performance Die. Ich kaufe daher nunmehr nur Auslaufmodelle oder gebraucht. Außerdem brauche ich das Radialgebläse für einen solchen Aufbau und die haben nur die High-end Modelle.

Mein Fazit: Der grafische Unterschied ist da, genauso wie die Nachteile. Diese lassen sich aber teils umgehen, andere müssen hingenommen werden. Dann kann man auch mit alten Karten in Multi GPU spielen und damit glücklich werden...
 
Zuletzt bearbeitet:
Crysis 1 haben Leute auf einer 8800 GTX gespielt... Zumal diese Karten heftige Speicheranbindungen haben die teils mehr Bandbreite haben als manche moderne GDDR5.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh