NVIDIA GeForce GTX 1070 und 1080 sollen im Mai auf GTX 970 und 980 folgen

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das glaube ich nicht. Ich denke, sie wird bei 350€ losgehen..

Abgesehen von den AMD und Nvidia Karten wäre es einfach sowas von geil, wenn ein dritter Hersteller mitmischen würde... Mich kotzt der Zweikampf zwischen AMD und nVidia einfach irgendwie an ^^

Man stellt sich vor 3dfx, Kyro und S3 (hießen die so, ich weiß es nicht mehr so genau) im Kampf mit AMD/ATI und Nvidia, dann gab es jede Woche einen Schlagabtausch vom feinsten, das wäre Affengeil.:hail::love:

Genaueres zum Preis der GTX 1070 kann man wohl erst was sagen, wenn die ersten Karten im Handel auftauchen alles andere ist wie immer reine Spekulation bzw. wunschdenken.
 
@ShiZon: Und jeder hat dann sein eigenes Gameworks und Spiele die heute schon nur allzuoft Probleme mit einem Hersteller oder einer Serie haben, wären dann praktisch ein reinstes Roulette.
Ein dritter wäre vielleicht noch gut, darüber hinaus müsstest du dir dann wohl eher Karten von verschiedenen Herstellern kaufen um alles spielen zu können oder man müsste auf viele Spiele verzichten (wodurch wir dann wohl auch ganz schnell wieder bei nur noch 2 Herstellern wären). Die Problematik gab es früher ja auch schon, wo dann zB Hardware T&L (oder wie das hies) bei einigen gefehlt hat.
 
@ShiZon: Und jeder hat dann sein eigenes Gameworks und Spiele die heute schon nur allzuoft Probleme mit einem Hersteller oder einer Serie haben, wären dann praktisch ein reinstes Roulette.
Ein dritter wäre vielleicht noch gut, darüber hinaus müsstest du dir dann wohl eher Karten von verschiedenen Herstellern kaufen um alles spielen zu können oder man müsste auf viele Spiele verzichten (wodurch wir dann wohl auch ganz schnell wieder bei nur noch 2 Herstellern wären). Die Problematik gab es früher ja auch schon, wo dann zB Hardware T&L (oder wie das hies) bei einigen gefehlt hat.

AMD -> offene frei verwendbare Standards was diese Technologien in Games angeht

nVidia -> kauft massig Firmen dafür, pickt sich die Kirschen und bringt sie als eigene Entwicklung in Form von Gameworks etc. in Spiele ein und ist dabei nicht offen im Vergleich zu AMD

Meines Erachtens, und das liegt eindeutig am Gebahren nVidias, wäre das mit 3-5 Herstellern nicht so schlimm, da nicht jeder so dreckig verlogen wie nVidia agiert.

Soviel reisst Gameworks nicht und aktuell sieht man oft genug, dass die aktuellen Karten dafür von nVidia selbst nicht mal reichen.
 
Eine Lehre? Die 970 GTX ist ja trotzdem eine gute Karte und gekauft wurde und wird sie immer noch... die Lehre ist wohl eher: Ja, kann man so weitermachen ^^

Richtig. Das angebliche Problem wurde doch schon von NVIDIA höchst persönlich unter die Lupe genommen und als absolut problemlos deklariert. Ein Performanceverlust von 3-6% sind kaum der Rede wert. Daher vollkommen OK. Die Leute sollten sich lieber freuen mehr V-Ram zu haben. Auch das wurde von keinem geringeren als den CEO von NVIDIA Jen-Hsun Huang höchst persönlich abgesegnet. Also alles schon lange kein Thema mehr.
Also falls eine kommende GTX 1070 das selbe Prinzip aufweist, so ist auch das kein Thema um das man sich Gedanken machen muss. ;)
 
Gibt es schon Informationen/Gerüchte zur ROP Ausstattung? Bei 64 Rops und 256bit SI mit GDDR5 ist das ja net gerade so der Hammer, Finfet+ hin und her.

Vielleicht gibt es ja den "Mittelklasse"-Chip mit 384bit SI diesmal? Ich träume...
 
ich fand und find die 970 is ne richtig gute Karte. ich mag kaputte Underdogs.

würd mich auch nicht tangieren, wenns wieder gemacht wird. cutted die 1070, 7 schnelle GB und 1 langsamer oder so.
auch wenn ich mit der Ti jetz nich raus wär, ich würd mich beim GraKa-Kauf da nicht von abhalten lassen.

1070, 7 schnelle GB, 1 langsamer GB, 100W - is besser als was man zur Zeit bekommt in der Preisklasse.
 
Ja das ist doch toll, die 970 war und ist einer der erfolgreichsten Karten, man weiß nur noch nicht genau wieso, aber sobald AMD dahinter kommt ....

Muss oder kann man halt auch einfach mal so sagen, aber schaun ma mal ;)

Sie läuft und läuft und läuft, ein jeder hat sie mal gehabt und sie wird so schnell nicht vergessen werden :d
 
Zuletzt bearbeitet:
Oh man ... ich bin aktuell sooooooooooo überfordert was ich machen soll :(
Denke ich behalte einfach alles und schaue was zum BF4 Release so Stand der Dinge auf dem GPU-Markt ist. Denke da macht man das Wenigste falsch (aus meiner Sicht).

Bin aber echt gespannt auf die neuen Karten von AMD und Nvidia. Scheinen ja mit der 1. Lieferung die gleiche Zielgruppe (300€ - 550€?) bedienen zu wollen ...

Edit: Die neuen Nvidias werden auch wieder nur Gsync haben, oder? Irgendwie geht das aus dem Startpost ja nicht hervor ...
 
"Edit: Die neuen Nvidias werden auch wieder nur Gsync haben, oder? Irgendwie geht das aus dem Startpost ja nicht hervor ..."

Selbstverständlich das Feature ist fester Bestandteil der Materie ;)
 
Oh man ... ich bin aktuell sooooooooooo überfordert was ich machen soll :(
Denke ich behalte einfach alles und schaue was zum BF4 Release so Stand der Dinge auf dem GPU-Markt ist.
Hast du die letzten 2 1/2 Jahre verschlafen? :d

Etwas warten dürfte nicht schaden, dann haben AMD und NVidia ihre Karten auf den Tisch gelegt und sie sollten auch zu "vernünftigen" Preisen ausreichend lieferbar sein.

Wobei BF5 irgendwann im November auftauchen dürfte, da ist es bis zum Januar und der spekulierten AMD Vega auch nicht mehr lange hin... und was sind schon die drei Monate... :shot:
 
AMD -> offene frei verwendbare Standards was diese Technologien in Games angeht
Ja genau, so offen, dass du für Mantle Entwickler sein musst und einen Nachweis bringen solltest, dass man an konkreten Umsetzungen arbeitet. So offen, dass TressFX3 erst seit ein paar Wochen überhaupt public zugänglich für die Massen ist, obwohl das schon Monate genutzt werden könnte usw.
Tellerrand?

nVidia -> kauft massig Firmen dafür, pickt sich die Kirschen und bringt sie als eigene Entwicklung in Form von Gameworks etc. in Spiele ein und ist dabei nicht offen im Vergleich zu AMD
Zumindest letzteres ändert sich aktuell. NV öffnet Gameworks. Sprich es wird zu Teilen OpenSource... Nicht vollumfänglich und auch nicht die neuesten Bestandteile. Aber da steht man dann auch AMD in nix nach ;) Von daher...

Gibt es schon Informationen/Gerüchte zur ROP Ausstattung? Bei 64 Rops und 256bit SI mit GDDR5 ist das ja net gerade so der Hammer, Finfet+ hin und her.

Vielleicht gibt es ja den "Mittelklasse"-Chip mit 384bit SI diesmal? Ich träume...

Was fahrt ihr immer so auf die nakten Zahlen ab?
Am Ende ist es entscheidend, was bei rum kommt... Was würde gegen 64 ROPs sprechen, wenn die Taktrate Stock mal schlappe 30% über der vorgängergeneration ist?
Man muss nicht alles in Hardware gießen, wenn es anders geht. Sehr hoher Takt kann da schon gut was bringen, zumal damit effektiv wieder alles betroffen sein wird... Wichtig ist eher, ob das Design ausgewogen ist/wird. Zumindest während der üblichen Lebenszeit der Modelle hat NV das eigentlich ganz brauchbar hinbekommen.
Und das SI? Braucht man das wirklich? Bandbreitenbedarf ist etwas, was es zu befriedigen gilt. Wie man das macht, nebensächlich... Du kannst da ne 700GB/sec Durchsatz HBMv2 Anbindung drauf zimmern oder ein schmales 256Bit GDDR5 Interface dran schrauben. Am Ende gewinnt die Lösung, die kosteneffizient und ausreichend dimensioniert ist. Kann sich wer ernsthaft vom 512Bit SI der Hawaii GPU was kaufen? Oder vom HBM Ansatz bei Fiji? -> bei Hawaii purzelt wenigstens noch die 8GB Variante bei raus.

Meine Spekulation, GP104 mit 256Bit SI und 8GB GDDR5. Bandbreite nicht wirklich hoch -> aber den Bedarf deckend. So "schlimm" wie mit dem Gk104 wirds schon nicht werden... :fresse:
 
FD ich weiß, was du meinst und seh das auch ein, aber dennoch gefällt mir das Gebahren des Herstellers meiner Grafikkarte absolut garnicht.

Wenn man sich etwas dazu beliest, kommt einem das kalte Grauen. Man kann nur hoffen.
 
Hast du die letzten 2 1/2 Jahre verschlafen? :d

Etwas warten dürfte nicht schaden, dann haben AMD und NVidia ihre Karten auf den Tisch gelegt und sie sollten auch zu "vernünftigen" Preisen ausreichend lieferbar sein.

Wobei BF5 irgendwann im November auftauchen dürfte, da ist es bis zum Januar und der spekulierten AMD Vega auch nicht mehr lange hin... und was sind schon die drei Monate... :shot:

Natürlich meinte ich BF5 ;)

Aber ich denke eine GTX970 @ GTX980 wird auch in BF5 nicht grandenlos untergehen, vllt schaffe ichs ja eine Gen. auszusetzen ... mein Geldbeutel würde sich freuen :)
Aber ich warte mal ab ...
 
Würde ja in den kommenden Monaten gerne meine HD 7970 ersetzen und monitorseitig auf 1440p aufrüsten.
Ich bin gespannt, was da von nVidia kommt. Von AMD will ich jedenfalls weg, die haben bei mir seit Release des Omega-Treibers verkackt...

Mal schauen, ob ich dann eine gebrauchte 900er kaufe, oder doch zur neusten Generation greife. Wird am Ende davon abhängen, wie viel Prozent nVidia in Sachen Leistung bzw. Effizienz drauflegen kann.
 
sie werden wieder mit der Bandbreite deckeln. wett ich drauf.
 
Meine Spekulation, GP104 mit 256Bit SI und 8GB GDDR5. Bandbreite nicht wirklich hoch -> aber den Bedarf deckend. So "schlimm" wie mit dem Gk104 wirds schon nicht werden... :fresse:

Ich als FullHD Daddler schau dem ganzen etwas gelassen entgegen, aber als 1440p User würden mich solche nackten Zahlen im Jahr 2016 und bei GPU Preisen von 400,- bis 550,- Euro aber net wirklich vom Hocker hauen...zumal dann DSR auch vorn Poppes ist.
 
Zuletzt bearbeitet:
Nvidia wird Gddr5x von Samsung nutzen. Die machen seit Januar Massenproduktion. Kann also mit Mai oder Juni hinkommen, wenn auch nur mit ganz geringer Verfügbarkeit.
 
Echt lustig wie fdsonne immer Nvidia verteidigt, dabei hab ich so einen ähnlichen Artikel nicht mal im entferntesten bei einem anderen Hersteller gesehen:

Kommentar: Nvidias schmutzige Kartentricks | heise online

Das Nvidia nun urplötzlich Gameworks öffnet ist ziemlich einfach erklärt. Ihnen schwimmern schlicht die Felle davon. 3-5 PhysX Titel im Jahr und keine Ahnung wieviel Geld man da reinbuttert um dieses und andere propritäre Standards durchzudrücken. Viel Anklang scheint es ja dann dennoch nicht zu finden. Naja mit Dx12 hat sich das dann wohl erledigt.
 
Zuletzt bearbeitet:
gehts auch ohne FanBoy- und Moralkeule?

wie sollen denn jemandem mit knapp 80% Marktanteil die Felle wegschwimmern? zumal du ja zugibst, das du da keine Ahnung hast.
und ob sich da was mit 6 oder 12 DX12 Titeln erledigt hat, für manche sicherlich, für manche hatte sich schon alles mit Mantle erledigt. DX12 is das neue Mantle.
ich nehms zu diesem Zeitpunkt nicht ernst.
 
Das Thema DX12 ist aber auch noch vorhanden, ist schließlich der neue Standard der Grafik-API.
Das Maxwell damit Probleme hat, wissen wir ja. Aber ob Pascal auch Probleme hat, muss noch getestet werden.
Eigentlich und objektiv gesehen kann man Heute keine Karte mehr empfehlen die auf Maxwell basiert.
Ob die GTX 1070 oder GTX 1080 auch A-Shader beherrschen wird, ist auch so ein Punkt, den es zu berücksichtigen gilt.
Ich bin gespannt ob NVIDIA da wenigstens aufschließen kann.
 
Am Ende ist es entscheidend, was bei rum kommt... Was würde gegen 64 ROPs sprechen, wenn die Taktrate Stock mal schlappe 30% über der vorgängergeneration ist?

Fände ich auch nicht ganz unrealistisch. Wenn man sich Takte der GP100 anguckt, dann dürften die beim GP104 eher noch höher sein. Sollten tatsächlich 7,4 Milliarden Transistoren auf dem Performance Die kommen, dann liegt die Karte von der Leistung mind. auf 980ti Niveau.
 
@Pickebuh: wenn man ausschließlich ne Karte wegen async shader und singularer Asche kauft, is das ja schön und gut.
ansonsten steht Maxwell aber ganz gut da und:
vor allem nicht im Mittelpunkt dieses threads. der Titel allein deutet schon ganz vage auf Pascal hin. 1070,1080= Pascal ≠ Maxwell (erkennt man eigentlich schon an der Bezeichnung. Maxwell wird anders geschrieben und ausgesprochen als Pascal. das sind immer 2 recht deutliche Zeichen für ne anstehende Differenzierung.)
 
Pascal ist nichts andere als Maxwell 2.0! Und Maxwell steht auch nur in DX11 geht da.
 
du meinst "gut"? nicht ernsthaft "geht" an der Stelle im Satzgefüge??? kann aber nicht sein, zwei statt einem Buchstaben is schon ein merkwürdiger Flüchtigkeitsfehler.
bei dem Profilbild geh ich davon aus, dass du weißt was du schreibst. also frage ich m/dich, was meinst du mit "... Maxwell steht auch nur in DX11 geht da."?

und selbst wenn Pascal Maxwell Nr. 2 ist, müssen wir dann zwangsläufig die ganzen async-, DX12-, SI-, Moral-oder-nicht-Fragen hier nochmal durchkauen?
wollen wir die Themen nicht lieber mal in nem eigenen thread festtackern, dass man mal wieder über was anderes schreiben kann?

denkste, "Mensch, schreiben wir mal nach vorne blickend." und was kriegste, die alten Kamellen.

ich geh ma bei PCGH und Toms gucken, ob die da auch die selben Themen breit treten noch und nöcher.
 
Zuletzt bearbeitet:
Echt lustig wie fdsonne immer Nvidia verteidigt, dabei hab ich so einen ähnlichen Artikel nicht mal im entferntesten bei einem anderen Hersteller gesehen:

Echt lustig wie den Themenkontext mal wieder nicht verstanden zu haben scheinst.
Warum sollte ich bei einem Kommentar über Hersteller x auch eine gleiche Ausführung über Hersteller y geben müssen? Sinn???
War doch hier überhaupt nicht themenrelevant. Oder ist das so ne Ego Sache, die ich nicht verstehe? So nach dem Motto, wenn man A) gut findet, muss man B) schlecht finden und umgekehrt??
Im Gegensatz zu einigen der Leute hier und da zähle ich dich faktisch klar dazu, ist mir schnurz egal, was auf der Karte steht, solange es meinen Bedarf deckt. Da kommst du in Threads und willst mir den altbackenen Tahiti ans Bein binden anstatt GK110 ohne auch nur ansatzweise meinen Bedarf zu kennen. Du willst mir erklären, wie unsinnig Tessellation doch wäre ohne verstanden zu haben, was das überhaupt ist und wie es funktioniert usw. Ganz ehrlich, so was nervt tierisch, sich alle Nase lang erklären zu müssen nur weil die Hardliner nicht über den eigenen Tellerrand blicken können...

Und wenn die Aussage ist, NVs Gameworks Zeugs wäre nicht frei, stimmt das nun mal einfach heute nicht mehr vollends. Und die andere Aussage, das der AMD Spaß es doch wäre, ist, wie angesprochen auch nur die halbe Wahrheit. Da kannst du noch so viel durch deine Brille gucken, es wird sich daran nix ändern. Mal ganz davon ab, meine Aussage war völlig wertungsfrei auf den Hersteller bezogen. Es ging überhaupt nicht um das Warum bei Gameworks, keine Ahnung was das nun zum Problem beitragen soll, es ändert an meiner Aussage gelinde gesagt gar nix... HW-Mann hat's schon richtig aufgefasst, im Gegensatz zu dir. :)

Aber ich sag es dir gern nochmal, mir ist wurscht egal, wer der Hersteller ist, solange das Produkt meinen Bedarf deckt. Nur entscheide genau ICH über meinen Bedarf und nicht Andere. Das heist aber keinesfalls auch nur ansatzweise, dass ich die Geschäftspraktiken von einem Hersteller gut finden muss, welchem ich nun mein Geld gegeben habe. Wenn du meine Ausführungen verstehen würdest, wäre dir zum Beispiel aufgefallen, dass du da idR. nix finden wird's, wo der Hersteller btw. die konkrete Geschäftspraxis ansatzweise gut befunden wurde, sondern es idR. konkret um eine Thematik, eine Hardware, eine Leistung oder ähnliches geht. Teils auch nur um die Berichtigung einer Falschaussage. Da steht nicht, NV ist toll und AMD ist scheiße oder sonstwas. Bestenfalls kannst du da rausinterpretieren, dass ich Teile der Gameworks Bibliothek gut finde. Und das ist auch so, nämlich vom technischen Aspekt und das was man damit machen kann. Wo wir wieder beim Tellerrand wären, oder hast du dich schon mal mit Spieleentwicklung auseinander gesetzt bzw. selbst schon mal Programmcode erstellt um Vorzüge einer Drittanbieter Lösung wie es die Gameworkseffekte sind, überhaupt greifen zu können? Wenn ja, dann zeig doch einfach die Alternativen?? Aber da kommt dann normal nix mehr...
Bei dir scheint das aber irgendwie alles unter einen Hut zu passen, bei mir nicht. Tellerrand und so...

Eigentlich und objektiv gesehen kann man Heute keine Karte mehr empfehlen die auf Maxwell basiert.
Ob die GTX 1070 oder GTX 1080 auch A-Shader beherrschen wird, ist auch so ein Punkt, den es zu berücksichtigen gilt.
Ich bin gespannt ob NVIDIA da wenigstens aufschließen kann.

Eigentlich und objektiv gesehen entscheidet der dem man etwas empfiehlt über seinen Bedarf. DX12 besteht aus weit mehr als nur ASync Schadern. Wir sprechen hier stand heute über ca. 10-15% mehr Leistung, die AMD daraus zieht und das in genau einem Titel, denn in den anderen kann man es schlicht nicht ein oder ausschalten. AMD legt aber weit mehr als nur 10-15% zu, vor allem in eher CPU fordernden Szenen. Wie passt das zusammen?? Was ist mit dem ganzen Rest im Featureset und den Leistungswerten? Will man das jetzt ernsthaft ausblenden?

Fände ich auch nicht ganz unrealistisch. Wenn man sich Takte der GP100 anguckt, dann dürften die beim GP104 eher noch höher sein. Sollten tatsächlich 7,4 Milliarden Transistoren auf dem Performance Die kommen, dann liegt die Karte von der Leistung mind. auf 980ti Niveau.

Aktuell spekuliert man ja auf GM200 + xx%. Mal gucken, was bei rum kommt. 1920 ALUs könnten selbst bei 1,5GHz zu wenig dafür sein. Wenn man von 7,x Mrd. Transistoren bei hohem Takt ausgeht, müssten da eigentlich 2560 ALUs rein. Also vier von sechs (beim GP100) GPCs zu 10x64 ALUs. Bei der 70er könnte man dann vier der 10x64 ALUs rauslassen, also 256 ALUs weniger.
Bin aber eher gespannt auf das Speicherthema, denn ich denke, man baut wieder so einen "Knüppel", nur das man es vorher sagt ;)
 
Eine R300er ist auch schon 3 oder 4 Jahre alt und steht noch gut da ... wieso sollte nun bei Nvidia alles schlecht werden?
Und niemand von uns hat eine Glaskugel ... klar, eine GTX970 wird sicher irgendwann bei FullHD (1440p logisch schon früher) an ihre Grenzen stoßen, aber wenn eine GTX970 (OC @ GTX980) an ihre Grenzen stößt, dann bringt der R390 ihre 8GB VRAM auch nix mehr, da schlichtweg die Leistung fehlt.
 
Pascal ist nichts andere als Maxwell 2.0! Und Maxwell steht auch nur in DX11 geht da.

abwarten. Die Änderungen am Shaderaufbau sind schon mal ziemlich groß. Das ist wie Kepler und Maxwell in einen Topf zu schießen.
Das Frontend wird NV typisch mit den Shaderclustern skalieren, nach bisherigen GP100 Infos. Das ist ne ganze Menge mehr Änderung als nur ein neuer Maxwell Abklatsch.
Das Teil bekommt nun eine Anordnung die sich nicht mehr mit Maxwell oder Kepler gleicht, eher wie eine Mischung aus G200(b) und Fermi GF100/110 plus Teile von Kepler. Nämlich 64 ALUs in Gruppen (doppelt so viel wie beim Fermi) zusammengefasst und 10 dieser sogenannten SMs (ala G200(b)) bilden ein GPC. Wobei es bei sechs GPCs bleibt. Und die kleine GP104 womöglich vier oder fünf? davon bekommt. Gemessen an den Schadern pro SM ist das doppelt so viel wie Fermi hatte, halb so viel wie die Maxwell SM und nur noch 1/3 von Kepler.
Eine gewisse Verwandtschaft zu Maxwell wird da zwar drin sein, aber wenn du das weit genug fasst, ist die seit dem G80 in Form der SuperSkalaren Unified Shader auch ein alter Hut.

PS: Maxwell 2.0 gibt's übrigens schon. Nämlich in Form der GM2xx GPUs. Die erste Version war der GM107 bspw. verbaut auf der 750(TI).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh