NVIDIA präsentiert die GeForce GTX 1080 auf Basis der Pascal-Architektur (Update)

Kleiner Nachtrag noch in der News. Eines der Demo-Systeme mit zwei Geforce GTX 1080 im SLI hat eine Bridge, welche beide SLI-Anschlüsse belegt. Was es damit auf sich hat haben wir einmal versucht zu ergründen. Details dazu ebenfalls in der News.

Jipp
Dazu heißt es bei Nvidia: NVIDIA’s new SLI HB bridge doubles the available transfer bandwidth compared to the NVIDIA Maxwell™ architecture. Delivering silky-smooth gameplay, it’s the best way to experience surround gaming—and it’s only compatible with the GeForce GTX 1080.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
Das interessanteste für mich bei dieser Vorstellung war die Angabe zur DP-Leistung, die 1:2 der SP-Leistung erreichen soll. Das hat mich bei der Consumer-Karte wirklich überrascht. Schade, daß Nvidia ansonsten wieder einmal mehr auf rohe Leistung als auf technischen Fortschritt gesetzt hat, das hält wegen ihrer Marktmacht die gesamte Entwicklung zurück.

Kann mir jemand sagen warum hier alle so Begeistert sind? Übersehe ich hier was?
Die blaß-grüne Nvidia-Fan-Brille...

Ich weiß, das man Jen-Hsun Huang nie in Zweifel stellen sollte und er mit seiner offenen und ehrlichen Art gegenüber seiner potenziellen Kundschaft bekannt und berühmt ist.
:haha:
 
P.S. was machen wohl die jungs die ihre 980ti abgestoßen haben FALLS die 1080 doch im real life langsamer ist oder zumindest gleich flott :d

Dann haben die eben Pech gehabt. Aber wenn die gleich schnell sind, haben die eher gewonnen, wegen 2GB mehr.
 
Tim Sweeny von Epic betrat die Bühne und zeigte eine Demo seines aktuellen Projektes Pegatron.

Ich habe jetzt das Video nicht gesehen, aber ich vermute mal es handelt sich um Paragon, zumindest dem Screenshot nach. (Das kann man als Journalist schon wissen, ist ja jetzt kein Geheimprojekt.)

Ansonsten verstehe ich jetzt den Hype nicht ganz, obwohl ich auch grün hinter den Ohren bin. Am Ende ist doch alle wie zu erwarten ausgefallen, letztendlich wie beim Maxwell Launch. Die 1080 ist leicht über Titan X Level angesetzt, dass war mit der 980er auch schon so. Die hohen Zuwächse wird es wohl eher in VR Anwendungen geben und der Rest ist halt die entsprechende API Weiterentwicklung für den derzeitigen Stand der Technik. Und zur Jahreswende wird eine Ti und "Titan" nachgeschoben.

Die Zahlen und gezeigten Werte sind natürlich "best cases" und werden real, wenn überhaupt nur von den "Founders Edition" Karten erreicht. Dennoch bekommt man am Ende fürs gleiche Geld wie vor einem Jahr eben eine Handvoll mehr Leistung, die vor kurzem noch eher 4 stellig gekostet hat und das mit einer ordentlichen Menge VRAM.

Das dX12 nicht nur auf async shader setzt sollte auch klar sein, aber das Rote Lager kommt gerne mit solch Argumenten, so wie ja Mantle furchtbar gefruchtet hat und ende 2016 alle Spiele massiv auf async setzten werden? Was nicht heißt, dass ich auch gerne eine bessere Implementierung sehen möchte, aber diese wird wohl erst mit Volta kommen und dann wird dX12 auch etwas mehr Mainstream sein. Ich erhoffe mir trotzdem bessere Werte, da es ja kleine Änderungen im Desgin gibt und die Treiber Abteilung bei NVIDA auch nicht auf den Kopf gefallen ist. Zudem boykottiert momentan doch eh das Enthusiasten Lager W10 und damit sind async shader auch nur ein PR Stunt.

Schöne Karten sind es und sollte man beim Erscheinen ein neue Karte brauchen, wäre man dumm noch eine Maxwell zu holen. Ich bleibe bei meiner Titan X und warte auf das entsprechende Pendant, dass liegt aber eher an den 12GB VRAM, die ich brauche und ich würde mir mit 8 ein EI legen.
 
Zuletzt bearbeitet:
ist halt gerade wieder mal der Hypetrain unterwegs ;) War beim Wechsel von 7xx auf 9xx auch nicht anders. Ich sehs aktuell auch sehr entspannt... als einzig sinnvolle Ablösung für die Ti kommt eh nur eine neue Ti in Frage .... wer Consumer und Mittelklasse zu Enthusiastpreisen kauft ist selber schuld. ;)

Jo ich auch dewegen wird sie gekauft und danach der Vega wo ich endlich mal hoffe das der bleiben kann wen AMD es mal auf die Reihe kriegt unangefochten die Schnellste Karte zu bauen und einen nicht mit Beta Treibern zu versorgen.:fresse:
Geht das in die Hose (Schanzen stehen 50 zu 50:fresse2:)bleibt einem ja auch noch mal der Ausflug zum danachfolgenden GP100/102.:d spätestens da sollte es dann auch wieder für ein Jahr passen.:haha:
 
Zuletzt bearbeitet:
Zudem boykottiert momentan doch eh das Enthusiasten Lager W10 und damit sind async shader auch nur ein PR Stunt.

Das ist aber eine gewagte Behauptung.

Ich behaupte jetzt mal einfach, dass das nicht stimmt.

Und selbst wenn es stimmen sollte: Der Wind könnte sich rasch drehen...
 
Erstaunlich, dass für ein Referenzdesign nun mehr Geld bezahlt werden soll. Für mich als ein Anhänger vom Radialgebläse eher eine schlechte Nachricht.

GP102 bitte dann ohne DP Funktionalität, aber mit doppelter Shaderzahl...
 
Zuletzt bearbeitet:
699$ dürften hier etwa 700 - 750€ entsprechen. Ganz schön viel Geld für die zweitstärkste GPU....
Mal sehen was passiert wenn AMD seine neue GPU's auf den Markt bringt.
 
Als aufgrund von Nvidias Propritärer Haltung und der massenhaften "Kommunikationsfehler" eher AMD Überzeugter muss ich schon sagen: 15-20% Mehrleistung gegenüber 980Ti ist eine Ordentliche Nummer dabei den Verbrauch gleichzeitig zu senken!

Und eine Taktzahl von >2000 hört sich einfach geil an :d


Solange ich mir nicht sichern sein kann dass es dieses Mal keine Kommunikationsfehler gibt, die neuen Karten nebenbei FreeSync unterstützen und Async Shaders nicht unterstützt werden, ist die Karte leider nichts für mich.

Richtiges 4K Zocken wird man aber erst mit den beiden Monsterchips GP102 und Vega können.
 
Wie kommt ihr denn alle darauf, dass es die Karte für 599$ bzw. 379$ zu kaufen gibt? Das sind Preis ohne Steuer! Sprich die 1080 wird es wohl für 700-750 zur Einführung geben und die 1070er für 450€ und mehr geben.

Oh mein Gott, wie lange habe ich letzte Nacht (?) geschlafen, dass die MwSt jetzt schon bei 35% liegt? :eek:

Hab ich eigentlich überlesen, wie viel Speicher die 1070 nun wohl haben soll?

7,5 + 0,5.

Bin ich der einzige der den neuen "Stealthkühler" optisch völlig daneben findet? :confused:

Sieht doch cool aus. Er würde noch besser aussehen, wenn er mattschwarz lackiert wäre. Der Lambo unter den Kühlern...

Wartet doch dafür erst mal eine Präsentation dieser mal ab, finde schade das die xx60er immer so Spät kommen bei NV, diese interessiert mich am meisten, wenn es jedoch zu lange dauert wird es am ende wohl eine 1070.

+1

Ich hätte auch viel lieber eine GTX 1060 als eine GTX 1070/80. Naja, sollten jetzt gebrauchte GTX 970 wie Sand am Meer auf den Markt geworfen werden, wird es vielleicht einfach eine GTX 970. Die dürften in Zukunft ja keine 200 Euro mehr kosten. Oder vielleicht gibt es einen GTX 970 Ausverkauf für 199 Euro... uh, spannend, spannend...
 
699$ dürften hier etwa 700 - 750€ entsprechen. Ganz schön viel Geld für die zweitstärkste GPU....
Mal sehen was passiert wenn AMD seine neue GPU's auf den Markt bringt.

Denke das ist zu (viel) wenig, denn der 699$ MRSP ist wie immer ohne Steuer in den USA.

Da darfste ertmal die Euro/Dollar Umrechnen und dann noch Märchensteuer, Zoll und Versandkosten hinzurechnen.

Ich würde da eher von Preisen im Bereich 800-850€ ausgehen für das Referenz (Founders) Design.

Bei entsprechend hochwertigen Custom Designs noch mehr.

Ich muss sagen, die 1080 wird irgendwie immer unsexier je länger man sie betrachtet.
 
Da kommen endlich seit Jahren der Verarsschung die ersten neune GPUs und bringen eine ganz normale Mehrleistung, wie sie bei neuen GPUs eben so üblich war und schon muss der Preis noch unrealistischer werden als er er schon war?
Doppelt so teuer wie angemessen + 50%... Klasse! Ich dachte das sei "Consumer"-Hardware.
Aber offensichtlich ist es eher ein Luxuxgegenstand, den ich mir auch als passionierter Computerspieler niemals werde kaufen können. Und die meisten anderen auch nicht...
 
Zuletzt bearbeitet:
- Bei ersten lesen: wow.
- Dann durchatmen und überlegen
- Auf Benchmarks warten (und ich meine nicht KiddieMark)

Die Präsentation war reine PR. Die Wirklichkeit wird sehr
ernüchternd sein. Manche werden sich sogar "betrogen /
angelogen" fühlen.
Ich sehe AMD nicht tot, im Gegenteil. Wenn Sie jetzt schon
so auf die Kacke hauen, dann muss Polaris ein paar "Bomben"
parat haben. Ich hoffe es jedenfalls.

Noch gibt es keine Preise, keine echten Test-Ergebnisse.

Abwarten und Tee trinken. Die interessanten Games kommen
nextes Jahr. DX12 ist erst ganz am Anfang, als noch min. 1 Jahr
bevor es "richtig" los geht. Kein Stress.

Bin gespannt ob der "Vollausbau" dann 4k @ very high mit min.
60fps packt. Und ich meine jedes Game (DX11 & DX12) :d
 
Irgendwie erinnert einen dieses Event an die typischen Apple Keynotes. Wenn der Messias das iPhone seinen Jüngern zeigt :d
Bin ja schon gespannt ob sich der Wechsel auf die 1080er lohnt.
 
699$ dürften hier etwa 700 - 750€ entsprechen. Ganz schön viel Geld für die zweitstärkste GPU....
Mal sehen was passiert wenn AMD seine neue GPU's auf den Markt bringt.

Jetzt ist der Preis schon von $599 auf $699 gestiegen - bin ich eingenickt und habe die Preissteigerung verpasst?

Ach ne, madjim - das erklärt es...
 
Solange ich mir nicht sichern sein kann dass es dieses Mal keine Kommunikationsfehler gibt, die neuen Karten nebenbei FreeSync unterstützen und Async Shaders nicht unterstützt werden, ist die Karte leider nichts für mich.

Warum sollte ich als Nvidia Kunde auf FreeSync hoffen, wenn ich mit GSync eine wesentlich bessere Lösung habe?
 
Denke das ist zu (viel) wenig, denn der 699$ MRSP ist wie immer ohne Steuer in den USA.

Da darfste ertmal die Euro/Dollar Umrechnen und dann noch Märchensteuer, Zoll und Versandkosten hinzurechnen.

Ich würde da eher von Preisen im Bereich 800-850€ ausgehen für das Referenz (Founders) Design.

Bei entsprechend hochwertigen Custom Designs noch mehr.

Ich muss sagen, die 1080 wird irgendwie immer unsexier je länger man sie betrachtet.

Und für was gilt die $599 MSRP?

$599 / 1,14 * 1,19 = 625 Euro UVP für eine GTX 1080 in Deutschland mit MwSt-Steuer.

So sieht es erst einmal aus.

Natürlich können noch beliebige EU- oder deutschlandspezifische Abzockaufschläge darauf kommen.
 
Zuletzt bearbeitet:
..wenn doch aber jeder titel mit 60fps @UHD läuft benötigt kein mensch mehr proprietären sync.


(..)

mfg
tobi
 
Kleiner Nachtrag noch in der News. Eines der Demo-Systeme mit zwei Geforce GTX 1080 im SLI hat eine Bridge, welche beide SLI-Anschlüsse belegt. Was es damit auf sich hat haben wir einmal versucht zu ergründen. Details dazu ebenfalls in der News.

mehr bandbreite
 
wenn ich mit GSync eine wesentlich bessere Lösung habe?
:lol: aaaaahja und das warum ?

auf freesync hoffen heißt nur das man als NV kunde nicht mit den überteuerten g-sync gurken rumschlagen muss sondern auch markenunabhängig sich für einen moni entscheiden kann

- - - Updated - - -

..wenn doch aber jeder titel mit 60fps @UHD läuft benötigt kein mensch mehr proprietären sync.


(..)

mfg
tobi

ich hoffe das is ironie
 
Unter Stock sicherlich. Da sind 180 Watt sehr leicht zu kühlen. Aber ich glaube nicht, das dies Stock war. ;)
Bei OC explodiert förmlich die Leistungsaufnahme, weil der Sweet-Spot überschritten wird.

Nunja nachdem AMD Fury X und 390X usw schon über weit über dem Sweet Spot taktet um halbwegs mithalten zu können (dafür kaum OC möglich) während die Mawells OC Potential ohne Ende haben und recht kühl bleiben wäre ich da bei 15 Watt mehr TDP bei der 1080 zur 980 etwas vorsichtig mit den Spekus..

Ich sehe das nun völlig anders... höhere TDP um entsprechend höhere Takraten fahren zu können. Das sagt doch schon aus was nVidia von den AMD Karten die jetzt kommen hält, dazu besagt geringe Architekturänderungen die nach wie vor DX12 nicht wirklich supporten - nVidia ist im Zugzwang und kommt AMD zuvor mit nem Marketing was weit vorm eigentlichen Release startet um Presse zu machen.


Ich warte nach wie vor auf Polaris um dann zu gucken was ich mache. Neue CPU gibts eh erst Ende des Jahres wo es sich entscheidet obs nen Zen oder nen Skylake wird, genauso verhält es sich bei den GraKas - Polaris wirds nach der Vorstellung hier aber sehr wahrscheinlich werden, in welcher Ausbaustufe auch immer. Die Polaris Architektur wird auf jeden Fall moderner sein als das was nVidia hier abgeliefert hat meiner Meinung nach...

Ernsthaft ? Derart geringere TDP liegt für mcih noch im Rahmen und ist weit von dem AMD Sweetspot adee Hitzebombern der aktuellen gen entfernt.
Was und ob Pascal DX12 richtig kann weiss keiner aktuell oder ?

Polaris wird eher Mittelklasse was man so hört, mir reicht das nicht..

Da hast du wohl recht...wobei das aber ja schon stimmt mit den Leuten. Die, die jetzt erst ihre 980Ti loswerden wollen, müssen nun in den sauren Apfel beißen. Ich hab meine 980 vor etwa zwei Wochen noch für 390€ verkauft...das könnte ich nach gestern Nacht aber sowas von knicken :d

Genau das ist es, meine Maxwll ging vor 3 Wochen weg, nicht 3 Monaten, da ist das warten noch erträglich. Man muss es nur intelligent machen.
Das die täglich 6H Zocksuchtis das nicht können weil ohne Karte = tot oder aber einfach nicht die Zeichen der Zeit erkennen, nunja das ist ne andere Geschichte..

Mich als Endkunde interessiert überhaupt nicht, ob eine Firma ihre Produkte besser an Mann\Frau bringt als die andere.

Ich frage ausschließlich danach, ob die Sache mein sauer verdientes Geld Wert ist. Und den Wert sehe ich hier nicht. Also warte ich auf die Konkurrenz bzw. auf die "richtigen" Karten von nVidia nächstes Jahr.

Ist bei jedem anders, wenn ich jetzt noch ne 980ti hätte würde ich auch auf Big Pascal warten ,denn die eigene Karte ist kaum noch was Wert und die 108ß nicht soooviel schneller.
Hat man hingegen seine 970/980 rechtzeitig verkauft kommt nun die ideale Karte.

- - - Updated - - -

Unter Stock sicherlich. Da sind 180 Watt sehr leicht zu kühlen. Aber ich glaube nicht, das dies Stock war. ;)
Bei OC explodiert förmlich die Leistungsaufnahme, weil der Sweet-Spot überschritten wird.



Scheint ja laut NVIDIA völlig uninteressant zu sein. Zumindest war es nicht Teil dieser Pressentation. Was für mich natürlich sehr seltsam ist, da DX12 schließlich die neue API darstellt, die uns noch sehr viele Jahre begleiten wird.
Am 27. Mai werden wir wohl endlich handfeste Tests sehen.
Ich hoffe, das dann wirklich "alle" Fragen geklärt werden. :)

Ich sehe das nun völlig anders... höhere TDP um entsprechend höhere Takraten fahren zu können. Das sagt doch schon aus was nVidia von den AMD Karten die jetzt kommen hält, dazu besagt geringe Architekturänderungen die nach wie vor DX12 nicht wirklich supporten - nVidia ist im Zugzwang und kommt AMD zuvor mit nem Marketing was weit vorm eigentlichen Release startet um Presse zu machen.


Ich warte nach wie vor auf Polaris um dann zu gucken was ich mache. Neue CPU gibts eh erst Ende des Jahres wo es sich entscheidet obs nen Zen oder nen Skylake wird, genauso verhält es sich bei den GraKas - Polaris wirds nach der Vorstellung hier aber sehr wahrscheinlich werden, in welcher Ausbaustufe auch immer. Die Polaris Architektur wird auf jeden Fall moderner sein als das was nVidia hier abgeliefert hat meiner Meinung nach...

Da hast du wohl recht...wobei das aber ja schon stimmt mit den Leuten. Die, die jetzt erst ihre 980Ti loswerden wollen, müssen nun in den sauren Apfel beißen. Ich hab meine 980 vor etwa zwei Wochen noch für 390€ verkauft...das könnte ich nach gestern Nacht aber sowas von knicken :d

Also die GTX1070 hört sich sehr interessant an, da würde ich meine r9 Fury glatt austauschen. Denke aber, dass die Custom GTX 1070 sicher um die ~450€ kosten werden, alles darunter ist denke ich bei der Leistung Wunschdenken. Bei niedrigeren Preisen würde dann keiner mehr die günstigen GTX 980er oder furys für ~350€ kaufen.

Wer soll den 980er kaufen ? Die sind bald EOL und werden verramscht, mit den Costum 1070ern für unter 400 rechne ich fest (Daumendrück)
 
Fürs Verständnis:
Die 970 hat dieses "0,5 GB Problem" aufgrund des Einschnitts im L2-Chache?
GeForce-GTX-970-hardware-boom.com-013.jpg

Quelle Bild: klick mich

Die 1070 hat ja nur weniger SM, dürfte sonst keine weitere Beschneidung haben. Oder ist aufgrund des Unterschied von GDDR5 und GDDR5X die Anbindung in der GPU selbst komplett anderst gestaltet? (Die 1070 und 1080 im vergleich, dürfte denke ich nicht sein, da ja beide den GP104 als Basis haben)

Danke schon mal für die Hilfe.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh