NVIDIA präsentiert die GeForce GTX 1080 auf Basis der Pascal-Architektur (Update)

Guck auf den GPU-Score. 1860 Mhz ist aber auch kein Ref.Takt. Der liegt mit vollem Boost bei 1733Mhz... Trotzdem find ich das zu schwach.
Der CPu-Takt ist hier nicht so relevant bei FSE, wenn man den reinen GPU-Score betrachtet.
Sorry, ich wußte nicht das die Differenz von 900MHz CPU Taktfrequenz in dem Vergleich zwischen 3,7GHz i7-3770 mit 9.523TFLOPS GTX 1080 und 4,6GHz i7-4790K mit 8.482TFLOPS GTX 980Ti keinen Unterschied in dem Test macht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja aber wie konnten dann die genannten Karten auf den Markt gebracht werden, wenn es von NVIDIA untersagt wurde!?
Ich glaube nicht, dass Gigabyte, Zotac und EVGA einfach darauf scheißen und es doch tun.

Ich glaube ihr redet aneinander vorbei... Wenn ich das recht in Erinnerung habe, lag bspw. bei der ersten Titan (das classic Ding, was noch Teildeaktiviert war) bei manchem Boardpartner einfach der Kühler bei?
War das nicht die Gigabyte Version der Titan? Oder war es die BE? Bin ich mir nichtmehr sicher...

Mittlerweile gibts da aber wohl auch Karten mit montiertem anderen Lüfter?
Im HWLuxx Artikel zur AMP! Zotac Titan steht was von einer Lüfterbeschränkung auf das Referenz Design. Allerdings erlaube NV Waküler... Wie die Hydro Copper EVGAs. Die AMP! hatte allerdings höhere Taktraten als die Ref. Titan.
Also so 100% restriktiv war das auch nicht...

Weiterhin spricht auch dagegen, dass die 1080 mit einem einzigen 8-Pin Anschluss in der Founders-Edition daherkommt, was in meinen Augen sehr gegen die super OCbarkeit spricht. Meine 980 Ti braucht ~320W TDP um die 1500Mhz halten zu könnnen also ganze 75W mehr als Stock. Bei 8Pin+PCIE sind wir bei 225Watt maximal die man da saugen kann bei der 1080. Dann dürfte ja der Verbrauch nur um 45W steigen von Stock-Takt zu 2100Mhz.

Wenn die Basis deutlich niedriger ist, geht das aber trotzdem auf.
Von 250W auf 320W wären 28%+
Von 180W +28% kommst auf 230W... Das packt das Ding 100%, wenn das PT nicht gnadenlos deckelt...

Interessant dabei könnte der Part mit der Anpassung bei den Spannungsgebern sein. Man spricht dort von stabilieren Spannungen. Was im Endeffekt nicht nur die Effizienz steigert, sondern bei max. OC aufgrund von weniger Schwankung ggf. auch mehr rausholen sollte.

Was den absoluten Takt angeht, das muss sich halt rausstellen. Da helfen nur unabhängige Usertests von Retailware... Selbst wenn die Redaktionsmodelle alle samt 2100 und mehr laufen würden. Muss lange nicht heisen, dass man das dann so im Laden auch erstehen kann ;)

Ich denke mal 10% aller Käufer hatte die im 1400Ghz und mehr Bereich. Ist also nicht wirklich aussagekräftig, außer man möchte TSMC und Nvidia loben, wie gut der Shrink und die neue Architektur geklappt hat: GM200 war ein reines FP32 Monster...Megamonster.

Da bin ich frech und behaupte das Gegenteil ;)
Wenn 10% der Käufer überhaupt OC Betreiben (also über den Werkstaktraten), dürfte das noch viel sein... Und von diesen 10% schaffen ganz sicher nicht alle die 1500...
Kommt ja auch immer auf das Setting, die Kühlung und die Chips an.
Bekannter von mir fährt aktuell zwei Ref. Zotac 980TIs. Die gehen irgendwo bis ~1350 sinnvoll zu betreiben. Alles drüber wird mit dem Ref. Kühler nichts...

Die beiden Dinger hätte ich als Alternative, wenn die 1080er in Tests nicht überzeugt. Denn er wird sicher wechseln und nimmt jedes bisschen Leistung für UHD@möglichst hohe Details mit...

verbrauch mit 2-3 Monitoren (da patzte AMD ja immer)
und verbrauch im Desktop mit Video

Nicht nur AMD ;)
Meine 780TI verweilt bei 706MHz und vollem Speichertakt wenn drei Monitore dran sind. Die 980TI aus dem CB Reviews säuft fast doppelt so viel bei drei Monitoren im idle...
Abwarten was der GP104 dort kann. Die Fury bei AMD kann das bspw. aktuell schon.
 
Naja, aber darum gehts ja hier bei uns Luxxern... Wenn ich aber mal recht überlege war eine stark übertaktete 780 Ti auch nicht langsamer als eine 980 anfangs... bleibt eben immer abzuwarten, was Nvidia treiberseitig so mit den Karten anstellt.
Für den ersten Moment bin ich aber dennoch eher unbeeindruckt. Gerade weil auch eine deutliche effizientere 16nm Technologie zum Einsatz kommt, wäre ja zumindest anzunehmen, dass die Leistung bei gleichem Takt steigt. Das Gegenteil ist aber der Fall.
Dann müssen ja scheinbar Frontend etc. noch nicht wirklich optimiert sein...

Pro Takt ist Pascal langsamer als Maxwell. Daher kann es dann schon gut sein, daß ein 1500GHz getakteter ~600mm2 GM200 Highendchip im Vollausbau mit 50% mehr Rops und TMUs einen ~310mm2 großen GP104 Chip der Performanceklasse mit 1.700GHz gleichauf kommt ;)
 
Zuletzt bearbeitet:
Sorry, ich wußte nicht das die Differenz von 900MHz CPU Taktfrequenz in dem Vergleich zwischen 3,7GHz i7-3770 mit 9.523TFLOPS GTX 1080 und 4,6GHz i7-4790K mit 8.482TFLOPS GTX 980Ti keinen Unterschied in dem Test macht.

Es hat natürlich Einfluss auf das Ergebnis. Allerdings bei 1440p und bei dem reinen GPU-Score sind das vielleicht 2%, wenn überhaupt.

Vergleichst du den GPU-Score hast du folgendes Ergebnis:

GTX 1080 @ 1860Mhz: 10 102 Pts
GTX 980 Ti @ 1506Mhz: 10 127 Pts

Ich mache gerne auch nochmal einen Test mit 3.7 Ghz CPU-Takt für dich. Sollte ja dann verlgeichbar sein mit einem Ivy 3.8 !?
 
Es hat natürlich Einfluss auf das Ergebnis. Allerdings bei 1440p und bei dem reinen GPU-Score sind das vielleicht 2%, wenn überhaupt.

Vergleichst du den GPU-Score hast du folgendes Ergebnis:

GTX 1080 @ 1860Mhz: 10 102 Pts
GTX 980 Ti @ 1506Mhz: 10 127 Pts

Ich mache gerne auch nochmal einen Test mit 3.7 Ghz CPU-Takt für dich. Sollte ja dann verlgeichbar sein mit einem Ivy 3.8 !?
Ne passt schon, wenn du das sagst glaub ich dir das. Wir werden ohnehin demnächst Tests der Grafikkarten mit identischer Plattform sehen, wo es genau vergleichbar ist :)
 
Es hat natürlich Einfluss auf das Ergebnis. Allerdings bei 1440p und bei dem reinen GPU-Score sind das vielleicht 2%, wenn überhaupt.

Wann ermittelt der 3DMark eigentlich den Takt?

Hast du bei dir fixe Taktraten ohne Boost?
Wenn das bei Start des Programms ermittelt wird, wäre es sogar denkbar, dass die 1080er vielleicht gar Stock lief...
 
Zuletzt bearbeitet:
"So verfügt die GeForce GTX 1080 über HDMI 2.0b und DisplayPort 1.4."

Blöde Frage aber Nvidia verbaut Display Port 1.4 während AMD erstmalig im Sommer nur DP 1.3 veröffentlicht?
 
Rechne durch die FE Edition verdient sich NV eine goldene Nase bis erste Custom Boards erscheinen welche wohl auch auf 2x 8 Pin Stecker setzen werden.
Zudem wird es ausgemusterte OC Versionen geben der FE
und die Early Adapter werden sowas von abgezogen.
Man möchte bei Vorstellung der Polaris GPU am 27. Mai eben die GTX 1080 verkaufen (Absicht) und die 1070 kommt eben erst am 10.ten Juni in den Handel
Da ist Polaris schon durch, und GTX 1070 wird wohl kaum schneller als Titan X werden. Rechne in "Most Realen Games" mit ca. GTX 980TI Performance, und oftmals nicht mal dies, mit Ausbrecher auf Titan X
Würde man mit GTX 1080 / 1070 so schnell sein wie gestern Preisgegeben dann hätte man mehr als die 3 Slidesgames gezeigt!
Dies meine ich mit Virtual Reality + Tomb Raider DX12 und Witcher 3
 
Zuletzt bearbeitet:
Absolut! Gerade die Taktbarkeit der Maxwells war das, warum ich so darauf abgefahren bin. Wenn jetzt natürlich die 2100Mhz Core vom Event nur die absoluten Perlen schaffen kann man schon sagen, dass der Leistungssprung für Übertakter alles andere als dolle ist.
Wenn man die Leistung bei Ref-Takt vergleicht sollte die 1080 nen Stück vorne liegen, aber dass es so wenig ist, hätte ich nicht gedacht.

Weiterhin spricht auch dagegen, dass die 1080 mit einem einzigen 8-Pin Anschluss in der Founders-Edition daherkommt, was in meinen Augen sehr gegen die super OCbarkeit spricht. Meine 980 Ti braucht ~320W TDP um die 1500Mhz halten zu könnnen also ganze 75W mehr als Stock. Bei 8Pin+PCIE sind wir bei 225Watt maximal die man da saugen kann bei der 1080. Dann dürfte ja der Verbrauch nur um 45W steigen von Stock-Takt zu 2100Mhz.

So ist das halt meine 980Ti war nicht so gut wie deine eben da ging es bei 1506/4001 bis 385W hoch bei 1.274V.
Was haben sich hier auch einige Leute in der Preisklasse einen Abselektiert und Kohle Versenkt nicht falsch verstehen die Leute haben Spass dran.

Bei mir ist es das Kind was in einem hochkommt freude an einem neuen Spielzeug Hobby halt ob es Sinn macht steht da gar nicht im Vordergrund.

Meine Frau sagt dann meist brauchst du das ?
Ich sage dann nein ich will das:d

Am Ende habe ich 2 Gigabyte mehr Speicher und etwas mehr Leistung durch Manuelles OC wie bei meiner 980Ti das war aber bei 300mm2 auch zu erwarten wenn man sich die Vergangenheit anschaut.
Aber wer weis vielleicht werden es auch Wahre Taktwunder mit bis hin zu 2200-300MHZ oder gar 2400MHZ wer weis das schon die freude wäre natürluch dan riesig das ist aber nicht meine Erwartungshaltung.

Zum Schluss kommt dann eben drauf das ich nächstes Jahr nicht mehr wie 300 Euro + für meine fast 2 Jahre alte 980Ti bekommen würde.
Der Aufpreis zum Next Big Chip wird sich gewaschen haben das hab ich jetzt schon im Urin bzw. nen Riecher für.

Ergo nix verloren da die GTX 1080 dann noch einen höhren Wert haben wird.
Mit der GTX1070 wird sich der 980Ti Gebrauchtmarkt anpassen.;)
Ich rede von meiner Situation aus 600Euro für die Ti bekommen der Aufpreis ist überschaubar und der Spass kann los gehen.

Wenn ich dann lese nicht von dir ...man muss schön blöd sein zu wechseln wird man dann sehen wen die Leute ihre fast 2 Jahre alten Karten verkaufen werden und ich meine 6 oder 8Monate alte Karte verkaufe.
 
Zuletzt bearbeitet:
Da ich für meine Sapphire Fury (Fury X) nur 460 Euro bezahlt habe warte ich auf den Großen Vega inkl. FreeSync Monitor da eben dann auch Ultra HD mit Displaport 1.4 die 120Hz möglich sein werden!
2x Fury Performance ist schon sehr nahe an den 60 fps bei den Neuesten Krachern, Ohne Hairworks und Texturen auf High gestellt!
 
Da ich für meine Sapphire Fury (Fury X) nur 460 Euro bezahlt habe warte ich auf den Großen Vega inkl. FreeSync Monitor da eben dann auch Ultra HD mit Displaport 1.4 die 120Hz möglich sein werden!
2x Fury Performance ist schon sehr nahe an den 60 fps bei den Neuesten Krachern, Ohne Hairworks und Texturen auf High gestellt!

Das ist auch okay kann ja jeder machen wie er mag nur der Post Berni du bis im NV Thread gelandet:fresse2:
 
Ja weiss, wollte nur preisgeben das für Ultra HD auch die 1080 Karte zu langsam sein wird, die Reale Mehrperformance 15 bis 20% über einer GTX 980TI Stock reissen da keine Bäume aus!
Zudem gebt Euch mal dies:

NVIDIA GeForce GTX 1080, 8GB GDDR5X, DVI, HDMI, 3x DisplayPort Preisvergleich | geizhals.eu EU

NVIDIA GeForce GTX 1070, 8GB GDDR5, DVI, HDMI, 3x DisplayPort Preisvergleich | geizhals.eu EU

GTX 1070 Stock Takt 1127 und Boost nur 1216 Mhz
Zudem jedoch aber auch stolze 2304 Shader!
Dies wäre schwach, bzw. kann auch ein OC Wunder bedeuten!

TerraFlops wurden schon mal von NV aufgerundet und die 1070 Taktet schon bissi tief im Vergleich zur GTX 1080, dafür aber auch nur 10% geringere Shaderanzahl!
Könnte ein echtes OC Vieh werden!
 
Jetzt hast nen Korb geworfen.
Denke mal das wird noch nicht passen mit dem Takt.
Bzw wenn man den Auschnitt hier liest könnte sich das grob ausgehen.
Die Geforce GTX 1070 wurde erst zum Ende hin als Ass aus dem Ärmel geschüttelt, wobei einige Details noch unbekannt verbleiben. Statt GDDR5X kommen 8 GiByte GDDR5 zum Einsatz, zudem fällt die theoretische Rechenleistung mit 6,5 statt 9,0 TFLOPS um knapp 30 Prozent geringer aus. Denkbar wären also 1.792 Shader bei ähnlichem Takt oder 2.048 bei niedrigerem. Die GTX 1070 soll leistungstechnisch noch über einer GTX Titan X liegen
Am Ende wohl viel Taktpotenzial oder Coustoms mit ordentlich speed.
 
Zuletzt bearbeitet:
Würde mich nicht auf die Angaben (GZ) verlassen. Die Karten sind noch nicht draussen.
 
Für den ersten Moment bin ich aber dennoch eher unbeeindruckt. Gerade weil auch eine deutliche effizientere 16nm Technologie zum Einsatz kommt, wäre ja zumindest anzunehmen, dass die Leistung bei gleichem Takt steigt. Das Gegenteil ist aber der Fall.
Dann müssen ja scheinbar Frontend etc. noch nicht wirklich optimiert sein...

Wieso sollte sich die Leistung einer Architektur durch eine neue Fertigung erhöhen? Die Leistung pro Shader pro Takt bleibt bei Pascal gleich, die Karten werden nur durch die Kleinere Fertigung und dem damit höheren Takt punkten.
 
Nicht sehr beeindruckend, im Prinzip nur ein Shrink von Maxwell. Ok man hat etwas das Verhältnis der Shader optimiert(?).

Anhand der Transistor Zahlen ist davon auszugehen das die Consumer Karten kein 1:2 DP/SP besitzen, sondern wie Maxwell 1:32 oder vielleicht 1:16 besitzen werden. 1:2 bleibt GP100 vorbehalten.
Async Shader wird nicht unterstützt, sonst hätte man das denke ich gesagt*. Ist ja eins der größten Mankos von Maxwell.
Die 1070 ist eine 980 mit höherem Takt, aber gleich schnellem RAM(?)
Für einen einen Full-Node Shrink inkl. Fin-FET ging der Stromverbrauch auch nicht sonderlich nach unten.


Unterm Strich eher enttäuschend und die 2GHz dienen als Bauernfänger.


*Und bevor jetzt jemand kommt mit Async und DX12 interessiert keine Sau:
Schaut euch den Rest der Präsentation an, es werden x Features vorgestellt, die alle auf Compute basieren und ohne Async Shadern Performance kosten, mit Async Shadern voraussichtlich nicht Auch Nvidia shafft es nicht GPUs immer zu 100% auszulasten. Und eine Softwarelösung ist das was man vor Jahren unter DX11 schon konnten.
Und Async ist nunmal das interessanteste Feature von DX12 mal abgesehen vom geringeren CPU Overhead und dem erhöhten Drawcall-count.
 
Mal abwarten bis die ersten Tests draußen sind, bisher sind ja alles nur theoretische zahlen, keiner weiß genau wie es wirklich aussieht.

Auch AMDs Konter wird noch kommen, da kann es auch eine Überraschung geben.

Die 1070 könnte p/l technisch auf jedenfall eine sehr interessante Karte werden und die 1080 mit Ocing die absolute aktuelle leistungskrone holen. In paar Tagen wird so einiges klarer sein. Abwarten :)
 
@Roach: sehe ich genauso, mal gucken was AMD zu bieten hat. Der Preis der 1070 sagt mir persönlich zu und die Karte könnte meine 7970 ablösen wenn AMD nichts zu bieten hat.
 
Wieso sollte sich die Leistung einer Architektur durch eine neue Fertigung erhöhen? Die Leistung pro Shader pro Takt bleibt bei Pascal gleich, die Karten werden nur durch die Kleinere Fertigung und dem damit höheren Takt punkten.

Da hast du natürlich Recht! Man kann es nicht 1:1 vergleichen... Aber dennoch, wenn man sich auf die Aussage beschränkt, dass die 1080 nicht die erwartete Leistung zeigt mit dem Benchmark, liege ich glaube ich nicht so richtig falsch.
Man sollte natürlich alles abwarten. Aber das Firestrike Extreme Ergebniss ist eben das einzige, woran wir uns derzeit hochhangeln können.
 
@Roach: sehe ich genauso, mal gucken was AMD zu bieten hat. Der Preis der 1070 sagt mir persönlich zu und die Karte könnte meine 7970 ablösen wenn AMD nichts zu bieten hat.
Ich halte es schon für möglich, daß AMD von der Leistung her ungefähr mithalten kann. Aber vermutlich mit höherer Lautstärke, Temperatur und Leistungsaufnahme. Was letzteres betrifft, halte ich es fast für unmöglich da aufzuschließen.
 
Ich würde mal von Anfang Juni ausgehen.
 
Laut aktuellen Meldungen 27.Mai GTX1080 und 10 Juni.1070
 
mal ne frage an die redaktion/ die tester der karte:
NVidia preist ja das neue feature an das triple screen setups jetzt im treiber ihre korrekte berechnung der äusseren monitore machen kann was vorher im spiel selber eingestellt werden musste.
werdet ihr das auch testen anhand von games die keine nativen triplessupport haben (PCars zb oder R3E)?
oder nur die üblichen tests?
 
Ich halte es schon für möglich, daß AMD von der Leistung her ungefähr mithalten kann. Aber vermutlich mit höherer Lautstärke, Temperatur und Leistungsaufnahme. Was letzteres betrifft, halte ich es fast für unmöglich da aufzuschließen.

Bedenke, dass Polaris als 14nm Architektur erscheinen wird. Das ist effizienztechnisch - zumindest in der Theorie - ganz weit vorne!
 
Das stimmt, allerdings könnte AMD um aufschließen zu können die takt schraube brutal anziehen und dann würde das ja wieder zu Lasten der Leistungsaufnahme gehen. Aber das ist ja alles nur reine Spekulation. Wer weiß was AMD aus dem Hut zaubert, möglicherweise werden die Karten ja komplett neu gemischt. Für den Markt und den Wettbewerb wäre es zumindest wünschenswert.
 
Vielen Dank für die Antworte. Ich weiß, niemand von euch hat eine Glaskugel und wir können uns nur auf theoretischen Daten berufen ABER wenn man vor hat 4K Games zu zocken, sollte das mit der 1080 Problemlos funktionieren oder? Aktuell schwitzt die GTX970 zu sehr.

Es gibt noch keinen Laden, wo man vorbestellen kann oder?

LG
 
Vorbestellen wird ab dem offiziellen launch möglich sein und wenn die 1080 auch in der Praxis ihre rund 20% mehr Leistung auf die Titan x hat und mit Ocing noch weitaus mehr, sieht es für 4k recht gut aus würde ich sagen. Kommt natürlich auch auf die Anforderungen der games zukünftig an. Im Vergleich zur 970 wird der leistungssprung sicher beachtlich sein.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh