NVIDIA präsentiert die GeForce GTX 1080 auf Basis der Pascal-Architektur (Update)

Aber wieso reden wir in eine Grafikkarten Thread über ein OS, das so gut wie niemanden interessiert.

Timeline:

ich sagte ich muss NVidia wegen Linux und HDMI 2.0 derzeit nutzen
du schweiftest ab ich soll win10 nutzen
ich weigerte mich ^^

drum schrieb ich hier auch schon dass ich auf ne günstige 980 (nonTI) hoffe aus dem Abverkauf
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
fdsonne schrieb:
Ähnliches hatte ich mit Kepler durch... Von Fermi SLI auf GK104 auf GK104 SLI auf GK110 auf GK110 SLI. Dann war schluss... Maxwell hab ich ausgesessen... Und AMD bot zur damaligen Zeit keine Alternative. Nichtmal Downsampling ging...
Nun steht GP104 an. Oder Polaris. Mal sehen, wohl wirds aber GP104, wenn AMD nicht aus dem Hintern kommt. Das ganze natürlich im Doppelpack, sonst wirds nichts bringen (außer im VRAM Limit bei der 780TI)
9k FSE Punkte im GPU Score packe ich auch spielend... Die ~15% mehr bei einer 1080er aus dem 1,86GHz Wert überzeugen da nicht. Mit zweien aber schon eher ;)

Dito... Die 9,X K Punkte im FSE schaffe ich auch mit meiner single 980 Ti. Aber wie gesagt... von Objektivität bin ich leider bei solchen Käufen immer gaaaanz weit entfernt.
Vielleicht kauf ich auch einfach eine zweite 980 Ti... werden ja jetzt wohl alle ihre schönen Karten verschleudern :d
 
100$ Mehrpreis? Da müßte das PCB ja aus Gold sein XD Ich denke mal, daß Nvidia hier vielleicht auch eine kleine Mogelpackung anbietet. Auf Anandtech stand nämlich, das wahrscheinlich viele der AIBs ihre Karten (Asus, MSI und Co.) am Anfang auch im Reference Design anbieten werden, und erst später dann ihre Custom Designs in den Markt werfen. Der AIB Preis war ja 599$. Vielleicht braucht ja Herr Jensen einfach ein wenig mehr Geld, denn so Tesla Autos sind ja nicht ganz billig ;)
Hersteller Designs kosten auch locker mal 100€ aufwärts mehr als ein 'billiges' Referenzdesign, erfinden aber die Grafikkarte auch nicht neu. Eine breite Spannungsversorgung (für OC) und leise Kühlung sind meist die einzigen nennenswerten Unterschiede, beide Faktoren 'kann' das GTX 1080 Referenzdesign ja unüblicherweise auch bieten, 67°C bei über 2100MHz sehen ja erstmal vielversprechend aus. Die Referenzdesign Karten werden laut meiner Info mit einem UVP von 699$ starten, egal welcher Hersteller das in den Handel bringt. Die vom nVidia Referenzdesign abweichenden Herstellerdesigns soll zwei Wochen später ab 599$ starten. Ich empfinde es als völlig sinnlos verschwendete Zeit mir Gedanken zu machen ob Jen-Hsun Huang Geld braucht oder ein Tesla Auto fährt.


Welches Interesse hat Nvidia denn in Konkurrenz zu den Leuten zu treten, die ihnen die Chips abkaufen? Ich verstehe es aus wirtschaftlichen Gründen nicht.
nVidia macht in erster Linie mit seinen GPUs das was sie wollen. Bei den Titan Grafikkarten hat man den Boardpartnern sogar untersagt eigene Designs zu erstellen, es gab nur das Referenzdesign. Was soll nVidia also davon abhalten ein qualitativ hochwertigeres Referenzboard mit noch besserer Referenzkühlung im Vergleich zu Kepler und Maxwell aufzulegen und sich das bezahlen zu lassen, ähnlich wie hochwertigere Partnerdesigns?!
 
Nach 5 Jahren 28nm Node bin ich ja mal wieder so richtig in Pionierlaune: also Finfet+ / 14nmLPP oder gar nichts!
 
mich interessiert eigentlich zu 90% die projektionsanpassung auf 3 Monitoren

könnte ein SW Feature sein, dann ist mir die 10er egal (sollte es für die 9er kommen)
 
Dito... Die 9,X K Punkte im FSE schaffe ich auch mit meiner single 980 Ti. Aber wie gesagt... von Objektivität bin ich leider bei solchen Käufen immer gaaaanz weit entfernt.
Vielleicht kauf ich auch einfach eine zweite 980 Ti... werden ja jetzt wohl alle ihre schönen Karten verschleudern :d

schimpf es einfach Hobby und kauf das Ding...
Man lebt nur einmal ;)
So mach ich das bei Entscheidungen, wo ich nicht so recht weis, ob es sinnvoll ist :fresse:
 
Vielleicht ist das eine Erkenntinis, die du aus der Pubertät mitnehmen kannst, sobald du sie verlässt: manchmal wird man enttäuscht.
Die Gtx 980 fand ich interessanter 28nm und doch so viel :).
deine Antwort Man darf halt nicht vergessen, dass hier viele Leute noch sehr jung und leicht zu manipulieren sind. Die landen dann bei AMD und werden ausgenommen wie eine Weihnachtsgans.

In deiner Signatur steht du hast ne AMD r9 270,

also würdest du dich als jung und leicht zu manipulieren nennen ?
 
Hersteller Designs kosten auch locker mal 100€ aufwärts mehr als ein 'billiges' Referenzdesign, erfinden aber die Grafikkarte auch nicht neu. Eine breite Spannungsversorgung (für OC) und leise Kühlung sind meist die einzigen nennenswerten Unterschiede, beide Faktoren 'kann' das GTX 1080 Referenzdesign ja unüblicherweise auch bieten, 67°C bei über 2100MHz sehen ja erstmal vielversprechend aus. Die Referenzdesign Karten werden laut meiner Info mit einem UVP von 699$ starten, egal welcher Hersteller das in den Handel bringt. Die vom nVidia Referenzdesign abweichenden Herstellerdesigns soll zwei Wochen später ab 599$ starten. Ich empfinde es als völlig sinnlos verschwendete Zeit mir Gedanken zu machen ob Jen-Hsun Huang Geld braucht oder ein Tesla Auto fährt.

Beantwortet aber nicht dir Frage des Aufpreises, denn die GTX1080 vervbraucht nur 180Watt und die Kühlleistung des Ref. Kühlers samt Vaporchamber einer GTX980ti schafft da locker 250Watt und mehr. Und das Designs des Shrouds? Soll 100$ Dollar kosten? Ne, ich glaube, die ersten Wafer hatten eben nicht die große Ausbeute, und deshalb der Aufpreis. Wie gesagt, meine Quelle sagt AIB Verfügbarkeit erst Mitte Juli, nicht 2 Wochen später. Mal abwarten...
 
Bei den Titan Grafikkarten hat man den Boardpartnern sogar untersagt eigene Designs zu erstellen, es gab nur das Referenzdesign.

Bist du dir da sicher? Es gibt doch sogar eine Titan X von Gigabyte, Zotac und EVGA mit Custom-Kühlern...
Meines Erachtens ists nur einfach unrentabel für die Hersteller, für eine 1000€ Karte eigene Kühler/PCBs zu designen!?
Wer eine 1000€ Titan X kauft, schnallt in über 50% der Fälle sowieso einen Wasserkühler drauf.

fdsonne schrieb:
schimpf es einfach Hobby und kauf das Ding...
Man lebt nur einmal ;)
So mach ich das bei Entscheidungen, wo ich nicht so recht weis, ob es sinnvoll ist :fresse:

Naja, man muss es ja nicht mal so "schimpfen", denn es ist ja die Wahrheit. Man macht sich ja nichtmal was vor, wenn man es Hobby nennt.
Andere kaufen sich eben eine Angel aus Carbon für 1000€ :d
 
Zuletzt bearbeitet:
Ich denke NV macht es wie immer

early Adopter sollen etwas bluten aka preorder in games

die guten (kühlen) Dies sind eh für die Großrechner reserviert
 
Zuletzt bearbeitet:
Beantwortet aber nicht dir Frage des Aufpreises, denn die GTX1080 vervbraucht nur 180Watt und die Kühlleistung des Ref. Kühlers samt Vaporchamber einer GTX980ti schafft da locker 250Watt und mehr. Und das Designs des Shrouds? Soll 100$ Dollar kosten? Ne, ich glaube, die ersten Wafer hatten eben nicht die große Ausbeute, und deshalb der Aufpreis. Wie gesagt, meine Quelle sagt AIB Verfügbarkeit erst Mitte Juli, nicht 2 Wochen später. Mal abwarten...
Die Frage des Preises kann dir höchstwahrscheinlich niemand beantworten, es sei denn er arbeitet bei nVidia in der Finanzabteilung. Wenn ich raten sollte sind es die ganz offensichtlichen Faktoren wie teure unausgereifte 16nm Fertigung, schlechte Ausbeute vollfunktionfähiger GP104 Chips, teurere und schlecht verfügbare GDDR5X Speicherchips, verdoppelter Grafikspeicher.
 
Zuletzt bearbeitet:
Bist du dir da sicher? Es gibt doch sogar eine Titan X von Gigabyte, Zotac und EVGA mit Custom-Kühlern...
Meines Erachtens ists nur einfach unrentabel für die Hersteller, für eine 1000€ Karte eigene Kühler/PCBs zu designen!?
Wer eine 1000€ Titan X kauft, schnallt in über 50% der Fälle sowieso einen Wasserkühler drauf.
Ja wurde doch in allen Reviews so geschrieben. Die Lösung einiger Hersteller einen weiteren besseren Kühler einer Titan dazu zu packen, war doch nur ein 'einfacher' Weg die nVidia Vorgabe zu umgehen. Ich lehne mich mal weit aus dem Fenster und behaupte einfach mal, das Aufgrund der Ähnlichkeit von Titan X und 980 Ti es kaum einen nennenswerten Aufwand für die Hersteller bedeutet hätte, eine Titan X mit einem Custom 980 Ti PCB in den Handel zu bringen.
 
das kühlerdesign ist immer relativ zu sehen

wenn man nur eine Karte nutzt ist ein custom ok

... allerdings kacken die ab wenn man 2-4 ohne Space dazwischen hat

das Blowout ist schon sinnvoll für den Zweck, da ein inCase nie die Wärme abführt
 
Zuletzt bearbeitet:
Naja aber wie konnten dann die genannten Karten auf den Markt gebracht werden, wenn es von NVIDIA untersagt wurde!?
Ich glaube nicht, dass Gigabyte, Zotac und EVGA einfach darauf scheißen und es doch tun.
Das Ref-Design ist ja manchmal sogar sinnvoll. Für SLI z.B.

EDIT: pumuckel hatte es schon geschrieben ^^
 
Zuletzt bearbeitet:
nvidia zickt immer nur anfangs ... später ist es ihnen egal

so können Sie sagen : wenn du Quad SLI willst, warum haste nicht ref gekauft (wobei die Leute eh zu 99% ref kaufen oder WK einsetzen)

ist wie bei Servern .... irgendwann landet eh jeder mal bei Supermicro im Eco System ^^
 
Zuletzt bearbeitet:
Habe gerade mal nach dem FSE Ergebnis geschaut mit der 1080 und mit meinem Ergebnis der 980 Ti verglichen...

GTX 1080 @ 1860Mhz: Generic VGA video card benchmark result - Intel Core i7-3770 Processor,ASUSTeK COMPUTER INC. P8Z77-V LX
GTX 980 Ti @ 1506Mhz: NVIDIA GeForce GTX 980 Ti video card benchmark result - Intel Core i7-4790K,ASUSTeK COMPUTER INC. MAXIMUS VII HERO

Wenn das Ergebnis tatsächlich von einer 1080 stammt, wäre ich enttäuscht von der Leistung.

Standard GTX 1080 + Standard i7-3770 vs 1500MHz GTX 980Ti + 4600MHz i7-4790K ?!?!
 
Guck auf den GPU-Score. 1860 Mhz ist aber auch kein Ref.Takt. Der liegt mit vollem Boost bei 1733Mhz... Trotzdem find ich das zu schwach.
Der CPu-Takt ist hier nicht so relevant bei FSE, wenn man den reinen GPU-Score betrachtet.
 
Wenn das Ergebnis tatsächlich von einer 1080 stammt, wäre ich enttäuscht von der Leistung.

Ja, so war auch mein erster Gedanke...
Allerdings sollte man nicht außer acht lassen, das die Taktrate mit 1,86GHz "nur" ein paar Prozent über dem von NV angegebenen normalen Boost liegt. Ich denke, wenn Pascal auch ähnlich taktbar ist/bleibt wie Maxwell, dann sollten 30% größer Ref. boost defaktor möglich sein können. Ggf. aber mit viel Kühlaufwand/Mod Bios?
Eine 1500er GM200 GPU ist nun auch alles andere als Standard... Im stino Boost ohne groß werks OC stehen da ~1,1GHz.

Man kann natürlich voll in die "Kacke" greifen und nen Krüppel erwischen, der vielleicht gerade die 1,8GHz hält... Dann wird das wohl nix. Die 2,1GHz+ vom Event, sollte das nur ansatzweise einen realistischen Rahmen entsprechen, lassen aber auch auf "mehr" schließen.
 
Ja, so war auch mein erster Gedanke...
Allerdings sollte man nicht außer acht lassen, das die Taktrate mit 1,86GHz "nur" ein paar Prozent über dem von NV angegebenen normalen Boost liegt. Ich denke, wenn Pascal auch ähnlich taktbar ist/bleibt wie Maxwell, dann sollten 30% größer Ref. boost defaktor möglich sein können. Ggf. aber mit viel Kühlaufwand/Mod Bios?
Eine 1500er GM200 GPU ist nun auch alles andere als Standard... Im stino Boost ohne groß werks OC stehen da ~1,1GHz.

Man kann natürlich voll in die "Kacke" greifen und nen Krüppel erwischen, der vielleicht gerade die 1,8GHz hält... Dann wird das wohl nix. Die 2,1GHz+ vom Event, sollte das nur ansatzweise einen realistischen Rahmen entsprechen, lassen aber auch auf "mehr" schließen.

Absolut! Gerade die Taktbarkeit der Maxwells war das, warum ich so darauf abgefahren bin. Wenn jetzt natürlich die 2100Mhz Core vom Event nur die absoluten Perlen schaffen kann man schon sagen, dass der Leistungssprung für Übertakter alles andere als dolle ist.
Wenn man die Leistung bei Ref-Takt vergleicht sollte die 1080 nen Stück vorne liegen, aber dass es so wenig ist, hätte ich nicht gedacht.

Weiterhin spricht auch dagegen, dass die 1080 mit einem einzigen 8-Pin Anschluss in der Founders-Edition daherkommt, was in meinen Augen sehr gegen die super OCbarkeit spricht. Meine 980 Ti braucht ~320W TDP um die 1500Mhz halten zu könnnen also ganze 75W mehr als Stock. Bei 8Pin+PCIE sind wir bei 225Watt maximal die man da saugen kann bei der 1080. Dann dürfte ja der Verbrauch nur um 45W steigen von Stock-Takt zu 2100Mhz.
 
Zuletzt bearbeitet:
Eine 1500er GM200 GPU ist nun auch alles andere als Standard...

Ich denke mal 10% aller Käufer hatte die im 1400Ghz und mehr Bereich. Ist also nicht wirklich aussagekräftig, außer man möchte TSMC und Nvidia loben, wie gut der Shrink und die neue Architektur geklappt hat: GM200 war ein reines FP32 Monster...Megamonster.
 
was wieder interessant wird:

verbrauch mit 2-3 Monitoren (da patzte AMD ja immer)
und verbrauch im Desktop mit Video

zu 90% ist das mein Einsatz und da macht es schon was aus ob da 8-12W oder 40-70W verbraten werden

leider haben die Reviewseiten das zuletzt meist ausgeklammert
 
Zuletzt bearbeitet:
Ich denke mal 10% aller Käufer hatte die im 1400Ghz und mehr Bereich. Ist also nicht wirklich aussagekräftig, außer man möchte TSMC und Nvidia loben, wie gut der Shrink und die neue Architektur geklappt hat: GM200 war ein reines FP32 Monster...Megamonster.

Naja, aber darum gehts ja hier bei uns Luxxern... Wenn ich aber mal recht überlege war eine stark übertaktete 780 Ti auch nicht langsamer als eine 980 anfangs... bleibt eben immer abzuwarten, was Nvidia treiberseitig so mit den Karten anstellt.
Für den ersten Moment bin ich aber dennoch eher unbeeindruckt. Gerade weil auch eine deutliche effizientere 16nm Technologie zum Einsatz kommt, wäre ja zumindest anzunehmen, dass die Leistung bei gleichem Takt steigt. Das Gegenteil ist aber der Fall.
Dann müssen ja scheinbar Frontend etc. noch nicht wirklich optimiert sein...
 
nochmal, ich zitiere gern webmi oder mich selbst oder andere: nicht jeder interessiert sich für AMD Karten und nicht jeder dreht jeden Cent drei mal um und all diese wissen das nach der 1080 vor der 1080ti/TitanXYZ und nach diesen Karten vor der 1180 ist

Hab ich deine Gefühle verletzt? Ich hab unterstrichen dass die Karte so wie Maxwell ein Singlethreaded Stück Altmetall ist - und nicht die Breite deines Egos geschätzt. Langsam glaube ich dass die ganze Async Geschichte was mit x86 Licensing zu tun haben könnte. Das kann sich Nvidia ja bekanntlch nicht leisten.

mfg,
Markus
 
was wieder interessant wird:

verbrauch mit 2-3 Monitoren (da patzte AMD ja immer)
und verbrauch im Desktop mit Video

zu 90% ist das mein Einsatz und da macht es schon was aus ob da 8-12W oder 40-70W verbraten werden

leider haben die Reviewseiten das zuletzt meist ausgeklammert

Multimonitorbetrieb dürfte wohl ganz hinten immer liegen, wenn es um Dinge wie Stromverbrauch oder ähnliches geht, da die meisten ein Single Monitor Setup haben. Auch wenn groß dafür beworben, ich würde gelassen bleiben, sollten deine gewünschten Ergebnisse nicht erreicht werden.
Also ich freue mich jetze schon darauf, dann auf der Nvidia Webseite unter Driver Download die GTX1070 im dropdown auswählen zu dürfen. Geht mir seit der GTX8800 mit jeder neuen Graka so *sich wie ein kleines Kind jedesmal freut* :) neues Spielzeug eben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh