NVIDIA präsentiert die GeForce GTX 1080 auf Basis der Pascal-Architektur (Update)

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ach ja, dann link mit mal nen AMD Vapor Chamber vollmetall

.. oh, ganz vergessen die AMD kann man ja nur von Sapphire kaufen Mit halbwegs ordentliche Kühlern (custom) ... verlangen da auch seltsamerweise mehr

ich kenne kein kühldesign mit blowout was effizienter wäre (und immer bedenken man baut für 2-4X SLI ... da sind Customs am Po)

ist wie jemand der sagt OMG mein SAS Controller wird zu warm (der auch nicht auf Casespecs guckt)
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Grafikkarten-854307/

So und nun? Etwas mehr Spannung auf Kepler oder Maxwell abseits der feinen Voltage Granulierung betrieben, so das die gleiche Leistung wie bei Hawaii in Wärme umgewandelt wird und die Nvidia Referenzkühler werden ebenso zu einer Turbine. Der Unterschied bei Sapphire zwischen den Dual oder Triple X und den Vapor X Kühlern beträgt übrigens keine 100 Euro, zumal der Unterschied sich nicht nur auf die Kühler beläuft , sondern das Pcb ist auch hochwertiger bestückt. Vapor Chamber bei Referenzkühlern ist jedenfalls Ideal Standard und absolut nichts besonderes. Selbst die 580gtx hatte so ein Teil, mit dem bekannten Erfolg


http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-580

Nur hatte das Gerät kein besonders hochwertiges Sichtfenster, was einen Einblick in die besonders hochwertigen Alukühlfinnen gewährleistet. Entscheidend für den Wärmeaustausch ist die Konvektionsfläche und die ist bei allen DHE Kühlern begrenzt. Hinzu kommt die Strömungsgeschwindigkeit der wärmeabführenden Luft und die lässt sich nicht folgenlos erhöhen.

Gesendet von meinem GT-I9300 mit Tapatalk
 
Zuletzt bearbeitet:
Alle Designs haben ihre Vor- und Nachteile. Perfekt wäre natürlich ein Referenz- PCB mit mindestens zwei 8- Pin Steckern und entsprechender mehrphasiger Stromwandlung um gut übertakten zu können und Spulenfiepen vorzubeugen. Leider muss man sich entscheiden, ob man Kompatibilität wählt(Referenzdesign) oder Übertaktbarkeit(Custom- PCB) - wobei man erwähnen muss, dass es sicherlich auch Schrott- Custom- Designs gibt, wo noch das Referenzdesign besser wäre. Da lohnt sich also ein genauer Blick.
 
Die Specs der 1070 sind bislang wohl noch unbekannt, oder? Mich würde echt die Shaderzahl interessieren, 2048 wäre was wenig vom Unterschied her, bei Kepler war es nur 1 Cluster und bei Maxwell 3. 2100-2300 halte ich für wahrscheinlicher.
 
Bei dem Chip kann man halt auch viel über die Drehzahl machen.
 
Er ist ja auch NV Mitarbeiter (Sean Pelletier)
 
Die sind doch nicht neu. So umwerfend ist das letztendlich nicht, etwas über einer OC 980Ti, und dann auch nur ein Benchmark.
 
oaah wisst ihr noch wo nach dem release der fury(x)/nano überall hieß "jetzt werden eh alle karten so klein" :d

@Don ... ja her mit den Ergebnissen :d! da warten ein paar jungs in den kaufberatungsthreads auf die Entscheidung ob 980ti oder 1080

- - - Updated - - -

odee sogar "nur" 1070
 
Sorry falls es alt sein sollte:

Easy OC auf 2144MHZ und nur max 56 Grad mit dem Referenzkühler!

x6mnRS6.jpg








Quelle: NVIDIA GeForce GTX 1080 PCB, GP104 Die and GDDR5X Pictured In Detail - Features 5+1 Phase VRM Supply, HB SLI Bridge Detailed
 

Anhänge

  • fsdfds.jpg
    fsdfds.jpg
    47,5 KB · Aufrufe: 77
Was ich mal richtig gut fänd, wäre ein Custom DHE von sehr hoher Qualität und einfach etwas größer dimensioniert. Also vielleicht 70 statt 65mm Gebläse, das dann auch noch statt z.B. 23mm, dann 32mm tief ist. Ensprechend dazu noch den Kühlkörper überarbeitet und fertig ist die für mich perfekte GPU...

Oder vielleicht mal ein triple slot DHE Kühler.
 
Hoffe eher auf 6Gb vram und sie wird wohl kaum Ti leistung bieten, hoffe auf GTX980 leistung zum günstigen preis.
 
Wie soll denn die GTX 1060 so schnell sein wie eine 980 Ti /Titan X? eine übertaktete 980 Ti auf 1500Mhz ist ~ genausoschnell wie eine 1080@ Stock, was die ersten geleakten Tests besagen.
Das ist mehr als Gerede und zu 100% falsch. Sie wird meiner Einschätzung nach echte 4GB Vram haben und knapp unter der Leistung der GTX 970 liegen.

Vielleicht wird sie auch einfach nur eine gerelabelte 970 mit echten 4GB und die 1060 Ti (falls es sie geben wird), wird dann erst mit der 16nm Technologie sein.

Edit: Hier nochmal aus #439 zitiert:

even.de schrieb:
Habe gerade mal nach dem FSE Ergebnis geschaut mit der 1080 und mit meinem Ergebnis der 980 Ti verglichen...

GTX 1080 @ 1860Mhz: Generic VGA video card benchmark result - Intel Core i7-3770 Processor,ASUSTeK COMPUTER INC. P8Z77-V LX
GTX 980 Ti @ 1506Mhz: NVIDIA GeForce GTX 980 Ti video card benchmark result - Intel Core i7-4790K,ASUSTeK COMPUTER INC. MAXIMUS VII HERO

Wenn das Ergebnis tatsächlich von einer 1080 stammt, wäre ich enttäuscht von der Leistung.

Man sollte da lediglich auf den GPU-Score achten.

1080 @ 1860Mhz (130Mhz über Stock Boost)
980 Ti @ 1506 Mhz (425Mhz über Stock Boost)
 
Zuletzt bearbeitet:
Es ist noch nicht mal klar, wo die 1070 zur Ti stehen wird.
 
stelle die frage mal hier: habe gehört die GTX 1060/4GB soll wenn sie kommt die leistung der jetzigen GTX980Ti haben, ist das nur gerede. oder gibt es schon infos ?

Das stimmt nicht. Maximal so stark wie eine 970 heute. 1070 soll angeblich so stark wie eine 980ti/TitanX werden. Genau wissen wir es erst wenn Benchmark da sind.
 
Dürfte wohl erst der Fall sein, wenn HBM im Midrange/Performance, Einzug erhält. Eventuell Ende nächsten Jahres.

Wollt grad sagen, dass liegt aber eher an HBM, dass die Karten so klein sind. Allerdings finde ich es nicht mal gut, wenn sie so klein sind.
Gibt doch nichts cooleres als nen richtigen Brecher im Gehäuse zu haben, am besten 2 davon :fresse:
 
Das stimmt nicht. Maximal so stark wie eine 970 heute. 1070 soll angeblich so stark wie eine 980ti/TitanX werden. Genau wissen wir es erst wenn Benchmark da sind.
(post bezogen auf die 1060)

Ich hoffe es wird anders kommem, beim letzten shrink hat die 660 auch die alte 580 leistung erreicht/überboten.

Aber das ist natürlich nur reine spekulation.
 
Das ist vor allem eine andere Situation.
Damals waren GTX 560 bis 580 auf dem GF110 basierend, mit einer Chipfläche von 520mm² mit ca. 3 Mrd. Transistoren. GK106, auf dem die GTX660 basiert, hatte eine Chipfläche von nur 214mm² und 2,5 Mrd. Transistoren.
Heute schrumpfen wir von einer GTX980 Ti mit 602mm² mit 8 Mrd. Transistoren auf 330mm² mit 7,2 Mrd. Transistoren.

Das bedeutet, dass die GTX1080 relativ zur Größe auch nur so mittelklassig ist, wie eine GTX660 damals war.
Edit: Und wie schon mehrfach angedeutet, ist zu erwarten, dass innerhalb des nächsten Jahres die wirklichen HighEnd- Chips dann über 500mm² kommen, womit tentenziell mit Übertaktung eine Leistung möglich sein müsste, die bis zu 3x der Titan X- Leistung entspricht.
 
Zuletzt bearbeitet:
1080 etwas stärker als ne Titan X
1070 auf Höhe mit ner 980Ti
1060 müsste dann 970/980 entsprechen
ich tipp ma eher auf 980-Niveau
 
1080 etwas stärker als ne Titan X
1070 auf Höhe mit ner 980Ti

Wobei das ja alles relativ ist. Nicht umsonst sind die 3D-Mark Rankings gefüllt mit extrem übertakteten 980 Ti's, wogegen selbst eine Titan X mit mehr Shadern etc nicht ankommt. Einfach weil es keine gescheiten PCBs gibt, die extremes OC zulassen. Aber für den Otto-Normalo wird das sicherlich zutreffen.

Was spannend bleibt ist, was der Big-Pascal leistet. Die GP100-Daten sind ja shcon bekannt. Die 1080 Ti wird denke ich nochmal sehr sehr viel mehr leisten können als die "poplige" 1080 Non-Ti, weswegen ich auch definitiv auf den Big-Pascal-Release warte mit HBM2. 8GB HBM2 würden mir da bei der 1080 Ti schon völlig genügen :d Mit ~3500 Shadereinheiten und ~15Mrd Transinstoren (Im Vergleich zu 7,2 Mrd bei der 1080) wird das nochmal eine ganz andere Hausnummer.
 
Und was bring dir der ganze HBM2 Schmarn? Verstehe den Wind darum im Desktopsegment echt net, bei den Pups-Spielchen die man sich heute kaufen kann.

Obwohl ich bei einem 512Bit SI samt GDDR5 8GB Chips für 600,- bei GP102 mal net sooooo abgeneigt wäre :d und dann noch 128 Rops! JO!
 
Zuletzt bearbeitet:
Naja in manchen Situationen zahlt sich eben ein großes SI aus. Das ist mit HBM eben der Fall. Geht da aber auch um den Fortschirtt, den ich gerne einfahc mitnehmen will.
Die bisherigen Benchmarks der 1080 sind für mich eben kein Kaufargument als 980 Ti Besitzer. Da müssen eine größere Die und mehr Shadereinheiten her :d
 
für mich auch nicht. tröste mich dennoch ein klitze kleines bisschen damit, dass ich das ausgereifteste 28nm-Produkt habe, dass es gab (bei GraKas). und nicht eins der ersten, unausgereiften neuen 16nm-Produkte. auch wenn die nen Ticken flotter sind. und sparsamer. und mehr VRAM haben. ich hoff echt, dass es das mit den "unds" dann auch war. wenns jetz noch was geiles neues wie das MFAA gibt, dann beiß ich mir doch langsam in den Allerwertesten. aber davon hab ich nix gehört oder gelesen.
 
Naja in manchen Situationen zahlt sich eben ein großes SI aus. Das ist mit HBM eben der Fall. Geht da aber auch um den Fortschirtt, den ich gerne einfahc mitnehmen will.
Die bisherigen Benchmarks der 1080 sind für mich eben kein Kaufargument als 980 Ti Besitzer. Da müssen eine größere Die und mehr Shadereinheiten her :d

Dann biste aber auch wieder im 250Watt TDP Bereich. Finde ich persönlich, als ex GTX470 SLI User, null bezaubernd...

Hätte mir auch lieber ein größeres SI bei dem GP104 gewünscht, aber Nvidia will ja ums verrecken net darüber gehen im 180Watt TDP Segment :p
 
Zuletzt bearbeitet:
Mir ist 250W TDP absolut genehm solange die Leistung entsprechend stimmt.
 
Oder vielleicht mal ein triple slot DHE Kühler.

Der tiefere Lüfter und Kühlkörper würde eh auf Triple Slot hinaus laufen ;)

- - - Updated - - -

1080 etwas stärker als ne Titan X
1070 auf Höhe mit ner 980Ti
1060 müsste dann 970/980 entsprechen
ich tipp ma eher auf 980-Niveau

Was ich bisher gesehen habe, müsste die Lücke zwischen GTX1080 und 1070 doch größer werden...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh