NVIDIA präsentiert die GeForce GTX 1080 auf Basis der Pascal-Architektur (Update)

Mir ist 250W TDP absolut genehm solange die Leistung entsprechend stimmt.
Ist das auch ein Grund, warum Nvidia Tri-Sli bei dem GP104 untersagt? Immerhin nimmt sich darin der GP104 mit 94°C Operating Temperature im Fermi Backofen Bereich auch net viel :d

Gosh! Wenn du einmal 2x 100°C Karten gehabt hast...ich sag dir: NIE WIEDER!!!!11!!!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wollt grad sagen, dass liegt aber eher an HBM, dass die Karten so klein sind. Allerdings finde ich es nicht mal gut, wenn sie so klein sind.
Gibt doch nichts cooleres als nen richtigen Brecher im Gehäuse zu haben, am besten 2 davon :fresse:

Wieso klein ist doch viel cooler, weil dann diese riesigen Rechenmonster verschwinden können ;)

Habe gelesen das Nvidia Triple Sli nicht untersagt, jedoch dann nur mit den bisher üblichen SLI Brücken mit reduzierter Übertragungsgeschwindigkeit... Also zwar technisch sinnfrei, aber realisierbar.
 
Zuletzt bearbeitet:
Ist das auch ein Grund, warum Nvidia Tri-Sli bei dem GP104 untersagt? Immerhin nimmt sich darin der GP104 mit 94°C Operating Temperature im Fermi Backofen Bereich auch net viel :d

Gosh! Wenn du einmal 2x 100°C Karten gehabt hast...ich sag dir: NIE WIEDER!!!!11!!!

Naja bisher ists glaube ich nciht wirklich bestätigt, dass es generell nicht geht. Es ist glaueb ich nur davon die Rede, dass Tri/4-Way SLI nicht mit der neuen Brücke funzt und somit nur bei alt-bekannter Bandbreite der SLI-Brücke operiert. Wissen tu ich es aber nicht.

Wieso klein ist doch viel cooler, weil dann diese riesigen Rechenmonster verschwinden können ;)

Habe gelesen das Nvidia Triple Sli nicht untersagt, jedoch dann nur mit den bisher üblichen SLI Brücken mit reduzierter Übertragungsgeschwindigkeit... Also zwar technisch sinnfrei, aber realisierbar.

Du sagst es. "Rechenmonster"!So sollte es nämlich sein. Am besten 40cm und 3-Slot Kühler! Genau wie bei Autos. Von Downsizing halte ich nichts.
 
Zuletzt bearbeitet:
Du sagst es. "Rechenmonster"!So sollte es nämlich sein. Am besten 40cm und 3-Slot Kühler! Genau wie bei Autos. Von Downsizing halte ich nichts.
Im Moment bin ich von mATX wieder zu ATX-Midi zurückgekehrt. Generell finde ich die Idee einen PC in der Größe eines Schuhkartons mit brachialer Leistung (im Vergleich zu den letzten Jahren) zu haben doch sehr attraktiv! ;)
 
Und was bring dir der ganze HBM2 Schmarn?

Der hauptvorteil von HBM gegenüber der Altbewährten Funktion ist die Gestiegene Leistung pro Watt.
Es ist einfach sehr viel Effizienter. Das ist der Hauptgrund warum HBM überhaupt entwickelt wird.

Eine GTX1080 mit HBM2 wäre noch sparsamer bei gleicher Leistung, als mit GDDR5X.
 
Zuletzt bearbeitet:
Beim Firestrike Extreme + Ultra knapp 30% Mehrleistung gegenüber der Titan X.
 
Zuletzt bearbeitet:
Und KiddieMark ist sinnlos. Mit den Punktzahlen kann man sich nichtmal den PoPo abwischen. Sag NICHTS über spieletauglichkeit.

- In-Game Ergebnisse sind das einzig Wahre. FPS (min.) / Frame-Times.

Mir bringen 1000000 KiddieMark Punkte garnichts wenn das Game rückelt :d
 
Du sagst es. "Rechenmonster"!So sollte es nämlich sein. Am besten 40cm und 3-Slot Kühler! Genau wie bei Autos. Von Downsizing halte ich nichts.

Was willst du denn auf so einer GPU mit HBM noch alles verbauen? ;)
Downsizing muss nicht sein, aber die vorhanden Resourcen dürfen schon gerne genutzt werden und das möglichst effektiv!

- - - Updated - - -

Und KiddieMark ist sinnlos. Mit den Punktzahlen kann man sich nichtmal den PoPo abwischen. Sag NICHTS über spieletauglichkeit.

- In-Game Ergebnisse sind das einzig Wahre. FPS (min.) / Frame-Times.

Mir bringen 1000000 KiddieMark Punkte garnichts wenn das Game rückelt :d

Naja, hat nicht viel mit Kiddiemark zu tun, jedem das seine... (sind ja Hobbys) Außerdem ist es schon doch ein Möglichkeit die Leistung einzuschätzen.
 
Eine ungefähre Einschätzung bekommt man mit dem Kiddiemark schon aber für Spieler letztlich nicht 1:1 übertragbar bzw. aussagekräftig.
 
Wenn Du weißt, wie viel Punkte eine andere Karte hat, sind mit Benchmarks schon die einen oder anderen Vergleiche möglich.
 
aber teilweise werden treiber azf benchmarks optimiert. lasst lieber in spielen testen stecken sie die optimierungszeit eher dahinein..
 
Ja, dann werden sechs Spiele gebencht und das Ergebnis ist in Summe genau so repräsentativ ...
Alleine in ein und dem selben Spiel kann es szenenabhängig sein...
 
also wenn die benches stimmen ist die 1080 echt ne sehr anständige leistungssteigerung gegenüber der 9xxer-serie.
mit 2.1ghz mal eben eine oc 980ti mit 1.8ghz egalisiert... nicht schlecht. ^^'
ok, es wird sich auch noch zeigen müssen, ob die 2.1ghz auch wirklich so schnell schnell erreicht werden können oder obs nur die top chips schaffen.

freue mich gerade echt darüber. so sollten die generationsunterschiede immer sein. fehlt nicht mehr viel und meine 780ti wird um das 3fache geschlagen... jetzt bin ich echt gespannt was amd aus dem neuen prozess und den neuen designs rausholen kann.
 
also wenn die benches stimmen ist die 1080 echt ne sehr anständige leistungssteigerung gegenüber der 9xxer-serie.
mit 2.1ghz mal eben eine oc 980ti mit 1.8ghz egalisiert... ....

die 980Ti lief nicht mit 1,8.

Danke, even.de für die Firestrike-Links.

- - - Updated - - -

man liest ja auch überall "gtx1080 up to 2,4/2,5GHz?"
wo lieste das denn?

- - - Updated - - -

Was ich net raff ist: wenn Nvidia mit software Compiler genauso schnell ist wie AMD mit hardware Async, worin liegt dann ein nennenswerter Defizit?

die Frage ist mal gut! aus der Sicht, der Leute, von denen wir das immer hören, ist das nennenswerte Defizit die Möglichkeit, dass es hardwarebasiert eines Tages bei irgendwas irgendwie doch ganz dolle ausschlagebend sein könnte für irgendwas ganz doll wichtiges. hust ... so ungefähr.
 
die Frage ist mal gut! aus der Sicht, der Leute, von denen wir das immer hören, ist das nennenswerte Defizit die Möglichkeit, dass es hardwarebasiert eines Tages bei irgendwas irgendwie doch ganz dolle ausschlagebend sein könnte für irgendwas ganz doll wichtiges. hust ... so ungefähr.

Also wenn die Async Shaders so funktionieren wie sie sollen, sollte es eigentlich überhaupt nicht möglich sein, sie per Software zu simulieren.
Bei ner Singlecore-CPU kannst du auch nicht per Software einfach mehr Leistung draus machen, auch wenn du mehrere Threads auf sie los schickst...

Wir reden hier aber von Karten die noch nicht draussen sind, also mal abwarten.
 
Was ich net raff ist: wenn Nvidia mit software Compiler genauso schnell ist wie AMD mit hardware Async, worin liegt dann ein nennenswerter Defizit?

Sie sind nicht "genau so schnell" - im Gegenteil.
1. Unter DX12 wird Async auf Nvidia Karten einfach nicht verwendet (Siehe AOTS - musste deaktiviert werden da ansonsten unterirdische Performance)
2. DX12 wird wie DX11 interpretiert, wodurch die Performance sogar im Vgl. zu DX11 sinkt (siehe alle "richtigen" DX12 Implementierungen bisher).

Im AOTS DX12 1080 Benchmark sieht man, dass die 1080 vom Takt her identisch im Vergleich zur 980Ti skaliert, ergo derselbe Leistungsverlust unter DX12 besteht (bzw. genauer gesagt derselbe Nicht-Leistungsgewinn).

mfg,
Markus
 
Zuletzt bearbeitet:
ich warte mal erst Benchmarks ab... Das kann dauern, weil es einfach 1. die Karten noch nicht getestet wurden, 2. weil es noch viel zu wenige DX12 Spiele gibt um etwas gescheites schlussfolgern zu können. Wer entscheidet, welches Spiel DX12 denn richtig einsetzt? Keiner von uns...

Die entwickler entscheiden welche DX12 Features Sie verwenden wollen und erst die Praxis wird zeigen, wie es am Ende ausschaut...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh