NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Mal eine Frage, da ich bei den momentanen GTX1080-Preisen etwas schlucken musste, und eigtl. Interesse hatte.

Ist es nicht sinnvoller eine GTX1070 zu verbauen, und irgendwann später eine zweite 1070 hinzu zwecks SLI?

So wie ich gelesen habe soll die 1070 nicht so "teuer" sein und trotzdem massiv Leistung bieten, also würde sich da nicht SLI sinnvoller in der Preisgestaltung für den eigenen Rechner machen?

Mein Board unterstützt kein SLI, aber es interessiert mich trotzdem die Meinung der begeisterten Profis hier zu lesen.

Naja willst du später eine vielleicht schon veraltete Karte nachkaufen. Macht man eigentlich sowieso nicht. Entweder gleich SLI oder sein lassen. Meine Meinung!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie schon mehrfach erwähnt, lohnt sich der Aufpreis selten. Die Frage ist auch, wofür braucht du den Spaß? Ohne 4k oder 144Hz ist das absolut nicht zu empfehlen. Dann lieber von 70er zu 70er Generation hangeln und die alte Karte rechtzeitig verkaufen.
 
Das ist eigentlich mein Plan. Jetzt ne gtx1070 kaufen und später ne gebrauchte zweite.

So hab ich das bei meiner gtx670 auch gemacht und bin damit echt gut gefahren. Konnte bis jetzt fast alles ultra @wqhd zocken.
 
Zuletzt bearbeitet:
Ja also ich meinte nicht, eine 1070 jetzt kaufen bzw nach Release und nach 3 oder 4 Jahren eine hinzu, sondern eher, eine 1070 jetzt anschaffen und nach einem Jahr eine zweite hinzu, also sollte für kommende Games wie BF1 oder das bereits auf dem Markt erhältliche The Division zB etc eine 1070 reichen, welche wirklich gute GPUs verlangen, und eben ein Jahr später für die in der Zeit erscheinenden Titel im SLI dann halt.

@DeLuXe50, ja genau so ungefähr, wenn man dann später mehr Leistung benötigt, und da die 1070 8GB VRAM bietet wäre es doch keine schlechte Sache.

Sorry für mein schriftliches Durcheinander, aber hoffe es kommt richtig rüber.
 
Aus 50fps 100fps ist auch Blödsinn. SLI gibt eigentlich - genauso wie CrossFire - niemals nie 100% mehr Leistung dazu. Im großen und ganzen kann man sagen, zwischen 50-80% mehr FPS, Ausnahmen sind darunter und darüber zu finden.

logisch, dass man sich da nicht zu pauschalaussagen hinreissen lassen sollte. für mich ist das zuschalten der zweiten karte eine option, die zum glück in meinen präferierten spielen auch anständig greift. hier mal ein beispiel aus battlefront sGPU vs. mGPU auf meinen allmählich angestaubten 3770K (16 lanes, geteilt auf x8/x8). da passt das schon noch..


battlefront, UHD, TX-SLi vs. TX-single


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Die Frostbite Engine skaliert super mit sli. Da sollten sicher andere Entwickler ne Scheibe von abschneiden.
 
Ja. Aber anfangs gab es bei Cf zumindest auch Texturen flackern oder alles war zu dunkel ^^.

Aber es ist schon gut das man die Option der 2 oder mehr Karten hat.
 
Frostbyte BF3 hatte out off the box mein Quadfire aus HD7970ern befeuert in WQHD alle 4GPUs 85 -96% GPU Load.
Supersampling alles drin gehabt Cpu Limit:d
Der Rest der Games war eine Katastrophe mit 4GPUs.:mad:



Geil war es trotzdem iwe 1100W Takt gesenkt V core reduziert:fresse2:
 
Zuletzt bearbeitet:
Das ist eigentlich mein Plan. Jetzt ne gtx1070 kaufen und später ne gebrauchte zweite.

So hab ich das bei meiner gtx670 auch gemacht und bin damit echt gut gefahren. Konnte bis jetzt fast alles ultra @wqhd zocken.

Never ever, immer die stärkste Single-GPU ausschöpfen, bevor der Multi-GPU-Schrott reinkommt, wenn überhaupt.
Das Mikrogestotter ruckelt zwar anders als zu wenig Frames auf ner Single-GPU, beides ist aber unzulänglich und trübt den Spielspaß. Sprich, 25 fps auf ner Single-GPU ist Mist, 48 fps auf Multi-GPU aber auch.
Von der vermehrten Inkompatibilität bei neueren Games ganz zu schweigen.
 
Zuletzt bearbeitet:
Ja. Aber anfangs gab es bei Cf zumindest auch Texturen flackern oder alles war zu dunkel ^^.

Aber es ist schon gut das man die Option der 2 oder mehr Karten hat.

Es gibt immer mal nen paar Probleme mit Cf/Sli. Aber für die Leistung die man bekommt geht das in Ordnung. Vor allem wenn man günstig gebraucht eine 2. Karte bekommt.

Hab früher auch immer jedes Jahr ne neue Gekauft. Aber was man da immer an Verluste macht ist schon Traurig :d .

Never ever, immer die stärkste Single-GPU ausschöpfen, bevor der Multi-GPU-Schrott reinkommt, wenn überhaupt.
Das Mikrogestotter ruckelt zwar anders als zu wenig Frames auf ner Single-GPU, beides ist aber unzulänglich und trübt den Spielspaß. Sprich, 25 fps auf ner Single-GPU ist Mist, 48 fps auf Multi-GPU aber auch.
Von der vermehrten Inkompatibilität bei neueren Games ganz zu schweigen.

Hab ich doch so gemacht. 1 Karte zu schwach ne 2. rein und es lief wieder wunderbar. Hör auf mit den scheiß Mikroruckler. Kenn ich nicht.
 
Zuletzt bearbeitet:
High_67bc40_199417.jpg



Als ich die Specs zum GP102 (gehe mal zu 95% davon aus, das Chiphell da wie immer Recht hat) gelesen habe, ist mir echt anders geworden in der Hose...

Meine Alufolienmütze hat mir gesagt, ein Oktober/November Launch der Titan könnte dann ein Dezember/Januar Launch für die GTX1080ti bedeuten. Sollte Nvidia ihren Titan Launchfenster treu bleiben, bis dato immer Mitte des 1. Quartals, dann halt gegen Ende des 2. Quartales 2017 :(

So ein High Bandwidth System (6+ Cores samt Quadchannel und 384Bit SI 6 Clustermonster GPU mit 500GB/s Durchsatz) klingt schon arg verlockend...

:d :d

Sollte nVidia dem eigenen Zeitfenster treu bleiben, so denke ich auch, dass gegen Jahresende sicher noch eine 1080ti rauskommen wird.

Ich bin echt gespannt. Heute wieder im Ösiland nix zum Launch der 1080er... man man man iwie nervt es :d
 
Also Microruckler sehe ich nicht. Freunde die mal bei mir sind haben auvh nichts gesagt. Hab aber immer Vsync an der Moni hat eh 60hz.
 
Selbe Konfig, CF/60Hz Moni/60 FPS - Free Sync und VSync an, von 30-70Hz/30-60+FPS alles schön ruhig und ruckelfrei selbst bei 1440p aber zum Glück nie unter 30 FPS gefallen. Versuche gerade den Free Sync Bereich von 20-70Hz anzupassen, gibt nen Artikel darüber, muss man aber Monitor Treiber ein wenig moden....

- - - Updated - - -

Ich bin echt gespannt. Heute wieder im Ösiland nix zum Launch der 1080er... man man man iwie nervt es :d

Nervt ist das eine, Kosten das andere, bei uns in AT wird noch ordentlich dazugelangt, mal abwarten...
 
Es gibt immer mal nen paar Probleme mit Cf/Sli. Aber für die Leistung die man bekommt geht das in Ordnung. Vor allem wenn man günstig gebraucht eine 2. Karte bekommt.

Hab früher auch immer jedes Jahr ne neue Gekauft. Aber was man da immer an Verluste macht ist schon Traurig :d .



Hab ich doch so gemacht. 1 Karte zu schwach ne 2. rein und es lief wieder wunderbar. Hör auf mit den scheiß Mikroruckler. Kenn ich nicht.

Meine Erfahrung war mit 2 x 7970 Matrix das ich in BF3 und 4 keine Mikroruckler hatte. Dann vor 2 Jahren wegen dem neuen G-Sync Monitor auf 2 x Titan Black SC umgerüstet und ich wußte was Mikroruckler sind. Fazit dass das Game unspielbar wurde und das somit eine Titan sofort wieder rausgeworfen wurde.
 
Dachte soweit ich die News auf diversen Seiten mitlesen konnte, SLI mit Pascal soll erheblich mehr Bandbreite bieten, daher auch diese art breitere/ doppelte SLI-Bridge zwischen 2 Pascal-Karten?

Bei den "alten" Karten bis Maxwell war eine SLI-bridge nur halb so breit.
 
Meine Erfahrung war mit 2 x 7970 Matrix das ich in BF3 und 4 keine Mikroruckler hatte. Dann vor 2 Jahren wegen dem neuen G-Sync Monitor auf 2 x Titan Black SC umgerüstet und ich wußte was Mikroruckler sind. Fazit dass das Game unspielbar wurde und das somit eine Titan sofort wieder rausgeworfen wurde.

Bei BF4 gab es das Tatsächlich mal kurz Mikroruckler . Ich weißt jetzt nicht mehr genau ob es an einem patch von BF4 lag oder an einen Treiber von nvidia. Aber das sind wie gesagt die Probleme, die man mit einberechnen muss wenn man multi gpu nutzt.
 
Ich habe leider nicht den ganzen Thread verfolgt:
Weiß jemand etwas über die maximal mögliche VCore von 1,25V bei der GTX1080?
Alles was darüber ist wird von der GPU erkannt und sie schaltet sich ab. Das Problem ist nicht die Spannungsversorgung, denn auch mit einem externen Netzteil soll es wohl die gleichen Probleme geben. Das Voltage monitoring muss also innerhalb der GPu erfolgen.
Kann man das irgendwie umgehen?
 
Ich kann leider erst ab Sonntag drei Karten testen.
Jetzt versuche ich im Vorfeld alle möglichen Probleme zu erkennen und schon zu analysieren :)
 
Karten schon da?

Brauchen Zahlen :drool:

- - - Updated - - -

Ui, gerade gesehen, sind wohl scvhon Lieferbar ;)

https://www.caseking.de/ek-water-blocks-ek-fc1080-gtx-acetal-nickel-waek-1266.html
 
Die Karten sind da, aber ich bin noch nicht bei den Karten :fresse:
Mein Flug nach Taiwan (Computex) geht morgen mittag, ich bin also erst Sonntag früh bei den Karten.... dann wollen wir direkt loslöten und testen....
 
Ich habe leider nicht den ganzen Thread verfolgt:
Weiß jemand etwas über die maximal mögliche VCore von 1,25V bei der GTX1080?
Alles was darüber ist wird von der GPU erkannt und sie schaltet sich ab. Das Problem ist nicht die Spannungsversorgung, denn auch mit einem externen Netzteil soll es wohl die gleichen Probleme geben. Das Voltage monitoring muss also innerhalb der GPu erfolgen.
Kann man das irgendwie umgehen?

Na ernsthaft die GPU erkennt das und schaltet ab??
 
Da die komplette originale Spannungsversorgung abgeschaltet bzw. gar nicht mehr vorhanden war, kann die Abschaltung nur innerhalb der GPU bzw. durch im BIOS hinterlegte Grenzwerte ausgelöst werden.
 
So jetzt wirds interresant was die Karten packen unter H2O und mit Vmod Bios , gibt doch hier bestimmt Verrückte die bei Caseking heute früh 10 Uhr an der Tür gekratzt haben , lasst mal was höhren XD
 
Kratz Kratz!! Ich will eine GTX 1080 :d Typisch ihr Deutschen habt sowieso alles immer pünktlichst, während wir im Ösi Land wieder Monate lang darauf warten müssen :grrr:
 
Hm, wär natürlich Banane, wenn nicht mehr als 1,25v gehen
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh