GeForce GTX 1080: Voltage-Mod hebt Powerlimit auf und erhöht Overclocking-Potenzial

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.060
<p><img src="/images/stories/logos-2016/geforce-gtx-1080.jpg" alt="geforce gtx 1080" style="margin: 10px; float: left;" />Eines der Erkenntnisse <a href="index.php/artikel/hardware/grafikkarten/39124-nvidia-geforce-gtx-1080-mit-pascal-architektur-im-xxl-test.html" target="_self">unseres Tests der GeForce GTX 1080</a> ist, dass NVIDIA mit der Strom- und Spannungsversorgung recht sparsam umgegangen ist. Zwar sieht NVIDIA eine Versorgung mit Hilfe von fünf Phasen vor, <a href="index.php/fotostrecken/artikel-galerien/nvidia-geforce-gtx-1080/geforce-gtx-1080-pictures-13.html" target="_self">spendiert der Karte aber nur einen zusätzlichen 8-Pin-Anschluss</a>. Damit kann die Karte maximal 225 W aufnehmen – zumindest wenn man den PCI-Express-Spezifikationen gefolgt ist.</p>
<p>Viele...<br /><br /><a href="/index.php/news/hardware/grafikkarten/39236-geforce-gtx-1080-voltage-mod-hebt-powerlimit-auf.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Einen Widerstand Huckepack (gleiche größe oder doppelt so groß) löten, ist wohl die elegantere Lösung. Dadurch verfälscht man die Messung und das Powertarget und alle möglichen Schutzmechanismen greifen immer noch, nur eben später.
 
Ist doch schon wieder Mist...
Auf der einen Seite möchte ich ein Referenzlayout wegen der Kompatibilität mit Fullcover Kühlern, auf der anderen Seite würde ich mir wünschen das die Karte dann auch vernünftig zu übertakten ist, wenn sie schon unter Wasser ist!
Bei Custom PCBs ist man dann meist auf EK beschränkt was Kühler angeht :wall:
Der Mod sieht ja soweit gut und machbar aus, aber es ist dann auch nicht das Gelbe vom Ei..
Fraglich ist ja auch die Güte der Chips, aber das ist man bei neuen Fertigungsprozessen ja gewohnt.
 
Ich mein für 789€ kann man ja auch nicht erwarten, dass das PCB voll bestückt ist. Transistoren sind teuer und Nvidia will ja auch was verdienen!
 
Ich zitiere mich mal selber:
Ich dachte das neue PCB wäre super und auf Übertakteter ausgerichtet. Wie können die Wandler dann am Limit sein?
 
Auf der einen Seite möchte ich ein Referenzlayout wegen der Kompatibilität mit Fullcover Kühlern [...]
Bei Custom PCBs ist man dann meist auf EK beschränkt was Kühler angeht :wall:
Ja, das nervt mich auch kolossal...
 
Ich mein für 789€ kann man ja auch nicht erwarten, dass das PCB voll bestückt ist. Transistoren sind teuer und Nvidia will ja auch was verdienen!

seh ich halt auch mal so. endlich mal einer der sagt was jeder denkt.
 
würde mich nicht wundern, wenn nv den herstellern untersagt, die möglichen ausbauten zu machen und dann einfach bei der ti die entsprechenden lücken füllt.
 
klar wird das untersagt XD
und nein das wird bei der Ti nicht passieren....
 
War damals bei der 680 wenn ich mich nicht täusche ja auch so, dass das PCB theoretisch ein paar Reserven gehabt hätte.
Damals hat EVGA mit der Signature auch eine Karte gebracht, die alle Pads belegt hatte und kompatibel mit Wasserkühlern war.
 
wenn man das PT nicht via Software/mod bios umgehen kann brauchen sie ja gar keine custom pcb's mit aufgebohrter spannungsversorgung bringen
ich hab keine lust auf ner 800€+ karte rumzulöten:fresse2:
 
Ich mein für 789€ kann man ja auch nicht erwarten, dass das PCB voll bestückt ist. Transistoren sind teuer und Nvidia will ja auch was verdienen!

:lol::lol::fresse2:

Du weist aber schon das diese transistoren ein paar Cent kosten xD

Naja hoffe die 1080er wird auch für meinen Hackintosh unterstützt, insofern nVidia einen passenden Web Treiber rausbringt.

Wenn ich das richtige sehe beschei... nVidia hier o_O immer diese einspaarungen^^
 
Bei OC geht's nicht um Energieeffizienz. Übertaktet schluckt auch Maxwell Strom wie sonst was. Das ist nunmal so... ;)
 
Danke brauchst du mir nicht erklären ich kenn mich mit verbrauch und diesen zu steigern bestens Aus aber die minimale bestückung über die diskutiert wird ist vielleicht auf Effizienz getrimmt ;)
 
würde mich nicht wundern, wenn nv den herstellern untersagt, die möglichen ausbauten zu machen und dann einfach bei der ti die entsprechenden lücken füllt.
Die 1080Ti wird mit einem GP102 oder GP100 auf einer ganz anderen GPU basieren und bekommt dann womöglich ein 384Bit GDDR5X oder HBM2 Speicherinterface, was sowieso zu einer neuen Karte mit neuem Referenzlayout führt, Lücken füllen beim GTX 1080 PCB macht also überhaupt keinen Sinn wenn es um eine mögliche 1080Ti geht.
 
Zuletzt bearbeitet:
haha, so ein Blödsinn.
Wollen wir es mal nicht übertreiben mit den Modden und Übertakten.
Das Graka Monster ist noch nicht mal im Laden. Kein 1080p Spieler braucht solch eine Leistung, und 4K Zocker sind noch hoffnungslos in der Unterzahl
 
Also mich interessiert bei der Karte (und Polaris) auch nur die VR-Leistung. Für 1080p haben alle Karten seit der 970er genug Leistung. :)
 
Jaja, die 970 genug Leistung für 1080p. Wer glaubt wird seelig. Die Hat nicht mal genug Speicher für 1080p.

Was die 1080 anbetrifft. Perfekt für 2k und für mich. Aber nicht zu dem Preis. Ausserdem gibt es keine 2k
Monitore bis 25" mit IPS und 100Hz+ :(
 
Naja gut, ist halt Geschmackssache, bzw. kommt auf die Settings an. Wer 4x AA, Motion Blur, etc. anschaltet für den reicht's natürlich nicht immer. Der muss dann halt die 980 bezahlen. ;)
 
Kein 1080p Spieler braucht solch eine Leistung, und 4K Zocker sind noch hoffnungslos in der Unterzahl

*Jetzt* vielleicht. Vor 3 Jahren hieß es niemand braucht die Leistung einer 780Ti für 1080p. Jetzt kriegt man die auch ohne Ultra Settings in 1080p auf die Knie.
Der Leistungsbedarf steigt und steigt immer, irgendwann wird auch eine 1080 für 1080p zu wenig sein.

Wenn ichs richtig anstelle, bricht auch meine 980Ti auf 1080p ein.
 
Es kommt halt auch immer darauf an, welche Bildraten man unter 1080p erzielen will. Will ich wirklich immer im dreistelligen Bereich bleiben, sieht das nicht so locker aus (wobei die CPU dann natürlich wirklich zum Thema wird)...
 
DANKE LUXX!!!!

Ich hatte hier einen wikrlich langen und vielleicht auch für andere Luxxer interessanten Beitrag zur Effizienz und Stromverbrauch sowie dem einen 8 Pol Anschluss geschrieben 15 min, nachlesen im Web und Text abtippen und dann:


ERROR INSERTING COMMENT


Ganz klasse!!!

Bitte debuggt die Direktkommentarfunktion unter den Beiträgen und Tests (wenn man Kommis nicht über das Forum hinzufügen möchte...) das ist das xte mal dass mir ein Kommtar mit einem solchen Fehler weggeworfen wird. Und anderst als im Forum selbst hilft auch keine Rückgängig Tastenkombination oder ähnliches um zur vorherigen Seite zurückzukehren wo der Text noch dasteht aber noch nicht abgeschickt wurde (Im Forum geht das ja). Nein der Text ist einfach weg! Das nervt wie die Sau!

Vielen Dank.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh