[Sammelthread] Nvidia SLI - Nvidia's Scalable Link Interface ***Sammelthread***

  • Ersteller Gelöschtes Mitglied 45455
  • Erstellt am
-SLI- Nvidia's Scalable Link Interface ***Sammelthread***

In diesem Sammelthread soll es um die Konfiguration von SLI gehen. Die wichtigsten Programme nHancer und Rivatuner werden diskutiert und erklärt.
Lösungsvorschläge und Lösungsanfragen für alle möglichen Spiele sind dringendst erwünscht!


---- must have tools ----


nHancer 2.3.2 (02.11.07) http://www.nhancer.com/

RivaTuner 2.06 (02.11.07) www.guru3d.com/rivatuner/ Forum


---- FAQ ----


Wie stell ich fest ob ein Spiel SLI nutzt?
Durch Beobachtung der Temperaturen der Grafikkartenkerne mithilfe des RivaTuner OSD (HowTo).
Wenn nur ein Chip während des Spiels heisser wird dann nutzt das Spiel nur eine Karte und es sollte mit nHancer ein Profil erstellt werden! Alternativ kann man auch die SLI-Lastverteilung von nHancer nutzen oder einfach einen FPS Leistungsschub mit Fraps/RivatunerOSD suchen.

Wie mache ich selber funktionierende Profile?
Man sollte sich erkundigen welche Engine das Problemspiel benutzt und dann ein anderes Profil eines Spiels mit der selben Engine duplizieren, um dann nur noch die *.exe des Problemspiels in das neue Profil aufzunehmen.
(Geht zum Beispiel gut mit UnrealEngine(3) Spielen)
Weiß man nicht welche Engine benutzt wurde, so kann man versuchen ähnliche/Vorgänger Spieleprofile als Vorgabe zu nutzen.
Wenn das alles nicht helfen sollte, dann kann man mal im Internet nach gescheiten Lösungen suchen, bei begehrten Spielen wird man auch oft fündig.


---- Links ----

--- Information/UserGroups/Diskussionen ---

Nvidias SLI Zone: www.slizone.com /Board: http://forums.slizone.com/

Wikipedia Artikel zu SLI

Guru 3D SLI Users Guide
Guru 3D SLI Users Guide (Part #2)

Mikroruckler Sammelthread

--- Guides/HowTo's ---

nHancer Guide

Rivatuner Guides:
OSD HowTo 1 [Deutsch]
OSD HowTo 2 [Englisch]
Fan-Control HowTo [Englisch]
Clock-Speeds HowTo [Englisch]

Sammelthread Version: 0.42 (15.12.07)
 
Zuletzt bearbeitet von einem Moderator:
Dann sinds 9,60 EUR pro Monat wenn das NT ne Effizienz von 80% besitzt.

Findest du 6h pro Tag nicht ein bisschen viel ? :wink:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
sag ja maximal :d
 
Also, mein Rechner (ohne Monitor+Soundanlage) zieht lt. Verbrauchsmesser mit einer GTX580 in Games so 360-390Watt. Mit 2xGTX580 erhöht sich der Verbrauch um ca.200W auf 550-600W.
CPU lüppt dabei mit 4GHz (~1,19Vcc) sowie Graka(s) NICHT übertaktet.

Zockst um 5h täglich, dann entspricht es 1000Watt bzw. 1KW erhöhter Verbrauch täglich. Bei 0,20Euro/KW-Stunde macht das dann ca.73Euro an Strommehrkosten pro Jahr. Überschaubar wie ich finde^^.
 
jo find ich auch^^
wollt eben nur nachfragen ob meine rechnung stimmt, dachte was man immer schreibt !!!!STROMFRESSER!!!! müsste das viel teurer ausfallen...
versteh da die panik nicht ganz :)
 
Jupp die Mehrkosten kann man verkraften^^.

Welches Board hast denn überhaupt? (Geizhalslink zur Hand?)
Hoffentlich ein P8P67er mit Zusatz, sonst kannste SLi (wohl) vergessen...
 
Zuletzt bearbeitet:
naja aber so krass wie der furmark verbraucht kein game leistung^^
 
Zuletzt bearbeitet:
Furmark sollte man so und so vergessen, da es nie und nimmer reale Auslastungen erzeugt.

Und 2x 6970 brauchen nicht so viel weniger Strom als 2x 580.
 
jo, furmark is wie prime das absolute maximum was aus der steckdose geht :d
die schreiben nicht umsonst dass dabei hardware kaputt gehen kann und "auf eigene gefahr benutzen
 
FurMark ist Müll...

Ok, das "Pro" hast also. Ja, dann steht einem SLi aus 2xGTX580 ja nix mehr im Weg :bigok:. Dein NT reicht locker für beide 580er. Hoffe du hast einen ordentlichen Radi ala MoRa^^.

edit
@p1skop4t
Schau links in seine Systeminfo, er hat doch schon eine GTX580. Daher braucht er keine 2 570er oder 6970er ;).
 
Zuletzt bearbeitet:
2x Quark
2gig braucht kein Mensch zum Zocken und was für eine Zukunft?
und die 580 kann man glaube auch ocen ... dann haste den Abstand wieder.

Verbrauch...sauft nen kasten Bier weniger pro Woche dann paßt es wieder...ist auch besser für die Gehirnzellen glaub ich...womit ich jetzt keinen persöhnlich ansprechen möchte.
 
Zuletzt bearbeitet:
FurMark ist Müll...

Ok, das "Pro" hast also. Ja, dann steht einem SLi aus 2xGTX580 ja nix mehr im Weg :bigok:. Dein NT reicht locker für beide 580er. Hoffe du hast einen ordentlichen Radi ala MoRa^^.

edit
@p1skop4t
Schau links in seine Systeminfo, er hat doch schon eine GTX580. Daher braucht er keine 2 570er oder 6970er ;).

stimmt habs zu späht gesehn :wink:
 
Hehe
Na mal sehen wo ich eine günstig auftreiben kann!

@mgr R.O.G.
hab 2 Mora2pro und 3 Laing Ultra xD
müsst knapp reichen :fresse:
 
Zuletzt bearbeitet:
Jupp das sollte reichen...knapp, aber ausreichend :d.
 
Joa dann hau mal rein :fresse:

Ich weiß nur das ich den Unterschied an meinem Stromzähler sehe ob mein Rechner im Idle ist oder im Furmark :lol:
 
Lustige Unterhaltung über die KW Zahlen soll ich auch mal was zum Besten geben:asthanos:

Bei den vier 480ern sprengst du doch schon allein mit den GPUs die 1kW Marke :fresse:

Ich schaff mit ach und krach die 1kW Marke mit den zwei 470GTXen, der Sandy bei 4500MHz und mittlerweile 8 HDDs + diversen Kleinkram. Aber auch nur bei Furmark+Prime :fresse:
 
Bei 1KW beginnt die Aufwärmphase:)

Mit richtig Dampf im Kessel geht das Baby über die 2KW Grenze:fresse:
 
Zuletzt bearbeitet:
2k?
da brauchst ja knapp 3 netzteile xD
 
Es kommt drauf wann wie man das SLI auch einsätzt Single Player z.b wenn du nur einen 60 Hertz Monitor am start hast .
Du kannst mit FPS Limiter oder Vsync die Karten bei 60 FPS fest setzen damit kannst du den Verbrauch senken und dazu noch Microrukler wenn vorhanden umgehen.

Beispiel ich hatte gestern mal Gekuckt bei DeadIsland 2840*1620 Auflösung wenn ich die FPS nicht Limitiert habe hatte ich 500 W wenn ich mit Dxtory die FPS auf 60 fest gelegt habe nur noch 400 W also gute 100 Watt Ersparnis.

Mit OC auf 1 GHZ ohne >Limiter konnte ich bei Crysis1 auch mal 920 W ablesen alles bezieht sich natürlich auf das Gesamte System.
Mit Limiter kann ich aber auch bei 1 GHZ das Gesamte System bei 550 Watt in einigen Games halten.
Achso weiterer vorteil eines Limiters die Karten bleiben schön Cool und das Teilweise Massiv weiss nicht wie sehr das unter Luft zum Tragen kommt aber je nach settings also Auflösung denke ich könnten bis zu 20 °C rum kommen.
 
Zuletzt bearbeitet:
Check mal seine Systeminfo ;) - dafür ist die nämlich da :fresse:
 
Es kommt drauf wann wie man das SLI auch einsätzt Single Player z.b wenn du nur einen 60 Hertz Monitor am start hast .
Du kannst mit FPS Limiter oder Vsync die Karten bei 60 FPS fest setzen damit kannst du den Verbrauch senken und dazu noch Microrukler wenn vorhanden umgehen.

Beispiel ich hatte gestern mal Gekuckt bei DeadIsland 2840*1620 Auflösung wenn ich die FPS nicht Limitiert habe hatte ich 550 W wenn ich mit Dxtory die FPS auf 60 fest gelegt habe nur noch 440 W also gute 110 Watt Ersparnis.

Mit OC auf 1 GHZ ohne >Limiter konnte ich bei Crysis auch mal 920 W ablesen alles bezieht sich natürlich auf das Gesamte System.
Mit Limiter kann ich aber auch bei 1 GHZ das Gesamte System bei 550 Watt in einigen Games halten.
Achso weiterer vorteil eines Limiters die Karten bleiben schön Cool und das Teilweise Massiv weiss nicht wie sehr das unter Luft zum Tragen kommt aber je nach settings also Auflösung denke ich könnten bis zu 20 °C rum kommen.

jo das mal echt ne top idee^^
da läufts dann immer optimal flüssig und der verbrauch steigt nich wirklich an...
 
Interessanter Fred, ich komme mit meinem aktuellen Sys unter Last beim zocken nie über 315 Watt hinaus, egal was ich anstelle.

Geplant ist diesen Monat noch eine zweite GTX570... was denkt ihr wie viel Watt wird mein Sys dann aus der Dose ziehen (ca. 550W +/- 10-20W)?.

Achso die Stromkosten sind mir relativ Rille, da der Rechner nie täglich und meist nicht länger als 10 Std an ist.
 
Zuletzt bearbeitet:
Tjoa... ich hoffe das nVidia seine Aussage wahr macht und in die kommenden Treiber direkt nen FPS Limiter einsetzt :) (darauf warte ich nämlich schon :fresse: )
 
@Jacke wie Hose
Wenn du die Karten einfach laufen lässt ohne Limiter und ohne OC knapp 500W rum würde ich sagen.
Das schwangt auch je nach Load der GPUS es liegt nie ein konstanter Verbrauchs wert vor.

Habe gerade mal einen Versuch mit BC2 im Single Player bei 1920*1080 16 QSAA gemacht 800MHZ 1,0 V.

Ohne FPS Limiter ca 160 FPS lagen in der Spiel Scene an 554 Watt auf dem Tacho.
Mit 120 FPS Limiter 503 W.
Mit 60FPS Limiter 407W.
Mal locker 150 Watt gesparrt.

Dead Island noch mal Geprüft oben Werte korigiert da ich bei den Werten OC auf den Karten hatte.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh