[Sammelthread] Nvidia SLI - Nvidia's Scalable Link Interface ***Sammelthread***

  • Ersteller Gelöschtes Mitglied 45455
  • Erstellt am
-SLI- Nvidia's Scalable Link Interface ***Sammelthread***

In diesem Sammelthread soll es um die Konfiguration von SLI gehen. Die wichtigsten Programme nHancer und Rivatuner werden diskutiert und erklärt.
Lösungsvorschläge und Lösungsanfragen für alle möglichen Spiele sind dringendst erwünscht!


---- must have tools ----


nHancer 2.3.2 (02.11.07) http://www.nhancer.com/

RivaTuner 2.06 (02.11.07) www.guru3d.com/rivatuner/ Forum


---- FAQ ----


Wie stell ich fest ob ein Spiel SLI nutzt?
Durch Beobachtung der Temperaturen der Grafikkartenkerne mithilfe des RivaTuner OSD (HowTo).
Wenn nur ein Chip während des Spiels heisser wird dann nutzt das Spiel nur eine Karte und es sollte mit nHancer ein Profil erstellt werden! Alternativ kann man auch die SLI-Lastverteilung von nHancer nutzen oder einfach einen FPS Leistungsschub mit Fraps/RivatunerOSD suchen.

Wie mache ich selber funktionierende Profile?
Man sollte sich erkundigen welche Engine das Problemspiel benutzt und dann ein anderes Profil eines Spiels mit der selben Engine duplizieren, um dann nur noch die *.exe des Problemspiels in das neue Profil aufzunehmen.
(Geht zum Beispiel gut mit UnrealEngine(3) Spielen)
Weiß man nicht welche Engine benutzt wurde, so kann man versuchen ähnliche/Vorgänger Spieleprofile als Vorgabe zu nutzen.
Wenn das alles nicht helfen sollte, dann kann man mal im Internet nach gescheiten Lösungen suchen, bei begehrten Spielen wird man auch oft fündig.


---- Links ----

--- Information/UserGroups/Diskussionen ---

Nvidias SLI Zone: www.slizone.com /Board: http://forums.slizone.com/

Wikipedia Artikel zu SLI

Guru 3D SLI Users Guide
Guru 3D SLI Users Guide (Part #2)

Mikroruckler Sammelthread

--- Guides/HowTo's ---

nHancer Guide

Rivatuner Guides:
OSD HowTo 1 [Deutsch]
OSD HowTo 2 [Englisch]
Fan-Control HowTo [Englisch]
Clock-Speeds HowTo [Englisch]

Sammelthread Version: 0.42 (15.12.07)
 
Zuletzt bearbeitet von einem Moderator:
Ne GTX470 im herbst ihres Lebens? Also die dürfte doch für alle Titel noch Potent genug sein oder nich?

Eagle
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mikroruckler gibts nach wie vor. Und wird's auch noch so lange geben wie die derzeitige Technik angewandt wird.
 
Ne GTX470 im herbst ihres Lebens? Also die dürfte doch für alle Titel noch Potent genug sein oder nich?

Eagle

Crysis II in Full HD mit HD Texturepack und DX11 und die Karte geht gnadenlos in die Knie, selbst unter Full HD Auflösung.

Ich habe übergangsweise einen Monitor mir lediglich 1280*1024 und einem i5-750@4Ghz hier, wie auch eine GTX460 von EVGA, welche auf GTX470@stock Niveau getaktet wurde, teilweise sogar schneller ist und bei dieser Auflösung je nach Bereich heftige Framedrops. Erst bei Extreme statt Ultra läuft es rund, was aber auch daran liegen kann, das zu wenig V-Ram vorhanden ist. fps im Schnitt zwischen 40-60 min. 20 max. 90.

Bei ihm sollte dies in Full HD mit übertakteter GPU&CPU auch der Fall sein, auch wenn etwas mehr V-Ram vorhanden ist. Glaube bis zu 1,5GB kann man voll bekommen.

Ich würde eine zweite GTX470 einbauen. Ist günstiger und bringt sehr viel mehr Leistung, da die GTX570 nur unwesentlich schneller ist, das lohnt vom Aufpreis überhaupt nicht.

Mein Vorschlag:

- warten bis die neue AMD 70000 Reihe erscheint
- zweite GTX470 (bitte identisches Modell) kaufen, wenn die Preise stark fallen

Die Leistung wäre enorm und so lange man nicht mit 4/8/16x AA spielt, sollte es Ramtechnisch kaum Probleme geben und die Leistung ist exorbitant hoch.

Kumpel hat ein Crossfiregespann, welche mehr Probleme beiden Microruckler haben sollen und er hat nichts davon gemerkt, obwohl er seit eh und je Singlekarten nutzt und gegen Ruckler allergisch ist ;)

Viel Glück
 
Ist es wichtig identische Karten einzusetzen? Ist es möglich, einfach auf beide Karten ein gleiches Bios zu flashen?
 
Der Chip (Anzahl Einheiten und Taktrate) und der VRAM-Ausbau und -Takt sollte gleich sein. Hersteller ist aber egal.

Wenn du nur wenig zahlen würdest, würde ich es versuchen. Sagen wir so 100-150 Euro max.
 
Für 120€ bekommt man doch sicherlich eine GTX470? Habe die Preise jetzt nicht beobachtet, nachdem die neuen AMD Karten rauskommen, korrigiert sich das evtl. auf 90-100€

Jepp, Takt&Ramausbau sollten identisch sein. Der Rest ist weniger wichtig.
 
Der Chip (Anzahl Einheiten und Taktrate) und der VRAM-Ausbau und -Takt sollte gleich sein. Hersteller ist aber egal.

Wenn du nur wenig zahlen würdest, würde ich es versuchen. Sagen wir so 100-150 Euro max.

Bis auf die Taktraten muss es gar gleich sein...
Unterschiedlicher RAM Ausbau lässt kein SLI zu, das geht nur im CF.
Dürfte aber nicht so das Problem sein, gibt wohl nur das GF100 Modell mit immer gleicher Ausführung. Die Taktraten sind vernachlässigbar, die lassen sich im Nachhinein angleichen, oder auch mit verschiedenen Nutzen (führt aber teils zu Leistungsverlust und zeigt wohl auch leicht mehr MR)

Ich bin mir 470GTX SLI auch zufrieden im Moment. Aber achte auf sehr sehr ordentliche Kühlung und ne schnelle CPU (sonst gibts nur maue GPU Auslastung und wenig gute FPS)

Hab übrigens ne MSI und ne PoV, wobei die PoV eigentlich ne 465GTX mit freigeschaltetem 470GTX Bios ist. ;)
 
Sonne,

Du hast auch 2 CPU, kann nicht jeder von sich behaupten :fresse:

Wenn ich ein großes Gehäuse nutzen würde, hätte ich zum SR2 gegriffen, leider habe ich mich in Cubes verliebt.

Mit GTX470 SLI sollte es keine Performanceprobleme mehr geben, wobei man mit entspreechenden Tweaks jedes System in die Knie zwingen kann, finde sowas aber hoffnungslos übertrieben.
 
Ein 2600K @ 4000 sollte doch potent genug sein?!? Gekühlt wird mir Wasser. Funktioniert Downsampling mit SLI?
 
Sonne,

Du hast auch 2 CPU, kann nicht jeder von sich behaupten :fresse:

Aber nicht mehr im Hauptsystem ;) Die Sig ist noch alt, weil man aufgrund der Angaben in der Signatur gerne in die Fanboy Schublade gesteckt wird, vor allem im CPU Unterforum... Also bleibt die so, bis sich die Gemüter erstmal beruhigen.

Im übrigen ist das Workstation System aus meiner Sig. gebaut im Jan. 2007... Leistungstechnisch also nichtmal im Ansatz mit heutigen Desktopmodellen zu vergleichen :fresse: auch wenn es mir 4 Jahre treue Dienste getan hat. Und auch so manches "Traumergebnis" gezaubert hat. (wie damals zu HD2900XT Zeiten war ich kurzzeitig Platz 5 der Futuremark Liste, weil wohl niemand Werte mit nem QX6800 hochladen wollte :fresse: über mir nur vier mit CF, ich mit der SingleGPU)

Ein 2600K @ 4000 sollte doch potent genug sein?!? Gekühlt wird mir Wasser. Funktioniert Downsampling mit SLI?

Ist zumindest ein Anfang :fresse:
Damit erreichst du erstmal mehr wie mit default Takt. Das SLI wird sich wohl fühlen, denke ich. Ansonsten tritt halt die CPU weiter, da geht noch was... Unter Wasser gibts wohl auch keine Temp Probleme.

Was hast du für ein NT?
Mit OC auf den Karten dürfen es da gut auch 800W sein ;) bzw. sollten es...
 
NT ist ein 650W Seasonic. Sollte ausreichen, wenn die Karten mit Default Takt betrieben werden?
 
probier es aus ;)
Mein 650W Corsair hat schlapp gemacht... In so einigen Games gings zwar halbwegs... In anderen (Mafia II) gab es immer mal wieder Sicherheitsabschaltungen durch Überlast.


Ich nehme als Indikator für die Netzteildimension immer Furmark + Prime95 gleichzeitig. Schafft das NT diesen Extremtest, wirds im Alltag keine Probleme geben. Mit dem 850W Corsair jetzt klappt es. Auch wenn über 1000W aus der Dose fließen :fresse: (was dann auch zeigt, warum das 650er nicht reichte)
Mit default Takt, womöglich gar mit etwas verringerter VGPU Spannung könnte das aber ausreichend sein... Man sollte aber bedenken, das das NT beim zocken dann wohl annähernd Volllast fährt, auf die Dauer muss das nicht gut gehen.
 
Ein 2600K @ 4000 sollte doch potent genug sein?!? Gekühlt wird mir Wasser. Funktioniert Downsampling mit SLI?

Kommt auf die Einstellungen an :)
Ich hab in Skyrim mit Mods Stellen da krieg ich meinen 2600K@4300 klein ;)
Ja, Downsampling funktioniert, das ist unabhängig von der Anzahl der Karten.
 
Hängt von Deinen Games ab.
Es gibt einfach einige die nix von SLI wissen wollen (Engine-Bedingt).
Und wenn Du auf diese Games abfährst ist SLI leider umsonst. (Siehe Sig).

Ansonsten find ich Skyrim zur Zeit sehr problematisch. Das Nvidia-Profil ist in meinen Augen nicht zu gebrauchen, wenn man AFR2 über den Treiber forciert geht es.
SLI bedeutet halt einen gewissen Mehraufwand.

Der Sprung von GTX470 auf 570 wäre mir zu klein.
 
Zuletzt bearbeitet:
Hängt von Deinen Games ab.
Es gibt einfach einige die nix von SLI wissen wollen (Engine-Bedingt).
Und wenn Du auf diese Games abfährst ist SLI leider umsonst. (Siehe Sig).

Ansonsten find ich Skyrim zur Zeit sehr problematisch. Das Nvidia-Profil ist in meinen Augen nicht zu gebrauchen, wenn man AFR2 über den Treiber forciert geht es.
SLI bedeutet halt einen gewissen Mehraufwand.

Wobei das zumindest was bekannte Titel angeht sehr sehr selten vorkommen... Und es gibt ja immernoch die Möglichkeit über CustomBits SLI zu nutzen.
Um ehrlich zu sein, von den neueren Titeln die ich auf dem Schirm hatte, gabs nur ein einziges, was nicht mit SLI klar kam. Und das ist aktuell Heroes VI. Aber das wurde wohl mit nem neuen Treiber aktuell auch gefixed.
 
Oh je,

wer wegen dem was andere im PC schlummern haben Kriege führen, ist das immer lästig. Ich habe nen intel in der Kiste, und wnen jemand AMD hat, na und? Ist doch nicht mein Bier und bekehren sollte man auch nicht. Fakten vorbrignen und gut ist, was die Leute damit anstellen ist deren Sache.

i7@4Ghz sollte dicke reichen. Mit der Kiste sollte es auch die nächsten Jahre überhaupt keine Probleme geben, ist ja schließlich alles aktuell.

Den Stromverbrauch finde ich aber schon ziemlich heftig. Mein System zieht übertaktet max. 310W aus der Dose (Spitze) nichtmal Dauerbelastung, allerdings nur mit einer GPU. Die zweite kommt erst noch im Jan, wenn die Preise fallen. Selbst mit einer weiteren Karte dürfte ich nicht über 450W Spitze gelangen. 2 GTX470 werden mit OC doch keine 500W mehr aus der Dose ziehen als stark übertaktete GTX460 (welche dann auch im 220W TDP Bereich landen)? Wollte eigentlich mit meinem 700W Netzteil glücklich werden...
 
Ne 470er bekommst du mit mehr VGPU Spannung und höheren Taktraten wohl annähernd in den Bereich der 480GTX. Und die säuft unter Volllast gute 300W allein. Dazu noch der Wirkungsgrad vom NT (bei ordentlichen NTs wohl mittlerweile ~85%) sind das schonmal ~350W hinterm NT für eine Karte allein. Das mal zwei sind schon 700. Dazu dann ne OCed CPU, ordentlich HDDs und bisschen Kleinkram wie dicke 5000rpm Lüfter bei 12V und schon bekommst die 1000W klein ;)

Aber wie gesagt, ohne OC auf den GPUs und ggf. sogar mit VGPU Senkung dürfte das 650W NT gerade so langen...
 
Zuletzt bearbeitet:
Oha,

das ist ja krass. Aber sowas wie ne GTX480 will ich auch nicht haben, sowas gefräßiges. Bei meiner GTX460 habe ich die Spannung manuell nicht erhöhrt, die läuft mit 850/1700/2000 stabil, mehr habe und werde ich auch nicht testen, reicht dicke, wnen man 2 davon hat. Die Einzelne reicht jedoch nicht mehr und zweite dazukaufen ist einfach günstiger, außer man zockt wie einige 8H/Tag, wobei ich mich frage, wie das funktionieren soll.

5000rpm Lüfter?! Ich bekome shcon bei 800-1000rpm graue Haare :fresse: Mehr als 600rpm kommen mir nicht in die Tüte, weshalb ich auf einen externen Nova/wakü umsteigen werde, statt dem Quad.

OK, genug gezwitschert. Ich würde wie gesagt warten, bis die neuen AMD Karten kommen und günstig zuschlagen. Bis dahin sollte man mit dieser CPU&GPU eigentlich auskommen können und 1Gang zurückschalten tut eigentlich auch nicht weh, sieht man sowieso keien Unterschiede in Games.
 
SLI wakü frage...

moinsen...ich habe vor ne Wakü zu installieren...habe 2 Grakas im SLI Verbund 580iger gtx ne gainward phantom und ne evga superclocked. da die phantom net dem Referenzdesign entspricht braucht sie ja nen anderen Kühlblock. Habe vor mit die Vollblöcke von Ek zu holen...einmal den EK 580 Acetyl und denselben als GW Version. Meine Frage ist ob ich beide Kühlblöcke mit nem Wakü sli connector verbinden kann...oder sind die beiden Kühlkörper dahingehend inkompatibel?

thnx schomma für eure Infos ; )
 
Dual SLI mit 3 Way-Bridge

Hallo Community,

Hat jemand schon ein SLI-Verbund aus zwei Grafikkarten mit einer 3 Way-SLI Brücke betrieben ?

Ist das überhaupt möglich ?

gruß
XTaZY
 
Kann bestätigen das eine 2-Way SLi auch mit einer 3-Way Brücke problemlos funktioniert, solange die Karten 2 connectors haben. Getestet mit 2 8800 Ultras.
 
Erstmal danke für die Antworten ! :)

man da bleibt halt ein Anschluss unbelegt, wo ist das jetzt stabiler ? LG
Evtl. meint er, dass sie stabiler durch ihre Beschaffenheit ist...^^

Genau so ist es ...
Beim kommenden Gigabyte GA-X79-UD5 liegt im Lieferumfang nur eine flexible SLI-Brücke für ein Dual-Betrieb bei.


Einen Unterschied zu einer normalen SLI-Brücke gab es nicht:

http://www.abload.de/img/42qqt9.jpg

Stabiler.. etwas. Ich finde die 3-way und 4-way einfach schöner als die normale.

Kann ich nur bestätigen.
Macht irgendwie einen sauberen Eindruck !
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh