[Sammelthread] Nvidia SLI - Nvidia's Scalable Link Interface ***Sammelthread***

  • Ersteller Gelöschtes Mitglied 45455
  • Erstellt am
-SLI- Nvidia's Scalable Link Interface ***Sammelthread***

In diesem Sammelthread soll es um die Konfiguration von SLI gehen. Die wichtigsten Programme nHancer und Rivatuner werden diskutiert und erklärt.
Lösungsvorschläge und Lösungsanfragen für alle möglichen Spiele sind dringendst erwünscht!


---- must have tools ----


nHancer 2.3.2 (02.11.07) http://www.nhancer.com/

RivaTuner 2.06 (02.11.07) www.guru3d.com/rivatuner/ Forum


---- FAQ ----


Wie stell ich fest ob ein Spiel SLI nutzt?
Durch Beobachtung der Temperaturen der Grafikkartenkerne mithilfe des RivaTuner OSD (HowTo).
Wenn nur ein Chip während des Spiels heisser wird dann nutzt das Spiel nur eine Karte und es sollte mit nHancer ein Profil erstellt werden! Alternativ kann man auch die SLI-Lastverteilung von nHancer nutzen oder einfach einen FPS Leistungsschub mit Fraps/RivatunerOSD suchen.

Wie mache ich selber funktionierende Profile?
Man sollte sich erkundigen welche Engine das Problemspiel benutzt und dann ein anderes Profil eines Spiels mit der selben Engine duplizieren, um dann nur noch die *.exe des Problemspiels in das neue Profil aufzunehmen.
(Geht zum Beispiel gut mit UnrealEngine(3) Spielen)
Weiß man nicht welche Engine benutzt wurde, so kann man versuchen ähnliche/Vorgänger Spieleprofile als Vorgabe zu nutzen.
Wenn das alles nicht helfen sollte, dann kann man mal im Internet nach gescheiten Lösungen suchen, bei begehrten Spielen wird man auch oft fündig.


---- Links ----

--- Information/UserGroups/Diskussionen ---

Nvidias SLI Zone: www.slizone.com /Board: http://forums.slizone.com/

Wikipedia Artikel zu SLI

Guru 3D SLI Users Guide
Guru 3D SLI Users Guide (Part #2)

Mikroruckler Sammelthread

--- Guides/HowTo's ---

nHancer Guide

Rivatuner Guides:
OSD HowTo 1 [Deutsch]
OSD HowTo 2 [Englisch]
Fan-Control HowTo [Englisch]
Clock-Speeds HowTo [Englisch]

Sammelthread Version: 0.42 (15.12.07)
 
Zuletzt bearbeitet von einem Moderator:
Passt schon gehöre doch auch nicht zu den Allwissenden :coolblue: Meinste der Leistungseinbruch könnte an den unterschiedlichen Bios Revisionen auf den Karten liegen ??!?

Mfg StACKeR
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi - also ich hab seit Wochenende auch 2 8800GTS 512 im SLI aber so recht schlau werd ich nicht draus, bzw. ich steck in einem Dilemma. Das SLI funktioniert technisch schon sehr gut aber anscheinend limitiert die CPU, 3dMark06 Demo will nicht mit SLI.

Habe mir auch extra den Nhancer 2.32 (glaub ich) geladen damit die SLI-Belastungsanzeige dargestellt wird.

Bei der Crisisdemo 1920x1200 (0AA) ALL HIGH zeigt sich locker eine Framesverdopplung im Game (besonders bei den IngameMovies wird SLI voll ausgenutzt) z.B: statt 20 -> 38 frames aber wenn im Gefecht Gegner auftauchen, scheint SLI auf die CPU zu warten (SLI-Belastungsanzeige schrumpft sehr zusammen).

System ist ein A64 X2@2.6Ghz AN32-SLI-DELUXE (also altes Board mit 939er) 2GB DDR und 2x 8800GTS 512MB.

Das Dilema: Eigentlich sind die 8800GTS schon geil (COD4 1920x1200 60-200frames aber wenn ich Sie behalte brauch ich neue CPU/Board/Speicher...und welche CPU? Wie stark?
 
Wie kann ich die Grakas im SLI OCen? Hab hier zwei 8700M GT im D901C Notebook. Rivatuner, ATItool und Forceware übernehmen den Takt nicht?! Hab den Mobile 156.87 drauf von laptopvideo2go.com?!
 
Hi - also ich hab seit Wochenende auch 2 8800GTS 512 im SLI aber so recht schlau werd ich nicht draus, bzw. ich steck in einem Dilemma. Das SLI funktioniert technisch schon sehr gut aber anscheinend limitiert die CPU, 3dMark06 Demo will nicht mit SLI.

Habe mir auch extra den Nhancer 2.32 (glaub ich) geladen damit die SLI-Belastungsanzeige dargestellt wird.

Bei der Crisisdemo 1920x1200 (0AA) ALL HIGH zeigt sich locker eine Framesverdopplung im Game (besonders bei den IngameMovies wird SLI voll ausgenutzt) z.B: statt 20 -> 38 frames aber wenn im Gefecht Gegner auftauchen, scheint SLI auf die CPU zu warten (SLI-Belastungsanzeige schrumpft sehr zusammen).

System ist ein A64 X2@2.6Ghz AN32-SLI-DELUXE (also altes Board mit 939er) 2GB DDR und 2x 8800GTS 512MB.

Das Dilema: Eigentlich sind die 8800GTS schon geil (COD4 1920x1200 60-200frames aber wenn ich Sie behalte brauch ich neue CPU/Board/Speicher...und welche CPU? Wie stark?



Kauf dir nen 680i SLI oder 780i SLI und nen C2D oder Quad unter 3,0Ghz geht bei SLI nicht viel!!! Rams am besten 800mhz bis 1066Mhz...
Hinzugefügter Post:
@Chirs_M.

Also Gpu Z meint das zumindestens und Everest auch und der Link bestätigt meine Aussage :rolleyes: http://www.forumdeluxx.de/forum/showthread.php?t=424405!! Meine Zweite Karte hab ich erst seit Anfang des Monats und da das Refresh mit 112 Unf.Shadern und 640mB erst seit dem 19.11.07 Ausgeliefert wird gibt es die wohl doch !!! Aber für nen Sli is ne 96 und ne 112er wohl net so geeignet oder es liegt am Treiber :heul: ...... Bin im Moment was Ratlos :confused:

mfg StACKeR

G80 und G92 gehen nicht, oder läuft ne 66er GT mit ner 68er GT zusammen im SLI??? :bigok: :bigok: :bigok:
 
Zuletzt bearbeitet:
Das ist ja gerade das Problem, laut dieser Tabelle ist seine neue GTS noch immer ein G80-Chip, allerdings jetzt mit 112 statt früher 96 Lanes. :confused:
Der einzige Unterschied scheinen die Lanes zu sein und wie verdammt nochmal soll man als normaler User eine Neue gegenüber einer Alten unterscheiden können damit man die Richtige für Sli erwischt. Die sind ja voll crazy drauf gerade bei nVidia. :haha:
 
Hallo, mal ne Frag ezu SLi.

Kann ich eine 8800 Ultra und eine 8800 GTX im SLi-Verbund nutzen?

Beide sind vom gleichen Hersteller (XFX).

Funktioniert das?

dank & gruß
 
Also so weit ich das weis geht immer nur GTS (G80)+GTS(G80) / GTX+GTX / Ultra +Ultra usw....
Hinzugefügter Post:
Das ist ja gerade das Problem, laut dieser Tabelle ist seine neue GTS noch immer ein G80-Chip, allerdings jetzt mit 112 statt früher 96 Lanes. :confused:
Der einzige Unterschied scheinen die Lanes zu sein und wie verdammt nochmal soll man als normaler User eine Neue gegenüber einer Alten unterscheiden können damit man die Richtige für Sli erwischt. Die sind ja voll crazy drauf gerade bei nVidia. :haha:


Ich denke das geht aber die 112er läuft dann nur mit 96 Pixelprozzis....



Und wie gesagt, früher hatte ich ne 6800GT und ne 6800Ultra und das ging nicht im SLI Betrieb!!! Auch 68er und 66er GT nicht, das dürfte die Fragen zu den heutigen Verhältnissen klären ;-)
 
Zuletzt bearbeitet:
Bei ihm läufts nicht. Er hat's ja schon versucht.
 
Also hab dazu die Tage ma bei Asus angerufen und die meinten das,das funtzt mit den beiden Karten das ich bloss erst ab 1600x1200 nen richtigen Leistungschub hätte im GaME und beim Benchen desshalb muss noch was Sparen auf meinen 22"AsUs PG 221 damit die eine Karte net nur Penne oder die sich gar gegenseitig aus Bremsen .... Hab die neue Karte 112 im ersten Steckplatz auf meinem Crosshair und die 96er im Zweiten sollte ich die dann nicht lieber tauschen......

NiCE GrEETS StACKeR :asthanos:
 
Zuletzt bearbeitet:
hab mich jetzt noch mal erkundigt
eine 640gts 92shader und eine 640gts 112shader laufen definitiv nicht im sli zusammen.
gtx und ultra rennen auch nicht im sli
gleiches wie bei mir mit der 320gts und einer 640gts
es müssen wirklich 2x 100% identische karten sein.

greets
 
Nein , das funktioniert nicht. Es sei denn du machst deine GTX zur Ultra per Bios oder umgekehrt. :fresse:

ok das ist aber auch wirklich die einzige möglichkeit. aber wenn dann macht es eher sinn auf die gtx nen ultra bios zu flashen solange sie die taktraten mit macht.

640er 112shader gts kann aber nicht auf 92shader geflasht werden.

ne 320gts kann leider auch nicht zu einer 640gts geflasht werden :hmm: :wall:
 
Nunja er kann ja auch zur GTX flashen und dann soweit hochtakten wie es stabil rennt. Ne GTX zur Ultra flashen ist immer ein wenig risikobehaftet...
 
und ne ultra zur gtx zu flashen ist soooooo unschön. aber klar. lieber ne ultra zur gtx takten und beiden einsetzen anstatt wie ich eine im rechner stecken zu haben und die andere im regal zu platzieren. :wall:
 
Dann werde ich mirgen ma mit K&M Tele und fragen ob sie die eine neue Gts wieder zurücknehmen und mir dafür ne neue GTs G92 schicken :fresse: Die von Asus hat sogar den gleichen Preis wie ich für meine G80 gezahlt habe !!!! Macht das den Unterschiede ob ich jetzt ne alte G80 von nem anderem Hersteller nehme die haben auch noch welche auf Lager blos net von Asus nur von Sparkel ... :heul: Ich würde ja lieber die G92 haben und die andre Gts einfach verkaufen is nen 1 Jahr alt so zimlich genau und is halt ne 640MB Variante von Asus mit 96 Unfied Shadern :) Und da die Karte immer noch mit 96 UnFShadern deklariert wird glaube ich das das kein Prob sein wird mit dem Tausch hoffe ich :asthanos:

NiCE GrEETS StACKeR :asthanos:
 
Wie kann ich die Grakas im SLI OCen? Hab hier zwei 8700M GT im D901C Notebook. Rivatuner, ATItool und Forceware übernehmen den Takt nicht?! Hab den Mobile 156.87 drauf von laptopvideo2go.com?!

Hmm, werden die zwei 8700M GTs überhaupt von RIvatuner und ATItool erkannt ? :confused:

Abgesehn davon schätz ich mal, dass du keine allzu gute Oc Ergebnisse haben wirst, weil ja die Kühlung bei Notebooks platzbedingt nicht sonderlich gut ist.
Hinzugefügter Post:
@ Busen-Snoopy

GTX und Ultra laufen ohne Biosflash problemlos miteinander im SLI ? :hmm:
 
Zuletzt bearbeitet:
hallo,

kurze frage. bin ich zu schusselig für sli? :lol:

habe mir jetzt eine zweite 320gts geholt. will die nun zusammen mit der ersten auf meinem board an meinem 1000w silverstone netzteil betreiben. wie folgt ist das problem.

Slot1 MSI 320GTS 580/850 Rev A2
Slot2 XFX 320GTS 600/950 Rev A3

SLI Bridge sitzt

Treiber sind die neusten installiert.

GPU-Z zeigt an DISABLED (SLI Available)

Aber ich kann SLI einfach nirgends aktivieren.

jemand ne Idee
 
Zuletzt bearbeitet:
:hmm:

Rechtsklick auf Desktop
NVIDIA Systemsteuerung
SLI-Konfiguration einrichten
SLI-Technologie aktivieren (empfohlen)
Übernehmen
 
Die neuesten Treiber müssen nicht immer die Besten sein, probier mal ältere.
Installier die Forcewaretreiber auch mal doppelt - also 2x hintereinander (alle Dateinen auch wenn schon Windows meckert das Sie vorhanden sind überschreiben lassen) und dann erst neuboot. Nvidia Systemsteuerung -> da müsste eine Zeile sein (unter 3D Einstellungen) wo man statt Multi-Display/Leistungsmodus, SLI aktivieren muss. Edit: Genau - da wo Chris sagt.

Oder es liegt irgendwo noch eine Biosoption versteckt. Eventuell Bios auf default setzen.
 
So, bräucht mal eure Hilfe, SLi mit 2 88er Ultras (XFX 88er extreme).

3DMark läuft paar Minuten, dann schaltet das NT ab, d. h. wohl nt zu schwach?

Is ein beQuiet Dark Power Pro 750W.

irgendwelche vorschläge für nen anderes NT, hatte an das 1kw nt von bequiet gedacht :hmm:
 
nee eigentlich sollte das NT reichen! Habe an einem 700W Seasonic auch schon 2 8800Ultra samt Quadcore auf 3.6Ghz am laufen gehabt!

schreib mal ne Mail an beQuiet!
 
Hi Leute,

Früher konnte man über NV treiber SLI-Belastungsanzeige aktivieren.
Mit der neueren treiber kann ich nicht mehr aktivieren.

Kann mir einer sagen wie ich den SLI-Belastungsanzeige aktiviere ?

thx
 
Die ist jetzt oben in der Menueleiste versteckt.

Da in der Zeile: Datei, Bearbeiten, Ansicht, 3D-Einstellungen, Hilfe.

Linke Maustaste auf 3D-Einstellungen - Haken für SLI Belastungsanzeige. Ich hab das damals auch nicht gefunden und immer bei den Aufgaben gesucht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh