SLI Leistungsproblem!!

man was ein mist, was ist denn nun los?

ich bekomm mein XP nicht installiert, der formatiert, kopiert dann die dateien in den Win-installationsordner und dann startet er neu.....

nur fängt der bei mir wieder von vorne an.....so ein mist, das hatte ich noch nie, was mach ich denn da jetzt?:wall:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Alle übertaktungen rausnehmen (sonst kannst Fehler bei installation geben) und beim ersten Neustart die Bootreihenfolge von CD/DVD wieder auf Festplatte zurücksetzen. Hast du mehrere Partitionen auf der Festplatte?
 
hab nix übertaktet, aber 4 patrtitionen auf der platte.....zeigt mir beim installieren aber nur die erste an, 131gb
 
Hast du evtl. noch eine leere Platte um XP darauf zu installieren?
 
esrtmal danke für deine tips spelli,

ich glaub hab ihn wieder........

keine ahnung warum, aber nach dem 5. versuch scheints wieder zu laufen.....hoffentlich hab ich mir jetzt nicht die dateien auf meinen anderen partitionen verschossen....:wall:
Hinzugefügter Post:
mist, rechner ist neu aufgespielt (zumindest das gröbste) und 3dmark05/06 scheisst mir immer noch was....3dmark03 geht wieder prima, so wie vorher auch schon.........was ist da blos los?

extra das OS neu aufgesetzt und nix besser, dafür aber Daten verloren.....klasse....

scheiß SLI...ich habs geahnt das das nur probleme macht....
:wall:
 
Zuletzt bearbeitet:
Nicht scheiss SLI sondern scheiss 3dMark was fürn Aufwand für dieses Prog. Teste lieber mit deinen Games und stelle mal hohe AA/AF ein und vergleiche mit "single" wenn du dann keinen Performancegewinn bemerkst kannste immernoch sagen "scheiss SLI"
 
Nicht scheiss SLI sondern scheiss 3dMark was fürn Aufwand für dieses Prog. Teste lieber mit deinen Games und stelle mal hohe AA/AF ein und vergleiche mit "single" wenn du dann keinen Performancegewinn bemerkst kannste immernoch sagen "scheiss SLI"

der aufwand enstand ja nur, nachdem ich SP2 deinstalliert habe...da ging plötzlich nix mehr.....

jetzt ist die kiste neu aufgespielt, alles wieder im lod, aber 3dmark spricht nach wie vor nicht an....bis auf das 03er, da hab ich jetzt sogar 1000 punkte mehr als vorher.......

aber trotzdem....wieso funzt das 05/06er nicht bei mir ? gibts doch nicht...hab auch schon den neuesten patch probiert....nix,
In spielen zeigt sich soweit schon eine leistungssteigerung, wenn auch nicht gerade bei crysis, da steigen zwar nicht die Fps, dafür kann ich aber AA höher einstellen.

hast aber recht, ich selbst predige hier den leuten nicht auf 3dmark zu achten sondern lieber auf die games....und was tu ich...?
war mir eine lehre.....;)
 
Zuletzt bearbeitet:
Crysis ist auch echt kein Masstab für gute SLI skalierung. Kommt halt auch immer aufs Game an, bei einigen funzt es gut bei anderen weniger (bei Crysis eher weniger)
 
Wenn du wissen willst, ob dein SLI funktioniert, b.z.w. ob es sauber arbeitet, versuch es mal mit CoD4.

http://www.forumdeluxx.de/forum/showpost.php?p=8837862&postcount=30

Nabend,

also mit crysis wären wir uns ja schon mal einig;)

COD4 läuft bei mir auch schon mit einer 8800GT in höchster auflösung mit hohen FPS., merke da keinen großen unterschied bis in den letzten zwei levels......oder gerade am schluß, wo das mit der einstürzenden Brücke kommt, wo du dann zum schluß da liegst, da hab ichs gemerkt, da hat es mit einer GK leicht geruckelt und mit SLI nicht mehr......

nur wieviel mehrleistung das jetzt war kann ich nicht beurteilen, hatte gerade da nicht auf die Fps geachtet...typisch.:wall:

vielleicht sollte ich mir an hand von 3dmark03 sagen das alles funktioniert.....da waren es fast 80% mehr punkte mit SLI
:hmm:
 
Mach doch einfach mit Fraps ein Benchmark, bei CoD4 kann man das gut beim ersten Level machen, wo man in der Rolle des Präsidenten ist und ins Auto geschleift wird, der läuft immer gleich ab.
 
Mach doch einfach mit Fraps ein Benchmark, bei CoD4 kann man das gut beim ersten Level machen, wo man in der Rolle des Präsidenten ist und ins Auto geschleift wird, der läuft immer gleich ab.

das ist ne gute idee......:)

da werd ich COD4 direkt nochmal installieren und ausprobieren.....

danke für den tip
 
So nochmal an alle die 2 Karten im PC haben und nicht die Leistung bekommen die Normal wäre:

1. Prüfen ob wirklich 2 Karten vom gleichen Hersteller und dem gleichen Bios eingebaut sind! Damit haben die meisten Leute Probleme. Ein Freund beispielsweise hatte auch die XfX G80 GTX XxX im PC hat seinen PC zum Laden gebracht und die haben ihm eine XfX G80 GTX eingebaut. er hatte 2 Bilder mehr als sonst - nach tausch der Karte und einbau einer XxX hatte er enorm mehr so wie es sich gehört.

2. Die die XP haben - sollten aufjedenfall SP 2 installiert haben bevor sie überhaupt versuchen SLI zu aktivieren.

3. Die SLI bridge darf nicht vergessen werden!

4. Das Netzteil muss auf jedenfall ausreichend gestaltet sein (G80 GTX mindestens 700 Watt, 88 GT sollten es 600 mindestens sein)!

5. Vista User sollten das Hotfix oder SP1 installiert haben um richtige SLI Nutzung zu bemerken.

6. Wenn dan alles soweit installiert und verkabelt ist - kann man SLI ganz einfach testen: http://www.softpedia.com/get/System/Benchmarks/ShaderMark.shtml
Dieses Programm herunterladen (darin hat man normal VOLLE SLI - Leistung). Anschließend in das Control Panel von Nvidia gehen und auf die Kategorie "SLI-Konfiguration einrichten" klicken. Wenn SLI hier nicht aktiviert ist - es spätestens jetzt tun. Anschließend oben auf "3D-Einstellungen" klicken und die "Visuelle SLI anzeige einblenden".
Wenn dann der ShaderMark startet sollte man links eine Grüne SLI Leiste sehen die dann oben und unten fast am Bildschirmrand anliegt.

Sollte das nicht zutreffen dann liegt der Fehler bei Punkt 1-5^^.

Hoffe geholfen zu haben.

Mfg LKrieger
 
Zuletzt bearbeitet:
So nochmal an alle die 2 Karten im PC haben und nicht die Leistung bekommen die Normal wäre:

1. Prüfen ob wirklich 2 Karten vom gleichen Hersteller und dem gleichen Bios eingebaut sind! Damit haben die meisten Leute Probleme. Ein Freund beispielsweise hatte auch die XfX G80 GTX XxX im PC hat seinen PC zum Laden gebracht und die haben ihm eine XfX G80 GTX eingebaut. er hatte 2 Bilder mehr als sonst - nach tausch der Karte und einbau einer XxX hatte er enorm mehr so wie es sich gehört.

2. Die die XP haben - sollten aufjedenfall SP 2 installiert haben bevor sie überhaupt versuchen SLI zu aktivieren.

3. Die SLI bridge darf nicht vergessen werden!

4. Das Netzteil muss auf jedenfall ausreichend gestaltet sein (G80 GTX mindestens 700 Watt, 88 GT sollten es 600 mindestens sein)!

5. Vista User sollten das Hotfix oder SP1 installiert haben um richtige SLI Nutzung zu bemerken.

6. Wenn dan alles soweit installiert und verkabelt ist - kann man SLI ganz einfach testen: http://www.softpedia.com/get/System/Benchmarks/ShaderMark.shtml
Dieses Programm herunterladen (darin hat man normal VOLLE SLI - Leistung). Anschließend in das Control Panel von Nvidia gehen und auf die Kategorie "SLI-Konfiguration einrichten" klicken. Wenn SLI hier nicht aktiviert ist - es spätestens jetzt tun. Anschließend oben auf "3D-Einstellungen" klicken und die "Visuelle SLI anzeige einblenden".
Wenn dann der ShaderMark startet sollte man links eine Grüne SLI Leiste sehen die dann oben und unten fast am Bildschirmrand anliegt.

Sollte das nicht zutreffen dann liegt der Fehler bei Punkt 1-5^^.

Hoffe geholfen zu haben.

Mfg LKrieger

Also mit 2 Aussagen machst du mir gerade ein wenig Angst bzw. Kopfzerbrechen.

Ich hab auch ein SLI-System mit einem Quad6600 auf 3,4 Ghz und bekomme mit 2x 8800GT im 3dMark06 unter Windows Vista mit SP1 "nur" 16700 Punkte.

Da du aber meintest das man mit zwei 8800GT mindestens ein 600Watt Netzteil braucht, bin ich gerade am überlegen ob man technisch gesehen wirklich mit einem 520Watt Netzteil einen Verlust haben könnte, aber irgendwie kann ich mir das gar nicht vorstellen? Mit zu wenig Strom dürfte doch das Bild gar nicht stattfinden, oder?

Und die andere Aussage mit dem gleichen Bios. Ich hab 2x die gleiche Karte, aber die eine ist vom November und hat noch ein älteres Bios drauf. Wie kann ich die Karte denn flashen? Hab noch nie ein Graka-Bios geflashed. Würden 2 gleiche Bios wieder mehr Schub bedeuten?
 
@m4soN83: Also ich hatte ja auch ein 700 Watt Netzteil von TT und habe damit 2 Karten nen Quad und 4 Festplatten mit nen haufen Beleuchtung versorgt. Mein Netzteil hatte 87% Effizienz. Und der höchstverbrauch bei Lost Planet stieg nach Messungen auf 615 Watt Spitze. Mit der gleichen Konfiguration und einem 1200 Watt Netzteil hab ich 75 Watt mehr Verbrauch (das Netzteil wird kaum 75 Watt Eigenverlust haben).

Was ich jetzt damit sagen will, ist das das SLI-Gespann zwar Strom gezogen hat soviel es vom Netzteil bekommen hat - dieses aber nicht abgeschmiert ist - weil es vllt gerade an der Grenze war. Was du für ein Netzteil mindestens haben solltest hat NV mal eine Liste dazu erstellt siehe Link:
http://www.slizone.com/object/slizone_build_psu.html

Zu deinem Bios:
Das mit dem flashen ist ne heikle Sache. Mein Freund hat damit seine 7950 GX2 geliefert... Da er aber auch das Problem hatte das seine andere GX2 ein anderes Bios hatte und er beim Händler nachfragte warum er denn sowenig Leistung habe, wollte er eben auch flashen^^... Die Website von der man die Bios Dateien laden kann und aufder das nochmal genau erklärt ist suche ich noch (kannte sie mal).

EDIT: Hab den Link gerade gefunden siehe da: http://www.mvktech.net/component/option,com_remository/Itemid,26/func,selectfolder/cat,4/
Hier ist auch nochmal die Vorgehensweise beschrieben: http://www.winfuture-forum.de/index.php?showtopic=20310
ACHTUNG: Wichtig ist auch das beim Flashen die Garantie verloren geht!

Mfg LKrieger
 
Zuletzt bearbeitet:
Wozu rätst du mir jetzt??? ;) Bin aus deiner Antwort nicht ganz schlau geworden!

Meinst du wirklich das ich mit einem Umstieg von meinem 520W Netzteil auf ein 650W mehr Leistung erhalten würde? Wären wieder 100,- Euro :(

Und was ist deine Meinung zum flashen der Karte? Bringt es was oder nicht?
 
Ich würde mich mal in der Nachbarschaft umschauen oder bei Freunden. Vielleicht ist es möglich das du von jemanden der ein Stärkeres PSU hat das du das dann bei dir zum Test einbaust und mal schaust ob es mehr bringt.

Bezüglich dem Bios der Karte würde ich mal den Hersteller anschreiben, ob der vllt. die Karte für dich flasht, denn du hast bestimmt noch Garantie drauf. Dann kannst du Ihm ja mitteilen, das du die Karten im SLI betreiben willst und die eine eben eine ältere Bios-Version oben hat. Dann siehst du auch gleich ob der Hersteller das in dem Fall empfehlen würde bzw. was er dazu sagt.

Glaube das ist erstmal das einfachste - und vorallem sicherste.

Hoffe geholfen zu haben

Mfg LKrieger
 
Zuletzt bearbeitet:
@M4soN83.
Eigentlich ist alles in Ordnung. Auf 3Dmark kannst du nichts geben weil das SLI da erst ab 4GHZ CPU richtig gut skaliert. Hab einen C2Q@3Ghz und 2 8800GTS @default - 16xxx 3Dmark, CPU @3.6Ghz sinds dann 17xxx etc.

Es klagen ja oft auch Besitzer von 9800GX2 (welche ja im Grunde 2 zusammengeklebte 8800GTS sind) über niedrige 3Dmark06 score. Dagegen jubeln die Anderen, die Ihre CPU auf >4 Ghz bekommen.

Achja - selbst benutze ich ein 620W Netzteil und Stromverbauch bei Last 380-430 Watt, wobei der Stromverbauch in Games eben meist ehr 430W ist und in 3Dmark ehr max.380 ist. Allein das zeigt schon wie schlecht SLI in 3Dmark06 funktioniert. 3Dmark sind eben Einzeltest und während SLI im CanyonRun sehr gut läuft, funktioniert es schwach im FireflyForrest-run.
 
Also die Empfehlung für ein 600W oder sogar stärkeres NT für SLI ist vollkommen bescheuert!!
Ein ~500W Markennetzteil reicht da locker aus!Sowohl für 2*8800Gt als auch für zwei GTX!

Man benötigt desshalb eine starke CPU,damit die Grakas auch genug "Material" zum berechnen bekommen.Eine Cpu mit 2Ghz kann diese Anforderung nicht erfüllen,da sie der Flaschenhals in dem System wäre.Somit ist es ganz logisch,dass die Leute mit einer 4Ghz Cpu jubeln,während andere mit weniger eben keine so tollen Ergebnisse erzielen.

Man muss nicht 2 identische Grakas haben.
Weder müssen sie vom gleichen Hersteller,noch müssen sie das gleiche Bios besitzen!Ich z.B. habe auch zwei vollkommen Unterschiedliche 8800GT's und es funktioniert einwandfrei!

Außerdem reicht es nicht aus,sich nur SLI-hotfixes herunterzuladen.
Man muss sich schon das Service Pack runterladen und installieren.
 
Zuletzt bearbeitet:
Also die Empfehlung für ein 600W oder sogar stärkeres NT für SLI ist vollkommen bescheuert!!
Ein ~500W Markennetzteil reicht da locker aus!Sowohl für 2*8800Gt als auch für zwei GTX!

Oha das stimmt garnicht! Ich hab mit 2 GTXen einen Verbrauch von 615 Watt gehabt! 500 Watt is völliger Humbug! Ich hab schon mit 2 GTXen 430 Watt im Idle das entspricht ungefähr die abgerechnete Effizienz von einem 500 Watt netzteil!

Mfg LKrieger
 
Oha das stimmt garnicht! Ich hab mit 2 GTXen einen Verbrauch von 615 Watt gehabt! 500 Watt is völliger Humbug! Ich hab schon mit 2 GTXen 430 Watt im Idle das entspricht ungefähr die abgerechnete Effizienz von einem 500 Watt netzteil!

Mfg LKrieger

Das was du von dir gibst ist Humbug ! Ich selbst hab überhaupt keine Probleme mit meinem 520er Corsair und meinem 8800GT Sli-Gespann.

GTX-Sli 615 Watt? Ich lach mich kaputt

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/28/

Gemessen wird die Gesamt-Leistungsaufnahme des Testsystems. Auch hier gilt die Teilung zwischen Idle- und Last-Betrieb. Letzterer wird durch Verwendung des 3DMark06 unter der Auflösung 1600x1200 sowie 4-fachem Anti-Aliasing und 16-fachem anisotropen Filter simuliert.

Maximal 300 Watt, die GT 250 :cool: , auch wenn der Quad auf 3,4 laufen sollte, macht das letztendlich nicht mehr als 50 Watt aus.

so long
 
Zuletzt bearbeitet:
Das was du von dir gibst ist Humbug ! Ich selbst hab überhaupt keine Probleme mit meinem 520er Corsair und meinem 8800GT Sli-Gespann.

GTX-Sli 615 Watt? Ich lach mich kaputt

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/28/

maximal 300 Watt, die GT 250 :cool: , auch wenn der Quad auf 3,4 laufen sollte, macht das letztendlich nicht mehr als 50 Watt aus.

so long

Richtig!
Ein GTX Sli-Gespann verbraucht ~500W unter Last mit ordentlicher Übertaktung und 2-3 Festplatten!
 
Zuletzt bearbeitet:
Ich mach euch gleich mal 2 Bilder

Edit:
So jetzt könnt Ihr sehen das ich nicths falsches erzähle!



So Ihr könnt unten sehen das 580 Watt Verbrauch schon drauf steht (ja es hängt nur der PC an dem Messgerät)- das ist nur beim lumpigen test von 3d mark 06. Wenn ich jetzt in Vista ginge und Lost Planet rendern würde hätte ich 615 max last. UND NEIN ich habe im moment meine 3. GTX nicht im PC - da hätte ich max last von 801 Watt!

Mit freundlichen Grüßen
LKrieger
 
Zuletzt bearbeitet:
Hi Leute,

ich hab mich extra hier wegen diesem Thread angemeldet,

also

1. ich besitze 2 8800 GTX EXTREME von XFX in SLI und einen Intel Core 2 Quad auf 3,5 Ghz

2. ein 500 Watt Netzteil für eine 8800 Sli Konfig is Müll, ich hab im Idle 419 Watt.

3. Unter Vollast hab ich einen Spitzenwert von 650 Watt.

Wer das anzweifelt, dem kann ich gern ein Beweisfoto machen

mfg

P2K Firon
 
So nochmal an alle die 2 Karten im PC haben und nicht die Leistung bekommen die Normal wäre:

1. Prüfen ob wirklich 2 Karten vom gleichen Hersteller und dem gleichen Bios eingebaut sind! Damit haben die meisten Leute Probleme. Ein Freund beispielsweise hatte auch die XfX G80 GTX XxX im PC hat seinen PC zum Laden gebracht und die haben ihm eine XfX G80 GTX eingebaut. er hatte 2 Bilder mehr als sonst - nach tausch der Karte und einbau einer XxX hatte er enorm mehr so wie es sich gehört.

2. Die die XP haben - sollten aufjedenfall SP 2 installiert haben bevor sie überhaupt versuchen SLI zu aktivieren.

3. Die SLI bridge darf nicht vergessen werden!

4. Das Netzteil muss auf jedenfall ausreichend gestaltet sein (G80 GTX mindestens 700 Watt, 88 GT sollten es 600 mindestens sein)!

5. Vista User sollten das Hotfix oder SP1 installiert haben um richtige SLI Nutzung zu bemerken.

6. Wenn dan alles soweit installiert und verkabelt ist - kann man SLI ganz einfach testen: http://www.softpedia.com/get/System/Benchmarks/ShaderMark.shtml
Dieses Programm herunterladen (darin hat man normal VOLLE SLI - Leistung). Anschließend in das Control Panel von Nvidia gehen und auf die Kategorie "SLI-Konfiguration einrichten" klicken. Wenn SLI hier nicht aktiviert ist - es spätestens jetzt tun. Anschließend oben auf "3D-Einstellungen" klicken und die "Visuelle SLI anzeige einblenden".
Wenn dann der ShaderMark startet sollte man links eine Grüne SLI Leiste sehen die dann oben und unten fast am Bildschirmrand anliegt.

Sollte das nicht zutreffen dann liegt der Fehler bei Punkt 1-5^^.

Hoffe geholfen zu haben.

Mfg LKrieger

Also ich hab gerade mal das Programm installiert und gestartet. Durch den nhancer habe ich die Grüne Trennlinie mittig im Bild.

Was mich nur stutzig macht ist, dass kurz unterhalb des mittleren grünen Trennbalkens und unten knapp oberhalb der Monitorgrenze jeweils eine Graue Linie zu sehen ist die ständig flimmert. Das passiert aber nur in der unteren Monitorhälfte.

Wie darf ich das deuten? Funktioniert mein SLI nicht richtig?

Muss ich doch das Bios flashen? :(
 
@m4soN83: Ich weiß jetzt nicht genau wie du meinst - könntest du vllt mal ein Screenshot machen?
 
Bei mir sind es drei XFX 8800 GTX XXX Grafigkarten und mein CoolerMaster 850 Watt reicht noch,hab aber noch nicht testen können was das System jetzt verbraucht.

System

3-WAY SLI XFX 8800 GTX XXX
Intel Core2Quad 6600 3.6 Ghz Vcore 1.48
XFX nforce 780i SLI
Western Digital Raptor X 150 GB
Corsair DDR2 800 2GB
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh