Wassergekühlte XFX 7900 GTX extrem im SLI

TurricanM3 schrieb:
so, gerade aus der Stadt wiedergekommen mit Widerständen - gleich wird gelötet ;)

Ergebnisse wird es aber erst später geben, will noch ein paar Sachen optimieren.

Ich meld mich aber auf jeden Fall.

Wieviel Volt kann man denn dem Speicher und Chip zumuten?
Hey, nicht, daß Du mir noch zuvorkommst. :shot:

Hab bei Reichelt bestellt und die Lieferung kommt erst Mittwoch, schätze ich.

Also Core würde ich bei 1.4V Standard sagen, daß 1.55-1.60V noch bedenkenlos sind. Drüber muß man sehen, ob es bezüglich Takt-pro-mV viel bringt. Ich ziele halt auf 800 MHz Core ab für 24/7 und so hoch wie möglich für Benchmarks - das wäre schon hübsch. Beim Speicher muß man gucken. Die 2.12V default sind ja bereits herstellerseitig übervolted (weiß nicht wieviel GDDR3 normal hat, sind aber mit Sicherheit unter 2V standardmäßig). Also 2.2-2.3V wären wohl noch im Rahmen. Muß man wieder gucken bezüglich Takt-pro-mV.

Ansonsten als obere Schranken die Werte von xs nehmen unter Kaskade ... da sollte man dann keinesfalls drüber gehen mit Wakü. ^^

Soweit ich mich erinnere, habe ich jedenfalls auch was von 1.8V und ~900 MHz mit Wakü auf einer 7900 GTX gelesen. Unter Kaskade dann 1+ GHz GPU.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hey Steffel! Das war keineswegs als Beleidigung gedacht ;) Ich halte viel von dir und Martin, was ihr alles leistet und tut ist echt nice. Ich hielt euch zwei auch nie für Penismarkjäger, aber ich war eben erstaunt, weil ich dachte ihr seid welche, die das letzte rausholen wollen.. wobei martin lötet um.. ok dann richte ich meine Worte eben nur an Steffel ;)
Ich schätzte dich anders ein, aber du veränderst mein Bild von dir weiter und weiter ;) Selbst als du ne GT empfohlen hast an alle, war ich erstaunt ;)

Also nimms mir net übel, war eher nett gemeint ;)
 
@WulleWu

Jo hab ich dann wohl in den falschen Hals bekommen:rolleyes:

Na ja schaun wir erstmal was Martin und Turrican so rausholen aus den GRAKAS...
Ist halt so,das die Gafikarten schon eine Wahnsins Grundpower bieten..
mein 24/7 - Betrieb ist 730 / 1800..damit läuft jedes game mit 1600/1200 AA/AF flüssig:drool: sogar Obliven / Außenlevel 40-80 Fps

Und ich erhoffe mir halt ne Menge vom G80 und den künftigen games...bis dahin würde der 24/7 takt bei mir auch so laufen...

In Benchmarks gebe ich mir keine wirkliche Mühe ( ich meine optimierung) ehrlichgesagt geniese ich auch so das Pixelfeuerwerk in den Games...und erfreue mich an der Wahnsins Optik mit meinem 20" TFT:angel:

@XXmartin & Turrican

Ich bin aber trotzdem Wahnsinnig gespannt auf welche Werte Ihr stabil kommt...Ich drücke Euch beiden die daumen und wünsche Euch keine zittrigen Hände....wenn Ihr noch ein paar tips wegen der mini lötterei brauch sagt bescheid...dann schreibe ich Euch noch ein paar Tips ...
Also Daumendrück:wink:
 
Zuletzt bearbeitet:
Sorry, dass ich mich jetzt erst melde, hatte sehr wenig Zeit die letzten Tage. :(

Zeit war auch der Grund, warum ich den VMod noch nicht gemacht habe - bitte nicht schlagen, aber ich hab am Tag des Umbaus bis 3 Uhr in der Nacht rumgebastelt (hab noch einen 120er hinten eingebaut) und war immer noch nicht fertig. :heul:

Konnte erst gestern fertigstellen. :rolleyes:

Die GTX laufen laut Forceware Takt ("detect optimal frequencies") mit 709/912.

Den Takt des Chips kann ich bis 725MHz übernehmen, darüber gehts nimma. Den Speicher der einen Karte kann ich bis zum Anschlag nach rechts schieben (960MHz) und den der anderen Karte bis 950 - das kommt mir ziemlich viel vor??!?

Ich hab auch 3 verschiedene Biose ausprobiert (EVGA Superclock, XFX Extreme und XXX Edition).

Gibt eigentlich keinerlei Unterschiede. Seltsamerweise beläßt EVGA den Geo-Takt bei +50MHz, bei der 690er XFX sinds +15MHz.


Seltsam ist, dass ich ab einem Chiptakt von ca. 720MHz zwar keine Pixelfehler oder Abstürze habe, aber mein Bild bei HDR-Effekten (z.B. beim 3DMark06 HDR1 Canyon Flight) ganz kurz immer schwarz flackert. Es ist so, als ob zwischendurch Frames ausgelassen werden und dafür nur ein schwarzes Bild erscheint. In Oblivion habe ich das auch schon beobachtet. Bei 700/950 hab ich das Phänomen nicht. :confused:

Ich hab die Karten jetzt mal mit +15 Geo auf 700/950 geflasht und werde mal ein wenig testen, hier noch schnell drei Pics:

7900gtx.jpg

7900gtx_2.jpg

7900gtx_3.jpg


Nicht irritieren lassen, die EVGA Backplate ist nur Optik, ich mag die grünen Karten eigentlich nicht so.
 
Zuletzt bearbeitet:
@Turrican

He schön von Dir zu hören...war schon ganz ungedultig...habe aber nicht nerven wollen:fresse:

auch auf Martins Ergebnisse bin ich sehr gespannt

Also die Platte ist doch OK ..ich hab da seit Montag Spiegelblech mit draufmontiert..mache auch mal Pic....

Wird bei dir dann aber knapp mit dem Vmod stören die Bleche nicht?

720Mhz mit Coolbit ist normal,,,um höher zu kommen nehme Powerstirp..dann ist es kein Ding...

ab 940Mhz hab ich das mit dem HDR in 2005 & 2006 auchwas bringt VS unser Bios mit dem XXX ? könntest Du mir das XXX FX zuschicken?
:wink:
 
xxmartin schrieb:
Die 2.12V default sind ja bereits herstellerseitig übervolted (weiß nicht wieviel GDDR3 normal hat, sind aber mit Sicherheit unter 2V standardmäßig). Also 2.2-2.3V wären wohl noch im Rahmen. Muß man wieder gucken bezüglich Takt-pro-mV.

Wie ich in Erfahrung bringen konnte sind 1.8v default ....

Spannung VDD,VDDQ bei 1.8V, 1.8V; Taktraten von 500MHz bis 800Mhz bei Read-Latenzen von 5 bis 9 ns. Maximaler Datendurchsatz von 51.2GB/s bei 256-Bit Anbindung. Es werden 4 Bits Daten pro Pin in zwei Taktzyklen übertragen. D. h. vierfach-Prefetch wie bei (PC)-DDR2. GDDR3 wurde von ATI entworfen und kam zum ersten Mal bei der nVidia GeForce FX 5700 Ultra und danach bei der GeForce 6800 Ultra zum Einsatz. Bei ATI wurde der Speicher zum ersten Mal bei der Radeon X800 verbaut. Weitere bekannte Produkte bei denen GDDR3 Verwendung findet sind Sonys Playstation 3 (256 MB für die Grafikkarte) und Microsofts Xbox 360 (512 MB werden von CPU von GPU gleichzeitig genutzt).
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Schaut doch bei Samsung einfach nach ;-)

Der Speicher ist für 2,0V / +- 0,1V zugelassen. Also sind 2,1 Default... dürfte platz bis 2,4 locker sein!..

Aber erstmal schauen obs was bringt.


Gruß
 
eu-police schrieb:
Jetzt müsste ich mich natürlich korrigieren da Samsung Default 2 Volt fährt.
Jepp, das mit den 1.8V kommt mir bekannt vor - war mir nur nicht ganz sicher. Daß Samsung die Chips per default für 2.0V freigibt, wußte ich allerdings auch nicht. Dann ist es schon recht seltsam, daß ATI die Chips nur bei 1.8V und weniger MHz fährt. Jedenfalls bei 2V standard keine Probs mit ~2.3V denke ich. Testen & gucken, was es bringt.

steffel333 schrieb:
auch auf Martins Ergebnisse bin ich sehr gespannt
Reichelt hatte 4 Tage Lieferzeit ... bin ich sonst nicht gewohnt von denen. :( Mal schauen, ob ich heute anstatt den Waffen in BF2 eher den Lötkolben auf den Grakas schwingen werde. :)
 
Zuletzt bearbeitet:
so hier die pic


Jo Martin ich hab die schon hier...
hät ich das gewußte hät ich Sie Dir geschickt....

Bin nun auch nicht mehr so sicher ....auf der Lan am Sa. nehme ich alles mit..und na ja..vielleicht wird dann doch rumgelötet!!!





 
Zuletzt bearbeitet:
steffel333 schrieb:
Jo Martin ich hab die schon hier...
hät ich das gewußte hät ich Sie Dir geschickt....
Ich nehme allerdings Spindeltrimmer. Sind nicht nur sehr präzise sondern lassen sich auch perfekt am Rand der Grafikkarte montieren. So kann man dann ganz bequem seitlich die Spannung nach Belieben verstellen.

spindeltrimmer.jpg


Schön außen auf beiden Karten, damit das ein richtiger Luxus-Vmod wird. :) Quasi VGPU und VMem von der Graka fast so leicht wie im Bios für VCore und VDimm. Und Vmod muß schon sein - denn das hier ist ja das "XFX 7900 GTX extrem SLI" Topic ... :coolblue: ... ohne Vmod isses ja nix spannendes und vor allen Dingen nicht extrem. ^^
 
Zuletzt bearbeitet:
jo, ist schon ne feine Sache, hatte ich bei meiner 7800 GTX damals auch eingesetzt
 
xxmartin schrieb:
Ich nehme allerdings Spindeltrimmer. Sind nicht nur sehr präzise sondern lassen sich auch perfekt am Rand der Grafikkarte montieren. So kann man dann ganz bequem seitlich die Spannung nach Belieben verstellen.

spindeltrimmer.jpg


Schön außen auf beiden Karten, damit das ein richtiger Luxus-Vmod wird. :) Quasi VGPU und VMem von der Graka fast so leicht wie im Bios für VCore und VDimm. Und Vmod muß schon sein - denn das hier ist ja das "XFX 7900 GTX extrem SLI" Topic ... :coolblue: ... ohne Vmod isses ja nix spannendes und vor allen Dingen nicht extrem. ^^
Spindeltrimmer...
ei klar Martin was sonst?
Jo mal schaun was Du rausbekommst

Ach so Heißkleber ist auch Pflicht
 
Jo Mai...
Ich hab noch gar nix über User gefunden,die den 7900GTX Mod gemacht haben:confused:
Hat Da einer mal nen link was es bringen könnte?:confused:
 
...dann fehlen nur noch die Spiele, die die gewonnene Power auch ausreizen, und die kommen sicher net vor dem G80...

...mal im Ernst: die Karte liefert doch solo oder im SLI schon leistung im Überschuss, da wäre ich auch vorsichtig mit dem löten - ich nehm ja mal an, das ein VMod nicht so einfach wie bei der GT sein wird...?
 
Oblivion ist eins der Spiele das sowelche Leistung schon braucht.
 
7900 GTX VGPU Mod

So. Heute den Nachmittag damit verbracht, die Karten umzulöten. Habe allerdings erstmal nur den VGPU Mod auf beiden Karten gemacht und nicht den VMem, da der VGPU meiner Meinung nach komplizierter ist (ziemlich winziger SMD-Widerstand). Den VMem kann ich bei Bedarf dann noch machen.

Ergebnis ist "limitierend", würde ich sagen.

Mit 1.4V Standardspannung konnte ich bis ~745 MHz benchmarken, hatte allerdings schon ab 725 MHz so ein eigenartiges Farbflackern in den 3DMark06 HDR Tests sowie HDR Games. Temperatur auf den Karten war 24-25°C idle und 28-29°C load.

Dann nach dem Mod auf 1.5V gegangen und in 5 MHz Schritten hochgetestet. Was extrem positiv war, daß überall die HDR-Fehler verschwunden waren. Bis einschließlich 760 MHz (vermutlich +15 Geo, da ich nix geändert hab an den XFX Bios) liefen alle 3DMarks absolut perfekt ohne jegliche Artefakte, Pixelfehler, Clippingfehler, Farbfehler, fehlerhafte Texturen oder sonstiges. Einfach nur absolut astrein alle Benches & Games. Temperatur faktisch unverändert bei 24-25°C idle und 28-29°C load.

War ich jedenfalls schon recht zufrieden. Allerdings kam dann die Ernüchterung. 765 MHz ging nicht mehr (3DMark03 und 3DMark05 freezen bereits 1 Sek nach Drücken auf den "Run Benchmark" Button - also bevor überhaupt was passiert). Spannung habe ich dann schrittweise bis auf 1.8V erhöht - ohne irgendwelche Auswirkungen. Keine einzige 3D-Anwendung läuft mit 765 MHz oder mehr.

Könnte nun natürlich folgende Ursachen haben:
(1) habe mit Coolbits getestet, vielleicht geht's mit Powerstrip sauber
(2) Geotakt +15 mal mit +0 testen; eventuell limitiert nicht der Core-Takt sondern Geotakt
(3) eine Overvoltage-Protection wie bei den 7900GT, d.h. ich kann zwar über 1.6V mit Multimeter auslesen, aber am Core lag aufgrund einer Schutzschaltung trotzdem nicht mehr als 1.5V an. (bei den 7900GT greift die Overoltage-Protection auch über 1.5V)

Werde mal noch etwas rumtüfteln. Aber wenn 1.4V auf 1.5V direkt 725 auf 760 MHz bringen (die absolut 100% sauber & rockstable laufen), dann muß da noch mehr gehen.

Ein weiterer Grund könnte sein, daß ich immer nur beide Karten zusammen im SLI teste. Kann ja dementsprechend möglich sein, daß ein Core völlig am Limit ist und der andere nicht. Habe allerdings keine Lust, die Karten einzeln auszuloten. Bringt mir im Endeffekt auch nix, da ich ja schließlich SLI will und keine Einzelkarte.

VMem bringt vermutlich auch nicht allzuviel - werde ich also nur im Notfall noch machen. Bin mit 940 MHz (1880 MHz) eigentlich erstmal zufrieden - glaube ohnehin nicht, daß da noch viel am Takt geht (also 100% fehler- und artefaktfrei für 24/7) bei mehr Spannung. Selbst wenn es noch die 60 MHz für 2000 MHz bringt, dann ist das wohl höchstens benchstabil mit Artefakten. Nutzt mir für Dauerbetrieb auch nicht viel.

Ach so: Temperatur interessiert den G71 überhaupt nicht. Bei 1.8V hatte ich noch 26-28°C idle und einen kurzen Sprung auf 33-34°C load bevor es freezed.

Morgen kommen jedenfalls meine neuen 2GB Corsair 4400 Pro - zusammen mit den jetzt gevmoddeten Karten werde ich mal ein paar hübsche 3DMark-Scores zusammenstellen. Zumindest im 06er ziele ich auf die Top20. Bisher war meine CPU ja limitiert durch die Speicher. Mit den neuen (sichere 275 MHz bei 3.0-3-2-8) sollten auch die 3200+ locker zu benchmarken sein. Mal gucken.

Ob sich der Vmod lohnt, muß jeder selbst entscheiden. Ich habe jetzt 760 MHz (+15) absolut astrein für 24/7; vor allen Dingen HDR bei OC völlig sauber, was mir auch sehr wichtig ist. Allerdings muß ich das Problem jenseits der 760 MHz noch lösen. Fazit: Vmod bleibt drauf. :)
 
Zuletzt bearbeitet:
Unter folgende Ursachen tritt Punkt 3 in Kraft, die Spannung kommt nicht
auf der GPU an. Das freezen kommt nur von zu wenig Spannung.

Müße man auf jedem Fall lösen können........

Besser das du keinen V-Mem Mod gemacht hast.....bringt eh so gut
wie garnichts. Nur die Karte verreckt ziemlich schnell mit ein wenig zu viel
Ramspannung :-(

Mit dem Corsair Ram hast du eine gute Wahl getroffen, habe zwei
Pärchen hier von den neuen 44ern Pro. Laufen beide 100% identisch
275 3 3 2 8, leider kein Mhz drüber (Scheinen so programmiert zu sein)
das Ganze bei 2,49 Volt :)

Gruß No_Name

Um die Karten mal einzeln zu testen, kannst ja mal die untere abschalten
im Treiber. Dann weiß zu Mindest ob die Obere gut läuft.
 
bvb123 schrieb:
Hmm, klingt ja nicht so berauschend :(
Immerhin 35 MHz mehr, die absolut sauber sind. Ist auch schon was. :)
800 MHz wären natürlich schöner, aber ist ja eventuell noch in den Griff zu bekommen.


No_Name schrieb:
Unter folgende Ursachen tritt Punkt 3 in Kraft, die Spannung kommt nicht auf der GPU an. Das freezen kommt nur von zu wenig Spannung.
Ja, denke ich auch. Muß ich mal bei VR-Zone bzw. xs fragen/suchen.


No_Name schrieb:
Besser das du keinen V-Mem Mod gemacht hast.....bringt eh so gut wie garnichts. Nur die Karte verreckt ziemlich schnell mit ein wenig zu viel Ramspannung :-(
Hab mir seinerzeit mal zwei Ti4400 gehimmelt (als sie noch 350€ gekostet haben) ... VMem hat sogut wie nix am Speichertakt gebracht (keine 10 MHz) - dafür waren die Karten nach ein paar Wochen mausetot. :)


No_Name schrieb:
Mit dem Corsair Ram hast du eine gute Wahl getroffen, habe zwei Pärchen hier von den neuen 44ern Pro. Laufen beide 100% identisch 275 3 3 2 8, leider kein Mhz drüber (Scheinen so programmiert zu sein) das Ganze bei 2,49 Volt :)
Jo, mir genügen an sich schon garantierte 266 MHz 3.0-3-2-8 für 3200 MHz, die auch 3D-stabil sind (ist ja bei meinen aktuellen CE-5 im 3D eben nicht der Fall). Die 275 MHz sind Bonus. Nur wenn's optimal läuft, sind noch 280-290 MHz drin. Morgen mal testen.

Außerdem sieht man ja auch an den CE-5, daß Spannung nichts bringt - das wird bei GDDR3 nicht viel anders sein. Entweder ein Chip läuft hoch oder eben nicht. Meine laufen 255 MHz mit 2.42V 3D-stabil - selbst mi 2.9V wird das kein einziges MHz mehr.


No_Name schrieb:
Um die Karten mal einzeln zu testen, kannst ja mal die untere abschalten im Treiber. Dann weiß zu Mindest ob die Obere gut läuft.
Würde mich hinterher nur ärgern. Von daher bleibt's bei beiden zusammen. ^^
 
xxmartin schrieb:
Immerhin 35 MHz mehr, die absolut sauber sind. Ist auch schon was. :)
800 MHz wären natürlich schöner, aber ist ja eventuell noch in den Griff zu bekommen.



Ja, denke ich auch. Muß ich mal bei VR-Zone bzw. xs fragen/suchen.



Hab mir seinerzeit mal zwei Ti4400 gehimmelt (als sie noch 350€ gekostet haben) ... VMem hat sogut wie nix am Speichertakt gebracht (keine 10 MHz) - dafür waren die Karten nach ein paar Wochen mausetot. :)



Jo, mir genügen an sich schon garantierte 266 MHz 3.0-3-2-8 für 3200 MHz, die auch 3D-stabil sind (ist ja bei meinen aktuellen CE-5 im 3D eben nicht der Fall). Die 275 MHz sind Bonus. Nur wenn's optimal läuft, sind noch 280-290 MHz drin. Morgen mal testen.

Außerdem sieht man ja auch an den CE-5, daß Spannung nichts bringt - das wird bei GDDR3 nicht viel anders sein. Entweder ein Chip läuft hoch oder eben nicht. Meine laufen 255 MHz mit 2.42V 3D-stabil - selbst mi 2.9V wird das kein einziges MHz mehr.



Würde mich hinterher nur ärgern. Von daher bleibt's bei beiden zusammen. ^^
OhOh Schock!!

THX für Deinen ehrlichen Post...
Bist für mich echt ein Ehrenmann
 
Du opferst vielleicht nicht dein ganzes Geld für den PC ;)

Und so Teuer ist es eigentlich gar nicht nur die erste Anschaffung, wenn man geschickt ist gibts das aufrüsten fast umsonst.

Gruß
 
Man kann sich die Karten auch finanzieren in dem man 170er Opterons kauft, OCed und dann als pretested teurer verkauft (wobei die schon ihr Geld dann auch Wert sind) :p ;).
 
@ XX[X] Martin

Na 760 Mhz GPU + 15 Geotakt @ 1,5V lässt sich schon sehen , für mich persönlich ein Traum @ SLI.

Ob Deine Mühe die 35Mhz Wert waren musst Du ja für Dich selbst
entscheiden.

Ich wäre schon stolz auf 650 Mhz GPU , allerdings den Mod mit
Silberleitlack bei der 7900GT finde ich gammlig für die schönen Karten,
und zum Löten bin ich ungeeignet , wäre der Tod für meine Karten.

+Seufz+

Greetz Koyote008
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh