7950GX2 vs. 7900GX2 und den Rest der Bande!! (Part 1)

Status
Für weitere Antworten geschlossen.
AvenDexx schrieb:
Ähm, ich denke, es ist technisch gar nicht möglich, das NV HDR+AA darstellen kann. Wie spielst du denn dann HL2 mit HDR UND AA?
Half Life 2 bietet doch nur Fake HDR.^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Di Canio schrieb:
Half Life 2 bietet doch nur Fake HDR.^^

Nee ... Fake HDR ist Bloom Modus , je nachdem wie gut 8Bit HDR optimiert
ist siehst Du kein Unterschied zu 16Bit , HL2-Episode 1 ein sehr gutes
Beispiel.

Echtes HDR kann weder ATI noch Nvidia :rolleyes:

Greetz Koyote008
 
Koyote008 schrieb:
Nee ... Fake HDR ist Bloom Modus , je nachdem wie gut 8Bit HDR optimiert
ist siehst Du kein Unterschied zu 16Bit , HL2-Episode 1 ein sehr gutes
Beispiel.

Echtes HDR kann weder ATI noch Nvidia :rolleyes:

Greetz Koyote008

Echtes Fp 16 HDR gibts bei allen anderen Spielen die HDR unterstützen.Far Cry,Serious Sam 2 und Oblivion benutzen zb Fp 16 HDR,und da kann eine 7900 kein HDR-AA nur die neusten Ati Karten.
Half Life 2 ist das einzigste Spiel was Fake HDR unterstützt.Das haben wir der X800 Serie zu verdanken.:fresse:
 
Zuletzt bearbeitet:
Di Canio schrieb:
Echtes Fp 16 HDR gibts bei allen anderen Spielen die HDR unterstützen.Far Cry,Serious Sam 2 und Oblivion benutzen zb Fp 16 HDR,und da kann eine 7900 kein HDR-AA nur die neusten Ati Karten.

Jupp so sieht es aus !

Aber bei HL2 nutzt nichtnur Fake-Bloom HDR , sondern unterstützt bei der Nvidia
auch Full-HDR 8 Bit - sieht in dem Fall genauso gut aus wie bei SS2 16Bit.

Ändert nichts daran das man dort mit ner ATI viel besser dranne ist , aber hohe
BQ-Settings und HDR 16Bit und eine Karte ... da muss schon Crossfire her :)

Greetz Koyote008
 
Zuletzt bearbeitet:
Koyote008 schrieb:
Jupp so sieht es aus !

Aber bei HL2 nutzt nichtnur Fake-Bloom HDR , sondern unterstützt bei der Nvidia
auch Full-HDR 8 Bit - sieht in dem Fall genauso gut aus wie bei SS2 16Bit.

Ändert nichts daran das man dort mit ner ATI viel besser dranne ist , aber hohe
BQ-Settings und HDR 16Bit und eine Karte ... da muss schon Crossfire her :)

Greetz Koyote008


Kommt immer auf das Spiel an,bei Oblivion ist eine X1900 XTX mit 4aa-HDR schneller als eine 7900 GTX nur mit HDR.:)Ich mag eigentlich garkein HDR von daher.:btt:
 
Zuletzt bearbeitet:
Koyote008 schrieb:
Stimmt so auch nicht. Die Nvidia kann kein 16Bit HDR , 8Bit schon - das Problem
ist das einige Spiele kein 8Bit unterstützen , gut bisher wars bei mir nur SS2 wo
ich entweder AA oder HDR nutzen konnte.

Und ob bei hohen BQ Settings + HDR alles flüssig läuft ... nunja.

Spiele gerade Half-Life Episode1 @SLI mit AA+HDR .. Loast Coast lief
flüssig , trotz hoher Frames in EP1 habe ich mit HDR wenn ich in eine
solche Szene komme nen ganz kurzen Ruckler , total schlecht optimiert.

Aber Geil siehts aus , und die HIS ICQ3 ist sicher fein , was musste
löhnen ?

Greetz Koyote008

Da muss ich dich leider enttäuschen, mit einer X1900XTX kann man Oblivion auf 1280x960, HDR und 4x AA, alles max, sehr gut flüssig spielen. Oblivion ist eher ein shaderlastiges Spiel und somit für die ATI eher geeignet. Im Gegensatz zur Nvidea liegen die Min-FPS auch deutlich höher (22 FPS bei der ATI, 16 FPS bei der 7900GTX und 20 FPS beim SLI aus 7900GTs.
Da sich eine XTX in Verbindung mit Wakü gut übertakten lässt, liegen die Min-FPS unter HDR und 4x AA bei 27 bis 30, je nach Ini-Settings usw.

Bin selbst von einer 7800 GTX 512 auf eine ATI X1900XTX gewechselt, hat sich auf jeden Fall gelohnt.

Wer sich kein SLI für Oblivion zulegen will, der holt sich als Einzelkarte eine ATI X1900XTX, eine einzelne Nvidia ist nicht zu empfehlen. Es sei denn man will die Karte nur über Luft kühlen --> da wäre die normale ATI dann natürlich eine Zumutung.

Achja wer behauptet, eine 7900 GTX sei insgesamt schneller als eine X1900XTX, der sollte mal sich genauer informieren. Mal liegt die ATI vorne (Oblivion, Fear usw.) mal die Nvidea.


@Beschleunigen

Schön ändert nichts daran, dass im Schnitt SLI nur eine Mehrleistung von ~ 60% bringt...

Kannst mir gerne auch handfeste Gegenbeweise über den Durchschnittswert liefern...

Aber diese Euphorie ist typisch für einen oberschlauen SLI-User wie dich.
 
Zuletzt bearbeitet:
@Beschleunigen

Schön ändert nichts daran, dass im Schnitt SLI nur eine Mehrleistung von ~ 60% bringt...

Kannst mir gerne auch handfeste Gegenbeweise über den Durchschnittswert liefern...

Aber diese Euphorie ist typisch für einen oberschlauen SLI-User wie dich.

naja, wenigsten hab' ich sowohl ein SLi mit zwei 256MB karten und eine neue einzelne topkarte für vergleiche. es gibt genug beispiele, wo SLi nichtmal die 60% schafft und es gibt genau ein spiel, wo es mehr bringt (TES4).

@koyote
wenn man sich auf den test bei THG bezieht, ist ein SLi ziemlich sinnfrei. dort wo zwei alte karten "schneller" sind, als die GTX, liegt der vorteil bei 2 oder 5 frames. das ist der absolut nichtige bereich, der schon fast in die messtolleranz fällt. andersrum: in spielen, wo die GTX "schneller" ist, hat sie fast doppelt so hohe frameraten, wie ein 78GT SLi system. was ist wohl gewichtiger?

wer sich zwei golf kauft, hat nicht automatisch einen daimler, auch wenn's hier und da vielleicht gleichteuer od. u. U. auch vergleichbar schnell ist. man muss auch doppelt tanken (strom) und hat den doppelten verbrauch (2x 256mb sind im SLi nicht 512MB).


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hitman47 schrieb:
Da muss ich dich leider enttäuschen, mit einer X1900XTX kann man Oblivion auf 1280x960, HDR und 4x AA, alles max, sehr gut flüssig spielen. Oblivion ist eher ein shaderlastiges Spiel und somit für die ATI eher geeignet. Im Gegensatz zur Nvidea liegen die Min-FPS auch deutlich höher (22 FPS bei der ATI, 16 FPS bei der 7900GTX und 20 FPS beim SLI aus 7900GTs.
Da sich eine XTX in Verbindung mit Wakü gut übertakten lässt, liegen die Min-FPS unter HDR und 4x AA bei 27 bis 30, je nach Ini-Settings usw.

Bin selbst von einer 7800 GTX 512 auf eine ATI X1900XTX gewechselt, hat sich auf jeden Fall gelohnt.

Wer sich kein SLI für Oblivion zulegen will, der holt sich als Einzelkarte eine ATI X1900XTX, eine einzelne Nvidia ist nicht zu empfehlen. Es sei denn man will die Karte nur über Luft kühlen --> da wäre die normale ATI dann natürlich eine Zumutung.

Achja wer behauptet, eine 7900 GTX sei insgesamt schneller als eine X1900XTX, der sollte mal sich genauer informieren. Mal liegt die ATI vorne (Oblivion, Fear usw.) mal die Nvidea.


@Beschleunigen

Schön ändert nichts daran, dass im Schnitt SLI nur eine Mehrleistung von ~ 60% bringt...

Kannst mir gerne auch handfeste Gegenbeweise über den Durchschnittswert liefern...

Aber diese Euphorie ist typisch für einen oberschlauen SLI-User wie dich.



Hi Hitman47 ,

jupp interesannt , allerdings wäre ich mit Deinen Frameangaben min. FPS
sehr unglücklich. Aber sicher bin ich nicht der Durchschnitt.

Und ja natürlich ist eine X1900XT (aktuell 360€) eine feine Karte ,
@XTX Wakü ruff und fertig.


Also zum SLI , im Durchschnitt der Spiele mit Deiner Angabe von 60%
mag stimmen , allerdings TOP Spiele , ich nehme mal FEAR , Condemned ,
Half-Life2 Episode1 liegen bei Gamerrelevanten Einstellungen die man bei
sehr guter GPU-Leistung nimmt , der Unterschied tatsächlich bei nahezu
100% der durchschnittlichen Frames.
Es gibt auch Spiele die im SLI eben nur 30-40% skalieren an Mehrleistung,
nur diese brauchen auch kein optimiertes SLI Profil. Bei Rogue Trooper
dem Game habe ich es manuell erstellt fix und 60% gehabt , aber nicht
gebraucht. ;)

Soll aber nicht heissen das ich jedem SLI empfehle , zumal im Moment
die X1900XT auch recht günstig ist.

Greetz Koyote008


@Beschleunigen

Da beisst die Katze sich in den Schwanz , Top Spiele die automatisch von SLI
stark profitieren stecken eine 7900GTX locker in den Sack , wenn ein gescheiter
Prozzi im System ist , wenn ein DC-Prozzi im System ist sowieso.

Spiele die schlechter SLI optimiert sind ist eine 7900GTX knapp vorne , aber da
spielt es kaum ne Rolle weil eh genug Power da ist , ansonsten NHancer.

Ich weiss nicht was Du mir hier verklickern willst ?

Wozu sollte man sich , worum es hier eigentlich geht , wenn man eine 7800GTX
hat und nen SLI Board , sich nicht günstig ne 2. 7800GTX holen ?
Wozu seine 7800GTX verschleudern und ne 7900GTX holen ?
Sehe ich nicht den Sinn darin den Du hier anprangerst.

Greetz Koyote008
 
Zuletzt bearbeitet:
von einer 7800GTX zu ner 7900GTX wechseln bringts nicht wirklich...
Da taktest doch lieber deine 78er GTX ans Maximum minus Sicherheitsabstand ;)
Bin von ner 7800GT @ 495/1220 auf ne X1900XT@690/800 gewechselt, das merkste dann schon :)
 
Sehe ich nicht den Sinn darin den Du hier anprangerst.
dass sich SLi mit alten karten nicht lohnt. so schwer kann das doch nicht zu verstehen sein. vielleicht hat man mittelfristig etwas von zwei 512MB 78GTX'en, aber spätestens wenn man dann mit zwei 79GTX'en vergleicht, fängt man an zu weinen.

was du hier grad' als vorteil verkaufen willst, ist ein witz. bevor ich für 5 od. 10 frames in alte technik investiere, kauf' ich lieber zwei moderne karten und gewinne dreimal-soviel dazu.

ansonsten ist die 79GTX auch nicht als aufrüstkarte für owner einer 78GTX gedacht, sondern für leute, die von einer NV40 (oder kleiner) kommen. oder von NV40 SLi oder von einer 78GT od. von vergleichbarem ATI crap.

benchmarks sind übrigens ungeeignet. sowohl meine beiden NV40 @425/1150Mhz, als auch meine 79GTX benchen ~10 kilopunkte im schwanzmark - trotzdem ist die GTX in jedem spiel schneller. selbst mit 8xS AA + GC + TAA + HQ + clamp. und das ist es, was zählt. die GTX ist dabei sparsamer, kühler, ruhiger und vor allem: sie bringt diese leistung IMMER und auch ohne tricks oder nhancer-forcierungen.

denke mal, wer von einer 78GTX512 auf eine 79GTX umsteigt, hat ein geltungsbedürfnis. wer mit 256MB karten unterwegs ist, wird immer den kürzeren ziehen und steigt auf die bessere karte, weil sie einfach mehr RAM hat.

"in den schwanz beissen" sich bestenfalls zwei 256MB karten. selbige haben zwar hohe füllraten, aber leider zuwenig bandbreite und RAM.

wir kommen grad' weg von der füllratenlastigkeit und das ist ATM der einzige punkt, wo SLi punkten kann. bei der füllrate. demnächst noch bei der physik, aber dann machen die jungs, mit der 78GT @SLi wieder ein dummes gesicht, weil die spielrelevante leistung "einer" karte, zu gering ist, wenn die zweite karte sich aus dem 3D rendern heraushält und die für grafik zuständige graka dann über shader, rops oder bandbreite des mickrigen (256mb) VRAM limitiert.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Koyote008 schrieb:
Doch 8BIT kann auch eine Single Nvidia + AA.

Half-Life Episode 1 unterstützt den Modus.

Serious Sam II z.B. nicht.

Greetz Koyote008

Nicht dass ich es nicht glaube, aber da würd ich dennoch gerne mal einen Screen sehen.

THX & Greetz
AvenDexx
 
@koyote

Ich weiß, du bist SLI-Fan der ersten Stunde...und Du kannst gut damit umgehen. Falls ich doch mal ein SLI mache, bist Du mein Ansprechpartner. Ich glaube dir auch, dass dein 7900GT SLI meine 7900GTX in den Frames meistens wegsteckt. Aber wenn wir mal ganz realistisch sind:

Dein Rechner hätte insgesamt einen viel größeren Performanceboost bekommen, wenn Du den ollen SC gegen einen starken Dualcore ersetzt hättest, statt das Geld in die Aufrüstung von 7800GT SLI auf 7900GT SLI zu stecken. Einen praktischen Nutzen hat die Aufrüsttaktik wahrlich nicht. Beide SLIs haben genug Power für alle aktuellen Games. ;)

von einer 7800GTX zu ner 7900GTX wechseln bringts nicht wirklich...

Also zwischen 430 Mhz und 650MHz ist bei mir schon ein erheblicher Unterschied. Dazu kommt noch der doppelte Video-Ram. So eine Aufrüstung macht schon Sinn. Mit ner 7900GTX kannste Oblivion HQ flüssig spielen, mit einer 7800GTX 256 nicht.

wir kommen grad' weg von der füllratenlastigkeit und das ist ATM der einzige punkt, wo SLi punkten kann. bei der füllrate. demnächst noch bei der physik, aber dann machen die jungs, mit der 78GT @SLi wieder ein dummes gesicht, weil die spielrelevante leistung "einer" karte, zu gering ist, wenn die zweite karte sich aus dem 3D rendern heraushält und die für grafik zuständige graka dann über shader, rops oder bandbreite des mickrigen (256mb) VRAM limitiert.

Zudem ist laut nvidia die 7900GTX die einzige Karte, die diese SLI-Physikberechnung unterstützt, also Pustekuchen für 7800/6800 SLI-User. Meine Meinung bleibt die von Beschleunigen: Bevor man sich ein mittelmäßigs SLI holt nimmt man lieber gleich eine richtige High-End-Single-Karte. Ich bin sowieso eher der "fire and forget" Typ: Karte rein, Treiber drauf und ab geht die Post. Ich will da nicht ständig rumfrickeln müssen. Wenn im Winter die nächste Graka-Generation kommt, gucken eh alle jetzigen SLI/CF-User in die Röhre...genau wie ich.
Und ohne ordentliche CPU bringt das SLI eh kaum was. Radical_53 war's glaub ich, der gezeigt hat, dass selbst ein 3GHz AMD Dualcore ein GTX-SLI noch ordentlich limitiert. Wo ist da der reale Mehrnutzen für den hohen Preis?

Trotzdem hat SLI/CF einen generellen Sinn: Für große Bildschirme und High-Definition-Gaming...ab 24"-Bilschirmen aufwärts. Aber wer sowas hat, der hat auch einen FX-60/FX-62 und dem ist das P/L-Verhältnis egal.

LoL die Preise sind doch wohl en Witz oder ?

http://www.geizhals.at/deutschland/?...bote+anzeigen+

Da ganze is ja schon fast schnäppchenhaft

:eek: Ja stimmt, echt billig....ich würde trotzdem keine kaufen. 160W Stromverbrauch sind eben auch ein Witz. :fresse: Solche Preise sind ein gutes Zeichen. Vielleicht überraschen uns ATI und NV ja doch früher mit der Next Gen...oder die GX2 verkaufen sich einfach sauschlecht...
 
Zuletzt bearbeitet:
So jetzt komm ich ma...
Also sich ein SLI zu hollen statt einen SC ist momentan lohneswerter... da ein Dualcore noch nicht wirklich viel bringt... ausser bei SLI weils die Karten besser auslasten.
Jetzt können hier Leute mit ihren Beches kommen wie sie wqollen. Fakt ist das 2 7800gt eine 7900GTX auf jedenfall wegstecken. Da kann man dreheun und wenden was man will. Eine 7900GTX ah tvor allem in Spielen wo die Profile eben noch nicht so optimiert sind mehr Power aber wenn juckts ob er jetzt 60 oder 65 Frames hat. Es sind eben meist Games indenen man eh genug Frames hat.
SLI macht natürlich auch nur sinn wenn man wenigstens in 1280x1024 spielt und auf keinen fall bei 1024er Auflösungen.. das Bremst nur.
Wer jetzt einen 7800gt hat der sollte sich eine 2te für 220 Euro oder so kaufen... weils auf jedenfall mehr bringt als eine 7900gtx oder x1900xtx, da könnt ihr drehen dran was ihr wollt es ist Fakt.
Einzigsten Vorteil in einer Singlekarte seh ich vor allem im geringeren Strom Verbrauch (Wobei eine x1900xtx fast mehr verbraucht als ein SLI Sys).
Wenn ich jetzt dastehen würde und nicht wüsste was ich mir für ein Sys zulege würd ich natürlich "jetzt" zu SingleKarte greifen und zum Dualcore... Aber für die Leute bei dennen SLI möglich wäre, den rate ich zu 2ten Karte an.
Aja und zum Thema HDR... NV Karten unterstützen bei AA nur das 8Bit HDR was "fast" (ich betohne fast) dem 16bit ähnelt. Problem ist nur das Spiele wie Serius Sam oder Oblivion net das 8 Bit drin haben, sondern höchstens diesen Bloom effekt der wirklich net so dolle ist.
Ich selber hab letztens mal eine Vergleich gemacht zwischen einer x1800xt Karte und meinen Sys beim verhalten von HDR in dem Game Call of Duty und andren. Mir ist fast nie ein Unterscheid wzischen dem 8bit und dem 16bit aufgefallen.

Mfg
 
Aja und zum Thema HDR... NV Karten unterstützen bei AA nur das 8Bit HDR was "fast" (ich betohne fast) dem 16bit ähnelt. Problem ist nur das Spiele wie Serius Sam oder Oblivion net das 8 Bit drin haben, sondern höchstens diesen Bloom effekt der wirklich net so dolle ist.

das ist architekturbedingt, dass man kein MSAA auf FP16 rendertargets anwenden kann.

was aber keinesfalls den nutzen von SSAA einschränkt. der spieleentwickler muss halt nur "mitspielen" und man muss ggf. etwas basteln. aber das kennen die freunde des HDR+MSAA ja von ihrer ATI karte ;)

spielt hier irgendwer battlefield2 ???
das hier: ziel speichern unter..
ist mein battlefield2 profil. das wuppt eine 79GTX mit 60-100fps. im spielmenu gehört dabei alles auf max (1280x1024 pixel). und selbst auf schwachen CPUs wären 50-90fps in dieser einstellung, brachial.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Rauwman, hast Du schon mal einen Dualcore erlebt? Erzähl mir doch nicht, dass 10 Frames in einem Game, dass man eh sowohl mit GF7 SLI als auch mit 7900GTX flüssig spielen kann mehr wert sind, als ein viel leistungsfähigeres Gesamtsystem. Den Dualcore würde ich nie mehr hergeben wollen, selbst wenn ich dafür auf eine 7800GT downgraden müßte. :love:

SLI macht natürlich auch nur sinn wenn man wenigstens in 1280x1024 spielt und auf keinen fall bei 1024er Auflösungen.. das Bremst nur.
Sorry aber für mich macht SLI in der Auflösung keinen Sinn, da sowohl XTX als auch GTX alle Games in der Auflösung flüssig mit Eyecandy darstellen können. SLI macht ab 1600x1200 und drüber echten Sinn..für ein 19" TFT mit nativer Auflösung von 1280x1024 sowieso nicht. Für mich, der immer in 1600x1200 spielt würde SLI mehr Sinn machen, als für die TFT-Fraktion...ich habs trotzdem gelassen. Naja, das ist aber nur meine persönliche Meinung.
 
Zuletzt bearbeitet:
@bassmecke

DC ist unter XP noch kein muss. niemand optimiert für DC unter XP irgendwas.
selbst den offiziellen NV treibern ist der DC beim SLi-loadballancing banane.

über multi-cores sprechen wir lieber unter vista nochmal - nur haben dann sicher die enthusiasten schon quad-cores.


(..)

mfg
tobi
 
Sicher ... da will ich mal nicht nein sagen :)
Ein Dualcore ist ne nette sache und wenn man sich dran gewöhnt hat will man ihn nicht hergeben das ist klar. Aber in "Games" bringt er noch nicht soviel! da Bringt SLI mit sicherheit mehr. Doch ich selber möchtauch bald nen Duacore haben da ich öffter schon ma Brennen muss oder Filmebearbeite, da musst ich bis jetzt immer warten. Aber Ich weiss eben noch net ob auf Conroe warten oder dann günstig nen Opti Prested @2,8 nehmen.
Aber ist das eig den Tread dazu ^^...

Mfg
 
Aber Ich weiss eben noch net ob auf Conroe warten oder dann günstig nen Opti Prested @2,8 nehmen.
Ich glaube, das ist im Endeffekt egal. Allein der zweite Kern, unabhängig, wie leistungsfähig er ist, macht den PC zur Rakete. Sicher in Games ist ein SLI besser, aber ich boote :-)D), brenne, codiere, drucke usw.. Egal was Du da mit dem Rechner machst, der DC reißt es locker. Ich hab mal einen Film encodiert, ein großes Bild ausgedruckt und im Netz gesurft,alles gleichzeitig. CPU-Auslastung war grade mal 70%.
In Games tritt die CPU-Leistung sowieso in den Hintergrund, besonders, wenn man mit so Monstergrafikkarten/SLIs unterwegs ist wie wir :fresse:

Aber ok :btt:
 
Zuletzt bearbeitet:
... und genau dass ist der grund zum kauf eines Dualcore:)

So und jetzt noch ma zum Thema, ich halt nicht viel von den 7900gx2 Karten.
1. Weil sie meiner Meinugn doch recht warm werden (wegen dem engen Zusammenleben)
2. Nur interessant für Quad SLI sind, was meiner meinung nach aber noch Schwachsinnig ist, da die optmierung fehlt.
3.Ein SLI aus 2 7900gt doch schneller sein dürfte.

Einzige PRo: Ich finds geil wenn KArten porzig und gross aussehen. Und die sind nunma eben wirklich gross:), deswegen gefiehl mir die 7800gt Dual auch so gut (vor allem mit 2 vf900 *schwärm*).

Mfg
 
Wobei man Rauwman in allen drei Punkten recht geben muß. Ich glaube ja, dass die GX2-Karten nur eine Art "Testkarten " sind. nvidia will damit ausloten, was für den G80 technisch machbar ist....und uns dann mit einer Dual-GPU-Rakete auf einem PCB mit Quadro-like-Kühlung und zivilisierten Abmessungen beglücken. :love:
 
..ich sehe als problem, dass es nur GTs sind. da liegen GT übliche spannungen und takte an und da wird auch nur GT übliche bandbreite verfügbar sein und man wird auch nur GT übliche OC möglichkeiten haben. 1.4ns sind eben keine 1.2 oder 1.1ns.

da kommt auch nur GT-SLi übliche leistung raus.

noch wg. DC
ich hab' einen nachbarn, der extra für seinen DC ein legales windows erwerben musste, weil es den patch, der seine DC probleme löst, nur auf anfrage bei M$ gibt.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
noch wg. DC
ich hab' einen nachbarn, der extra für seinen DC ein legales windows erwerben musste, weil es den patch, der seine DC probleme löst, nur auf anfrage bei M$ gibt.

Hatte nie irgendwelche Probleme..und demzufolge auch keinen Patch. Ich mußte nur das F6er BIOS flashen, da das F1 logischerweise noch keinen Dualcore kannte. ;)

..ich sehe als problem, dass es nur GTs sind. da liegen GT übliche spannungen und takte an und da wird auch nur GT übliche bandbreite (VRAM) verbaut.
Das liegt eben an der Bauart...GTX-Takte würden zuviel Hitze entwickeln und die Karte instabil machen..und ein Wasserkühler für das Ding muß auch erst noch erfunden werden :fresse:

Ich frag mich sowieso, warum die 7900GX2 überhaupt in den Retailmarkt gekommen sind. Ursprünglich sollten die doch nur in High-End-Quad-SLi-FertigPCs verkauft werden. Vielleicht hat Dell gemerkt, dass die Nachfrage nach Quad-SLI zu gering ist und lieber GT/GTX-SLIs verbaut. Die GX2 gingen dann freundlicherweise in den Einzelhandel :d
 
Zuletzt bearbeitet:
Ist überhaupt schon irgendetwas über einen Wasserkühler für die GX2 bekannt? Ist es möglich die beiden Platinen auseinander zu schrauben, so dass man einen einfachen GPU-Only-Kühler verwenden kann? Alienware hat ja bereits bei seiner ALX-Serie einen Wasserkühler auf der GX2 verbaut.
 
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=390

Es müsste sich nur ein WaKü-Hersteller die Mühe machen, einen sehr flachen Kühler zu bauen, der darauf passt:

oben2.jpg
 
Da sind Plastik-Röhrchen als Abstandshalter dazwischen die dann verschraubt werden.
 
Danke für den zeitlich perfekt passenden Test HWLuxx! :love:

NVIDIA bringt mit der GeForce 7950 GX2 eine sehr performante Grafikkarte auf den Markt, die sich insbesondere für sehr hohe Auflösungen mit qualitätsverbessernden Grafikeinstellungen eignet; denn erst dann kann die Grafikkarte ihre Vorteile der beiden GPUs und des großen Grafikspeichers ausspielen. Natürlich ist dabei zu beachten, dass auch die restlichen Komponenten des Computers, insbesondere die CPU, die leistungsstärksten derzeit auf dem Markt sind, damit man überhaupt so richtig von der Leistung der Grafikkarte profitiert.

Was meine Aussage unterstreicht, das eine GX2 bei einem X2 3800+@stock und unterhalb von 1600x1200 Geldverschwendung ist, da man das Potential gar nicht nutzen kann.
Warum nvidia aber dem Retailmarkt Quad-SLI vorenthalten will ist mir schleierhaft. Glaube kaum, dass Leuten wie xxmartin oder Radica_53 das "nötige Expertenwissen" fehlt, um Quad-SLI zum leben zu erwecken. :hmm:

@HWLuxx-Team
Ist die GX2 so leise wie eine 7900GTX oder doch lauter?
 
Zuletzt bearbeitet:
Vielleicht ist es ja möglich, an den Wasserkühler von Alienware ranzukommen. Liegt eine SLI-Bridge bei? Ich denke, dass die Chance auf einen Wasserkühler sehr gering ist, da die Nachfrage sehr gering sein wird. Wieviel cm Platz ist denn zwischen den beiden Platinen? Sind die Bohrungen um die GPU die gleichen wie bei einer 7900GTX? Fragen über Fragen.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh