7950GX2 vs. 7900GX2 und den Rest der Bande!! (Part 1)

Status
Für weitere Antworten geschlossen.
Koyote008 schrieb:
Ich bin auf DEIN Niveau der vorherigen Post´s mit eingestiegen ;)

Aussagen zu DC und SLI Optimierung nur Marketing etc.

Ich habe Deine Post´s schon genau gelesen.

Übrigens interessiert es einen Kehricht wieviel Sli Systeme Du hattest ,
ich hatte 4 , und kann jedes durch lange existierende Threads belegen ,
und Du ?

Greetz Koyote008

jetzt kommst du mit belegen? du kannst ja deine aussagen nicht mal konkret belegen. in 3dcenter gab lange diskusionen über die DC optimierung.
man vermutet das die partikelbrechenung auf beide cores verteilt wird. allerdings konnte man das nicht nachweisen.
wie sind denn deine informationen zur DC optimierung?
meinst du Nvidia hat es geschafft das der 2. core texturen Sampled für antialiasing? oder triangel berechnung steigert?

da du dich anscheinend gut auskennst, kannst du mir vielleicht erklären warum ich einem irrtum erlegen bin?
hast du einen offiziellen pressetext von nvidia, indem sie die optmierung erklärt haben?
man müsste so einen alten "quatschcore" wie mich ganz in die pfanne hauen können oder?
wenn doch so viel unsinn in meinen worten liegt?
computerbase schrieb:
Da Treiber normalerweise jedoch im Kernel-Modus von Windows laufen und so kein Multi-Threading unterstützen, musste nVidia, die schon länger an multi-threaded Treibern arbeiten, erst diese Limitation des Betriebssystem umgehen, um die Treiber sinnvoll mit einer Unterstützung für multiple Threads ausstatten zu können.
computerbase schrieb:
Neu hinzugekommen sind die Optionen „OpenGL-Threading“ sowie „Meldung eines OpenGL-Fehlers ignorieren“, wobei beide Auswahlmöglichkeiten nur bei einer Dual-Core-CPU vorhanden sind. Bei ersterer kann man unter OpenGL die „Threading-Optimierung“

open GL supportet multithreading schon sehr lange, aber direct 3d nicht. wieso ist keine d3d option im neuen 90er treiber?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
cl55amg schrieb:
jetzt kommst du mit belegen? du kannst ja deine aussagen nicht mal konkret belegen. in 3dcenter gab lange diskusionen über die DC optimierung.
man vermutet das die partikelbrechenung auf beide cores verteilt wird. allerdings konnte man das nicht nachweisen.
wie sind denn deine informationen zur DC optimierung?
meinst du Nvidia hat es geschafft das der 2. core texturen Sampled für antialiasing? oder triangel berechnung steigert?

da du dich anscheinend gut auskennst, kannst du mir vielleicht erklären warum ich einem irrtum erlegen bin?

Dein Irrtum ist das ignorieren der Userergebnisse die Du zu hauf
hier im Forum finden wirst.

Übrigens war der erste seinerzeit Steffel333 der hier im Forum die
Unterschiede gebencht hat , fällt mir mal spontan dazu ein , also
such Dir die Antworten einfach , die Dir fehlen :bigok:

:btt:

Greetz Koyote008
 
Koyote008 schrieb:
Dein Irrtum ist das ignorieren der Userergebnisse die Du zu hauf
hier im Forum finden wirst.

Übrigens war der erste seinerzeit Steffel333 der hier im Forum die
Unterschiede gebencht hat , fällt mir mal spontan dazu ein , also
such Dir die Antworten einfach , die Dir fehlen :bigok:

:btt:

Greetz Koyote008


steffel wohnt mit mir in der selben stadt,und ist ein super netter mensch, er hat mich oft zu arbeit morgens gefahren...:-)

ich habe seine benches mitverfolgt.
ich kann ihn gern anrufen, leider ist er ab morgen im agypten urlaub. seine letzten test belegten das es trotz SLI keine großen unterschiede in bezug auf cpu performance gab. deshalb hat er im moment keine große lust cpu seitig aufzurüsten.

ich erlaube mir einen beitrag vom steffel333 an mich, aus dem VIP bereich zu quoten:

steffel333 schrieb:
@cl55

soory aber kein Mensch wirklich gar keiner braucht nen Conroe Leistung für Games....die Limitation ist immer noch bei der GRAKA..und meiner Meinung wird sich da selbst mit dem G80 nichts ändern.....

Denn wer so viel kohle für ein System ausgibt spielt bestimmt nicht in 600/800..oder auch nicht in 1024/768:fresse:

hast noch jemanden im kopf den ich ansprechen kann?

aber ich möchte auf jedenfall das wir beide uns vertragen!
ich hab extra ein interview rausgesucht mit Ben de Waal. er hat was zur DC optimierzung gesagt. vielleicht können wir uns dann vernünftig darüber unterahlten.


http://techreport.com/onearticle.x/8459

Out of curiosity, I asked de Waal why NVIDIA's drivers don't already take advantage of a second CPU. After all, the driver is a separate task from the application calling it, and Hyper-Threaded and SMP systems are rather common. He explained that drivers in Windows normally run synchronously with the applications making API calls, so that they must return an answer before the API call is complete. On top of that, Windows drivers run in kernel mode, so the OS isn't particularly amenable to multithreaded drivers. NVIDIA has apparently been working on multithreaded drivers for some time now, and they've found a way to fudge around the OS limitations.

De Waal cited several opportunities for driver performance gains with multithreading. Among them: vertex processing. He noted that NVIDIA's drivers currently do load balancing for vertex processing, offloading some work to the CPU when the GPU is busy. This sort of vertex processing load could be spun off into a separate thread and processed in parallel.

Some of the driver's other functions don't lend themselves so readily to parallel threading, so NVIDIA will use a combination of fully parallel threads and linear pipelining. We've seen the benefits of linear pipelining in our LAME audio encoding tests; this technique uses a simple buffering scheme to split work between two threads without creating the synchronization headaches of more parallel threading techniques.

Despite the apparent gains offered by multithreading, de Waal expressed some skepticism about the prospects for thread-level parallelism for CPUs. He was concerned that multithreaded games could blunt the impact of multithreaded graphics drivers, among other things.
 
Zuletzt bearbeitet:
Vielleicht währe es nicht schlecht, wenn ihr dazu einen extra thread aufmacht :) Würde mich auch interessieren.

Hier geht es ja um die GX2!
 
@cl55amg, anstatt uns jetzt hier weiter zu streiten... wie wärs wenn wir nen Tread auf machen und anfang zu Benchen... wie die Unterscheide bei dem CPU Takt liegen etc :)

Mfg
 
@cl55amg

Japp , kein Problem , was mich nur ärgert ist das Du jetzt
alles zusammenwirfst.

Dein Zitat von steffel333 z.B. , auch ICH habe in vielen
Threads geschrieben das der Conroe nichts bringt weil
die Grafikkarten zu stark limitieren selbst @SLi.

Und Steffel bezieht sich als Vergleich sicherlich nicht
@ Sli zu einem 3000+.
Ich schrieb selbst das ab FX-57 Niveau selbst im SLI
zum Conroe in FPS nur ein marginaler Unterschied
INGAME besteht , Aquamark3 spielt ja keiner.

Hauptaugenmerk liegt DC @SLi , das ist nicht eben nur
Marketing , das macht @Sli Ingame den wesentlichen
Unterschied aus zwischen einer starken Single und einer
starken Dualcore CPU.

Von Steffel333 habe ich ne CPU gekauft , weiter kennen
tue ich Ihn nicht , allerdings lese ich seine Threads generell
gerne , weil objektiver als manch anderer hier.
Allerdings ist mein bester Kumpel auch nach Wiesbaden
gezogen , an der Stadt liegt es nicht ;o).

Gut, vertragen ist immer gut !
BETRUNKEN.GIF


Zur 7950GX2 , ich finde die Karte Mega interesannt weil für
viele Boards Platzsparender und bei vielen Board Layouts
einen PCI Slot nun doch verwendet werden kann.

Und eben weil auf Intel Systemen nun auch "Sli der anderen Art"
möglich ist , das drängt Crossfire wieder etwas zurück.

Greetz Koyote008
 
Zuletzt bearbeitet:
ich meine ja im grunde dann das selbe wie du.

für mich hat sich angehört als gäbe 50% unterschied in games oder so...
ich persöhnlich wollte bei der nächsten graka generation wieder auf SLI gehen.
da es mich sehr stört das ich bei oblivion kein HDR und AA verwenden kann.
eine x1900xt wäre interessant, aber mir gefällt die hitze und der stromverbrauch nicht.
ansonsten hätte ich selbst gebencht...

zur 7950GX2, ich finde sie auch interessant, besonders den HDCP chip!
ich bin nur verwirrt wegen den finalen taktfrequenzen, 3d center hat geschrieben das die xfx mit 570/775 getaktet wird, ab hier wird die karte wirklich interessant.
 
cl55amg schrieb:
ich meine ja im grunde dann das selbe wie du.

für mich hat sich angehört als gäbe 50% unterschied in games oder so...
ich persöhnlich wollte bei der nächsten graka generation wieder auf SLI gehen.
da es mich sehr stört das ich bei oblivion kein HDR und AA verwenden kann.
eine x1900xt wäre interessant, aber mir gefällt die hitze und der stromverbrauch nicht.
ansonsten hätte ich selbst gebencht...

zur 7950GX2, ich finde sie auch interessant, besonders den HDCP chip!
ich bin nur verwirrt wegen den finalen taktfrequenzen, 3d center hat geschrieben das die xfx mit 570/775 getaktet wird, ab hier wird die karte wirklich interessant.

Naja , HDR und AA zieht mächtig Leistung ab , habe ich bei HL2 Episode1
massiv feststellen müssen , bei meinen Settings hätte mir da 1x GT
nicht gereicht.

Zum Unterschied habe ich Quake4 nochmal angespielt mit 16xAA (Sli) und
Ultra-Settings , Anschlag 60 FPS durchgehend.

Schon Komisch die Spielewelt.

Greetz Koyote008
 
:) hab sich ja alle wieder vertragen...
Ich find die KArte hammer ... ehm was ich vor allem interess ant fand war ja die kompatibilität wenn man 2 Moni's anschliesst (Hab das jetzt so verstanden in den Tests), das ja bei Normalen SLI System soweit ich weiss bis jetzt noch nicht möglich ist.
Mfg
 
Rauwman schrieb:
:) hab sich ja alle wieder vertragen...
Ich find die KArte hammer ... ehm was ich vor allem interess ant fand war ja die kompatibilität wenn man 2 Moni's anschliesst (Hab das jetzt so verstanden in den Tests), das ja bei Normalen SLI System soweit ich weiss bis jetzt noch nicht möglich ist.
Mfg


Alle vertragen ? Über Dich hatten wir es garnicht nötig uns zu
unterhalten :p

Also ein gescheiter Monitor würde mir genügen , kann mich da
leider nicht entscheiden , einerseits reicht mir von der Grösse
her ein 19 Zoll TFT , aber limitiert auf 1280x1024.
Andererseits finde ich Widescreen Mega-Toll , aber nicht alle
Games werden unterstützt , und im Desktop / Internet dürfte der
abgeschnittene Rand auch da sein !?
Und nen 21" TFT der gescheit und schnell ist Zwecks 1600x1200,
ist mir zu teuer.

Verfluchte Spielewelt !

Aber Du hast Recht , statt nen 21" TFT könnte man ja dann bei
der GX2 auch 2x 19" TFT verwenden :love: , allerdings macht
diese Art von soccen erst bei 3x Monitoren Sinn.

Greetz Koyote008
 
Koyote008 schrieb:
Naja , HDR und AA zieht mächtig Leistung ab , habe ich bei HL2 Episode1
massiv feststellen müssen , bei meinen Settings hätte mir da 1x GT
nicht gereicht.

Zum Unterschied habe ich Quake4 nochmal angespielt mit 16xAA (Sli) und
Ultra-Settings , Anschlag 60 FPS durchgehend.

Schon Komisch die Spielewelt.

Greetz Koyote008

da ist ja kein großer unterschied zwischen dem pseudo HDR von HL2 und anderen games.
HL 2 benutzt ein qualitativ minderwertiges FP12 HDR, oblivion verwendet FP16. dieses drückt die performance erst richtig...

nvidia karten können kein MSAA in kombanation mit FP16 HDR, mit FP12 gehts schon, siehe HL 2.
HL 2 episode one läuft bei mir super mit einer 7900 GT (560/1750Mhz).
bei oblivion bräuchte man SLI wenn man AA und HDR benutzen möchte...

Koyote008 schrieb:
und im Desktop / Internet dürfte der
abgeschnittene Rand auch da sein !?

es ist kein abgeschnittener rand da.
 
Zuletzt bearbeitet:
cl55amg schrieb:
da ist ja kein großer unterschied zwischen dem pseudo HDR von HL2 und anderen games.
HL 2 benutzt ein qualitativ minderwertiges FP12 HDR, oblivion verwendet FP16. dieses drückt die performance erst richtig...

nvidia karten können kein MSAA in kombanation mit FP16 HDR, mit FP12 gehts schon, siehe HL 2.
HL 2 episode one läuft bei mir super mit einer 7900 GT (560/1750Mhz).
bei oblivion braüchte man SLI wenn man AA und HDR benutzen möchte...

Das ist mir soweit schon bewusst , aber @ SLi sind die Unterschiede
eben drastischer wenn man HDR zuschaltet (Differenz).
Und ehrlichgesagt sehe ich keinen Unterschied FP12 HL2 EP1 zu SS2
FP16 HDR.

Greetz Koyote008
 
Koyote008 schrieb:
Das ist mir soweit schon bewusst , aber @ SLi sind die Unterschiede
eben drastischer wenn man HDR zuschaltet (Differenz).
Und ehrlichgesagt sehe ich keinen Unterschied FP12 HL2 EP1 zu SS2
FP16 HDR.

Greetz Koyote008

SS2 hab ich leider kaum gespielt, aber in oblivion oder farcry sehe ich es schon.
was kostet die 7950 mittlerweile?
 
verfügbar etwa 550 Euro...
Bei mir läuft HL2 E 1 auch erste Sahne ... weiss net was koyote da manchma für Probs hat.
 
Rauwman schrieb:
verfügbar etwa 550 Euro...
Bei mir läuft HL2 E 1 auch erste Sahne ... weiss net was koyote da manchma für Probs hat.


Probleme sind die Art von Ansprüchen ! :wink:

In den Aussenleveln gibt halt Slowdownes , schaue Dir die Threads
an zu dem Spiel.

Greetz Koyote008
 
Hat hier im Forum keiner eine 7950GX2 von einem anderen Hersteller als XFX bzw. die non-XXX-Version? Mich interessieren brennend die OC-Ergebnisse. Könnte man ja wieder wie bei der 7900GT/X einen OC-Thread aufmachen (falls es sich rentiert).
 
L1NK schrieb:
Hat hier im Forum keiner eine 7950GX2 von einem anderen Hersteller als XFX bzw. die non-XXX-Version? Mich interessieren brennend die OC-Ergebnisse. Könnte man ja wieder wie bei der 7900GT/X einen OC-Thread aufmachen (falls es sich rentiert).

Ich bin ja auch am überlegen Zwecks Conroe.

Allerdings wenn , würde ich die GX2 520M 520/1300 nehmen ,
da diese nur 15€ mehr kostet.

Greetz Koyote008
 
Koyote008 schrieb:
Ich bin ja auch am überlegen Zwecks Conroe.

Allerdings wenn , würde ich die GX2 520M 520/1300 nehmen ,
da diese nur 15€ mehr kostet.

Greetz Koyote008
@Wakü
oooooh.gif
.

Mich interessieren vor allem die Benches mit wakü :)....
Wie warm werden eig die 570 getakteten Karten so bei Last?

Mfg
 
Zuletzt bearbeitet:
Rauwman schrieb:
@Wakü
oooooh.gif
.

Mich interessieren vor allem die Benches mit wakü :)....
Wie warm werden eig die 570 getaktet Karten so bei Last?

Mfg

Interessiert mich auch @ Wakü sind bestimmt für 24/7

600/1600 drinne , zumal Ramtakt eine untergeordnete
Rolle spielt.

Greetz Koyote008
 
Mich würde es einfach interessieren, ob XFX selektiert. Bei der 7900GTX war es (zumindest bei meinen Karten) nicht so. Allerdings gehen jetzt Raberducks XXX zumindest beim RAM um einiges besser als "meine" (zurzeit habe ich das Standartmodell bekomm aber Montag /Dienstag die XXX und werde ich mich dann entscheiden). Vielleicht ist ja sogar auf den XXX schnellerer RAM verbaut.

Ich sage es nochmal (falls es überlesen wurde):
Falls Ihr einen Wasserkühler von Watercool haben wollt, dann schreibt Watercool. Bei genügend Interessenten wird es einen geben.
Oder wir machen eine Sammelliste, die ich dann zu Watercool schicken werde.
Innovatek und Alphacool haben ja bereits einen Kühler bestätigt.
 
naja ob der Ram besser ist, bezweifel icheig, wahrscheinlich sind die Timings höher.
Ja hät ichs nötige Kleingeld wäre die Karte schon unterwegs und dann natürlich Wakü drauf... Also L1nk ich würd sagen Watercoolkönnte einen machen da die KArte doch jetzt schon sehr beliebt ist.
 
naja ich mach @1280x1024 4xaa 16xaf HQ und Supersampling etwa 85 Frames... (Manchma nur 84 manchma aber 88)... Da sieht man dann auch weider dass bei dennen die CPU Limitiert, sieh haben nur nen FX-55...
Mfg
 
@all die den direkten Vergleich mit der 7900GTX haben:

Wie laut ist die Karte wirklich? Wieveil lauter als die GTX?
 
mmhh, das kann ich kaum glauben. Da liegen X1900XTX und 7900GTX relativ nah beisammen, in meinem Live-Erlebnis trennen die Karten Welten..besonders unter Last. :hmm:

Ich hätte gern noch ein/zwei Meinungen aus dem Forum. Aber trotzdem danke für den Link. :)
 
jo ist halt immer so bei reviews... erst wenn mans selber hat kann man sagen wie's ist.
 
Also die Lautstärke ist schon um einiges lauter als bei der 7900GTX. Für einen Ultra-Silent-PC ist die Karte (zumindest mit Standartkühler) sicherlich nichts. Allerdings ist sie bei Weitem nicht so laut wie eine X1800/1900. Ich weiss zwar nicht mehr genau, wie laut die 7800GTX war, ich denke aber, dass sie von der Lautstärke in etwas übereinstimmen.
 
Danke für die Info,

der Lärm einer ATI ist für mich unerträglich und meine 7800GT war mir mit Standardkühler auch zu laut.

Für einen Ultra-Silent-PC ist die Karte (zumindest mit Standartkühler) sicherlich nichts.
Tja, dann fällt sie für mich erstmal aus. Da ich ja den Conroe weglasse könnte ich mir ja zum G80 Launch auch mal eine Wakü gönnen..mal sehen.
 
Aus unserem Review:

"Neben den sehr guten Werten bei hohen Auflösungen kann die GeForce 7950 GX2 auch durch ihre leise Kühlung überzeugen - dies hätte man anfangs sicherlich nicht gedacht. Die beiden Lüfter sind sowohl im 2D- als auch im 3D-Modus angenehm leise, weshalb man diese Grafikkarte auch ohne große Probleme in einem Silent-PC verbauen könnte."

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=390&seite=15
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh