Geforce 7800GTX SLI picture appears intactly

@ offthewall :
Von welcher Entwicklung sprichst du ? Die Preise bleiben bei den Top-Modellen eh immer gleich. Geforce 4 TI 4600 kostete umgerechnet 500 Euro nach der Vorstellung und mit der "GF 5" wars auch das gleiche.
:motz:


Diese aktuelle Entwicklung gefällt mir da schon eher. Keine großartigen Ankündigungen mehr, wenn keine Karten verfügbar sind :banana:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Starscream

...Grammatik...ja da solltest du noch ein wenig feilen, aber wir wissen ja wie du es gemeint hast. ;)
 
neh bin hollander und schreibe auser hier auf hardwareluxx nirgends deutsch.

das und hab starken kalcium mangel also bin immer mude und wetter ist :kotz:

und die wahrheit ist: ich bin zu faul um die grammatic zu kontrolieren oder um uberhaubt drauf zu achten :shake:

aber solange die nachricht ruber komt :) und solange ich schlauer ruber komme als George Bush

edit: habe heute irgendwan was gelesen auf theinquirer.
wen du keine sau starke CPu hast oder wen die nicht gut ubertaktet ist kan man ne 7800GTX oder spater eine x900 vergessen, das und man sol sich nicht mehr zu viel verlassen auf 3dmark05, vorallem nicht wen keine top CPU gebraucht wurde.

eine site hat ein test wiederholt mit nen 7800GTX auf stock speeds.
erst mit nen 2.6Ghz AMD 64 FX danach mit nen 2.8Ghz an sonsten keine anderungen.

scheint das dies in single card betrieb und in SLI ein riesen boost gibt was anzeigt das ab 7000 punkte 3dmark05 schon ein gutes stuck vom CPu abgebremst wird.
durch diese 200mhz ubertaktung ging der 3dmark von 7600 nach 8500 punkte.
die musten mahl die CPu zum tote ubertakten um zu sehen wie stark die CPu ab bremst.
und ich erwarte auch das die 2 neuen angekundigten treiber noch nen guten boost geben.

o ja warnung: scheint das die Nvidia partner nicht alle die selben speicher speeds haben, manche haben schneleren speicher drauf.
 
Zuletzt bearbeitet:
Starscream schrieb:
o ja warnung: scheint das die Nvidia partner nicht alle die selben speicher speeds haben, manche haben schneleren speicher drauf.

Kann ich mir ehrlich gesagt nicht vorstellen. Es sei denn, jemand benutzt schnelleren Speicher, also noch schneller als 1.6ns, denn der wird den Standard darstellen.
 
Starscream schrieb:
edit: habe heute irgendwan was gelesen auf theinquirer.
wen du keine sau starke CPu hast oder wen die nicht gut ubertaktet ist kan man ne 7800GTX oder spater eine x900 vergessen, das und man sol sich nicht mehr zu viel verlassen auf 3dmark05, vorallem nicht wen keine top CPU gebraucht wurde.

eine site hat ein test wiederholt mit nen 7800GTX auf stock speeds.
erst mit nen 2.6Ghz AMD 64 FX danach mit nen 2.8Ghz an sonsten keine anderungen.

scheint das dies in single card betrieb und in SLI ein riesen boost gibt was anzeigt das ab 7000 punkte 3dmark05 schon ein gutes stuck vom CPu abgebremst wird.
durch diese 200mhz ubertaktung ging der 3dmark von 7600 nach 8500 punkte.
die musten mahl die CPu zum tote ubertakten um zu sehen wie stark die CPu ab bremst.
Ich bin auch dafür, daß das irgend eine Review-Seite mal gründlich untersucht. Der 3DMark05 ist ja grundsätzlich bei niedrigen Scores CPU-unabhängig. Allerdings in Regionen von 6800U-SLI, 7800GTX, 7800GTX-SLI wird's sehr interessant.

Man sollte bei ansonsten identischen Einstellungen mal z.B. einen FX-57 (oder notfals FX-55 SanDiego) unter Kompressor nehmen. So kann man Referenztakt, Speichertakt, Timings, Graka-Takt (Core/Mem) und auch sonstiges alles identisch lassen und einzig über den Multiplikator von 12x200 angefangen bis 17x200 hoch (3.4 GHz sollte ein FX-57 unter Komkü locker 3D-stabil schaffen) im 3DMark05 testen.

Das ganze einmal mit 7800GTX-Single und einmal mit 7800GTX-SLI. Dann kann man sicherlich schön sehen, ab wann die CPU an Einfluß verliert. Das wird natürlich im Sinlge Betrieb eher festzustellen sein als im SLI.

MfG
 
Ich glaube auch, dass die nächste Generation übers Ziel hinaus schießt!
Das erste Mal, wo noch keine vernünftige Hardware da ist um das Potential zu nutzen.
So weit ist das nun schon mit dem Wettrüsten! Sowohl NV als auch ATI sollten lieber die eben eingeführten Standards ausnutzen... gerade bei HDR brechen die Karten ganz schön ein...
Und bevor ich mir nen FX und ne 7x00 oder x900 zulege um 1-2 Spiele zum laufen zu bringen, kauf ich mir ne Konsole... Das Ganze geht in eine Richtung, die mir überhaupt nicht gefällt! Siehe BF²... das wollte ich mir eigentlich kaufen, spiele das aber nur mit Freunden... die haben aber zum Teil ne Ti4x00 und werden sich wegen einem Spiel keine neue Graka kaufen...
 
In diesem Artikel sieht man schon, das selbst zwei 6800 Ultra CPU-limitiert sind. Bei den neuen Karten bräuchte man dann ja schon einen FX@3,5ghz oder so in die Richtung.
 
Ja, war auch nur um zu zeigen, was man dann theoretisch haben müsste um die volle Power der Karten auszukosten.
 
xxmartin schrieb:
Ich bin auch dafür, daß das irgend eine Review-Seite mal gründlich untersucht. Der 3DMark05 ist ja grundsätzlich bei niedrigen Scores CPU-unabhängig. Allerdings in Regionen von 6800U-SLI, 7800GTX, 7800GTX-SLI wird's sehr interessant.

Man sollte bei ansonsten identischen Einstellungen mal z.B. einen FX-57 (oder notfals FX-55 SanDiego) unter Kompressor nehmen. So kann man Referenztakt, Speichertakt, Timings, Graka-Takt (Core/Mem) und auch sonstiges alles identisch lassen und einzig über den Multiplikator von 12x200 angefangen bis 17x200 hoch (3.4 GHz sollte ein FX-57 unter Komkü locker 3D-stabil schaffen) im 3DMark05 testen.

Das ganze einmal mit 7800GTX-Single und einmal mit 7800GTX-SLI. Dann kann man sicherlich schön sehen, ab wann die CPU an Einfluß verliert. Das wird natürlich im Sinlge Betrieb eher festzustellen sein als im SLI.

MfG
Was natürlich für reale Games dann wieder voll am ziel vorbei ist denn da muss auch die KI und Physik von der CPU berechnet werden (bei MP eben nur Physik) was bei 3DMurks nicht der fall ist ...
 
wäre aber trotzdem sehr interessant, muss ja nicht unbedingt 3DMark sein.
 
jetzt + ~30h ...

also morgen mittag ... wobei ich net weiss ob es DE oder US zeit sein soll :hmm:
 
sommerwiewinter schrieb:
Ich glaube auch, dass die nächste Generation übers Ziel hinaus schießt!
Das erste Mal, wo noch keine vernünftige Hardware da ist um das Potential zu nutzen.
So weit ist das nun schon mit dem Wettrüsten! Sowohl NV als auch ATI sollten lieber die eben eingeführten Standards ausnutzen... gerade bei HDR brechen die Karten ganz schön ein...
Und bevor ich mir nen FX und ne 7x00 oder x900 zulege um 1-2 Spiele zum laufen zu bringen, kauf ich mir ne Konsole... Das Ganze geht in eine Richtung, die mir überhaupt nicht gefällt! Siehe BF²... das wollte ich mir eigentlich kaufen, spiele das aber nur mit Freunden... die haben aber zum Teil ne Ti4x00 und werden sich wegen einem Spiel keine neue Graka kaufen...

quatsch, selbst als die ti4600 rauskam gabs keine stark genugen cpu's :wink: . eine ti4x00 und keine neue kaufen zu wollen, das ist auch nit das ware, weil es gibt mehr als ein spiel wo die nit reicht.
 
amduser schrieb:
quatsch, selbst als die ti4600 rauskam gabs keine stark genugen cpu's :wink: . eine ti4x00 und keine neue kaufen zu wollen, das ist auch nit das ware, weil es gibt mehr als ein spiel wo die nit reicht.
ebenso bei der GF2Ultra ... einfach mal paar Reviews aus der damiligen zeit raussuchen ...
 
Habt schon Recht aus einem Blickwinkel...
Ich hatte die Ti 4600 auf nem 1800+ zu laufen und das ging gut... da limitieret meiner Meinung nichts... Bei der GF2Ultra schon eher, nur ging die am Anfang für 1250 DM (Elsa) und ein Athlon 1GHz für 800 DM übern Tisch...

Ich hatte diese Kombination Athlon 1000/Elsa Gladiac Ultra, dann XP 1800/ Elsa Gladiac Ultra und bin dan zum 1800+/Ti4600 gewechselt.

Was mir aber aufgefallen ist, die skalierten schon mit den CPU's... anders als jetzt.
A64 3800 2x 6800U @SLI... beim übertakten der karten kommt nicht viel, erst wenn die CPU über nen Wert klettert ( z.B.3GHz beim FX) merkt man auch das Takten der Karten deutlich...
 
ich finde die Leistungssteigerung aber etwas mager....
ich meine mit ner 6800Ultra schafft man ca. 6000 05er punkte und da sind knapp 2000 besser gerade mal eine Steigerung um 33%...
bei der GF6 serie war das ja enorm zur 5er... da waren es ja ca. 100%
deshalb lohnt sich es nicht wirklich finde ich die neue Generaion von Nvidia zu kaufen...
ich bin eh mit meiner 6800Gt erstmal zufrieden :banana:
 
ich bin auch der meinung, das die neue 7er reihe eine noch stärkere cpu als partner braucht, als die 6er reihe.
ich würd das ganze mal mit einem a64 4800+ testen (dual core)
da geht bestimmt was. zumindest im 3dmurks :rolleyes:
 
Anarchy schrieb:
Was natürlich für reale Games dann wieder voll am ziel vorbei ist denn da muss auch die KI und Physik von der CPU berechnet werden (bei MP eben nur Physik) was bei 3DMurks nicht der fall ist ...
Ja, stimmt. Da hast Du natürlich recht. Also sollte man neben 3DMark05 auch noch meinetwegen FarCry, Doom3 und Battlefield 2 nehmen. Aber bei zuvielen Games wird der Testaufwand einfach zu hoch, denke ich. Die Games müßten eh alle bei sehr hohen Auflösungen und max AA und max AF laufen, um vernünftig was mit den Daten zeigen zu können.

Naja, heute oder morgen ist's ja soweit. Dann wissen wir erstmal mehr.
 
ist der muskelbepackte fetti mit dem jetpack auf dem rücken, das neue nvidia maskotchen? diesmal kein madel mehr oder wie?
ich seh leider als schrift nur wirre zeichen, aber die bilder seh ich wenigstens :d
 
ich glaube die wirren schriftzeichen kommen davon, das du entweder kein Asia pack von der win cd installiert hast, oder du hast es aber verstehst nunmal kein chinesisch ;)
 
ich lad mir kein asia pack, weil ich kein chinesisch kann :d

weis zufällig jemand wann der countdown bei alternet immer umgeschlagen hat?
denn die letzten tage war das glaube ich immer um die 15-16uhr. würde also heißen das jetzt demnächst irgendwas passiert :hmm:

*edit*
toll was schreib ich?
eben hat alternet aus dem 1tag einen 24std. countdown gemacht :d
 
Zuletzt bearbeitet:
Ich finde die Tests bei 1600x1200 zum :kotz: Die meisten haben spieletaugliche TFTs mit 1280x1024 (17- und 19-Zöller). Daher sollte in dieser Auflösung der höchste Leistungszugewinn zu verbuchen sein, nicht bei utopischen Auflösungen die nur 5% der User nutzen :fire:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh