7900er Quatsch Thread

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hab grad mal bei ALTER**** angerufen. Wollt eigentlich nur wissen, wann sie die Karten listen. :haha: Naja. Der kompetente Herr am anderen Ende der Strippe meinte auch wenn die Karten morgen vorgestellt werden sind die frühestens in 2 - 3 Wochen verfügbar. :lol: Na egal. Wollt ich nur mal loswerden. Fands ziemlich lustig.


mfg
 
Koyote008 schrieb:
im Gegenzug GANZ ÜBEL die Stromaufnahme , aber nur weil ich
Dual-GPU User bin.


Gerade als SLI bzw Dual Karten Nutzer, sollte Dir die Leistungsaufnahme egal sein. Erstens so schlimm im Vergleich ist es nicht, außerdem wirste wohl noch Geld haben für Wakü oder 2 Zalman Kühler:wink:

Ich finde dieses Argument zieht nicht, ob die Karten jetzt ein bischen heißer werden und mehr Strom fressen, was stört das Mich? Ich errinere nochmals an die FX und 9800Pro, oder auch an die X800 und 6800er, da war es der NV Fraktion anscheinend völlig egal, wie Ihre Karten heizten.

Wenn einer sagte, dass die ATis deutlich kühler und stromsparender sind, wurde er nur belächelt und dieses als Argument gar nicht zugelassen. Jetzt haben die NVler sonst keine Argumente mehr, als muss eben dieses früher von Ihnen vernachlässigte Argument ziehen.

Tja was soll man dazu sagen?
 
@mumins: Nicht wirklich.

@thade: Ich müßt es nachschaun, aber wo ich mir die X1800XT gekauft habe (Launch-Termin, meine es war der 5.12 oder 5.13 Cat), da war der Einbruch der ATI nur bei 1280 ok. Bei 1600 ist sie stärker eingebrochen als die Nvidias.
Ich glaub das hatt ich ja schon mal gesagt, daß die aktuelle Serie diverse Nvidia-"Tugenden" alter Tage mitnimmt (Stromverbrauch, Hitze/Lautstärke, Einbrechen bei hoher Auflösung + IQ).

Mir war das da halt egal, da die P/L für eine 512MB Karte doch gut war, zumal die Leistung in meinen Lieblingsspielen CoD2 und FarCry besser als bei der vergleichbaren Nvidia Konkurrenz ist und war.

Bzgl. Bildquali kann man ATI das bessere AF zurechnen (auch wenn ich nix davon gesehen habe, nehmen wir's mal so hin), wohingegen Nvidia doch das bessere AA hat (je nach Modus, vor allem aber extrem bei durchsichtigen Texturen wie Zäunen, Bäumen usw.).

Thema Stromverbrauch: Ein SLI-System aus 2 7800GT 512MB Karten verbraucht exakt genau so viel Strom, wie eine einzige X1800XT PE!!
 
Zuletzt bearbeitet:
oh man das Warten ist ganz schön nervig. Da dauert jeder Tag gleich doppelt solange :lol:

Hoffe nur das die Karten gleich in GUTER Stückzahl lieferbar sind, will nämlich evtl auch eine. :drool:
 
also ich kann heute nacht nicht gut schlafen, glaube ich ;)

ich freu mich wie ein kleines kind auf weihnachten :d
 
thade2001 schrieb:
Gerade als SLI bzw Dual Karten Nutzer, sollte Dir die Leistungsaufnahme egal sein. Erstens so schlimm im Vergleich ist es nicht, außerdem wirste wohl noch Geld haben für Wakü oder 2 Zalman Kühler:wink:

Ich finde dieses Argument zieht nicht, ob die Karten jetzt ein bischen heißer werden und mehr Strom fressen, was stört das Mich? Ich errinere nochmals an die FX und 9800Pro, oder auch an die X800 und 6800er, da war es der NV Fraktion anscheinend völlig egal, wie Ihre Karten heizten.

Wenn einer sagte, dass die ATis deutlich kühler und stromsparender sind, wurde er nur belächelt und dieses als Argument gar nicht zugelassen. Jetzt haben die NVler sonst keine Argumente mehr, als muss eben dieses früher von Ihnen vernachlässigte Argument ziehen.

Tja was soll man dazu sagen?


Ne beim Besten willen ..... die Stromaufnahme Zweier X1900XT @ XTX
ist mir mit Sicherheit nich egal :hmm:

Temperatur in diesen Regionen sind mir auch nicht egal , der blanke Horror
zumal CF dann ansteht , wenn dann nur und aussschliesslich mit Wakü ,
zumal der Orginallüfter Schrott iss.

Mein Problem , ich wollte nur 300€ ausgeben .... max. 500€

Greetz Koyote008
 
Denkt ihr das ein Zalman cu auf eine 7900 gt passt?

Eigentlich müsste der Lochabstand ja gleich sein oder?



PS: Is das ernst gemeint, das ihr kaum schlafen könnt vor vorfreude?
Also so schlimm isses bei mir nicht.

ich freu mich auf was ganz anderes.Nämlich wenn meine madame heut ausm urlaub kommt und ich deshalb die ganze Nacht nich schlafen kann:haha:
 
Zuletzt bearbeitet:
Radical_53 [HWLUXX] schrieb:
Thema Stromverbrauch: Ein SLI-System aus 2 7800GT 512MB Karten verbraucht exakt genau so viel Strom, wie eine einzige X1800XT PE!!
Eigentlich so viel wie 2 7800GTX 512, aber ok.
Das bedeutet aber auch, dass 2 X1800XT PE so viel Strom verbrauchen wie 4 7800GTX 512, außerdem wird die X1800XT bis zu 92°C unter Last warm
Aber nun back2topic. CB sei dank: http://www.computerbase.de/news/har.../2006/maerz/cebit06_geforce_7900_gtx_7900_gt/
 
Zuletzt bearbeitet:
Man was soll ich denn sagen, ich warte schon seid November auf diese beschissene Karte!(zugegeben lag auch mit daran das die 7800gtx512 nicht mehr erhältlich war...)
Ich juckel hier im mom mit nem 2900 Cpu und ner Mx440 rum :fresse:
 
Radical_53 [HWLUXX] schrieb:
@thade: Ich müßt es nachschaun, aber wo ich mir die X1800XT gekauft habe (Launch-Termin, meine es war der 5.12 oder 5.13 Cat), da war der Einbruch der ATI nur bei 1280 ok. Bei 1600 ist sie stärker eingebrochen als die Nvidias.
Ich glaub das hatt ich ja schon mal gesagt, daß die aktuelle Serie diverse Nvidia-"Tugenden" alter Tage mitnimmt (Stromverbrauch, Hitze/Lautstärke, Einbrechen bei hoher Auflösung + IQ)[/B]

Das wäre ja ganz anders als in den diversen Tests, kann Ich mir ehrlich gesagt nicht vorstellen, evtl was falsch gemacht?!

Wo wäre da die Logik? In 1280 führt ATi noch und in 1600 soll NV vorbeiziehen bei AA und AF? :hmm:

twixter schrieb:
Eigentlich so viel wie 2 7800GTX 512, aber ok.
Das bedeutet aber auch, dass 2 X1800XT PE so viel Strom verbrauchen wie 4 7800GTX 512

Bulsh*t, Beweis? Link her!
 
schmarc schrieb:
Denkt ihr das ein Zalman cu auf eine 7900 gt passt?

Eigentlich müsste der Lochabstand ja gleich sein oder?



PS: Is das ernst gemeint, das ihr kaum schlafen könnt vor vorfreude?
Also so schlimm isses bei mir nicht.

ich freu mich auf was ganz anderes.Nämlich wenn meine madame heut ausm urlaub kommt und ich deshalb die ganze Nacht nich schlafen kann:haha:


Naja , vielleicht kannste ned schlafen weil Sie ausm Urlaub zurück iss und "keine Lust" hat :fresse:

:btt:

Greetz Koyote008

thade2001 schrieb:
Das wäre ja ganz anders als in den diversen Tests, kann Ich mir ehrlich gesagt nicht vorstellen, evtl was falsch gemacht?!

Wo wäre da die Logik? In 1280 führt ATi noch und in 1600 soll NV vorbeiziehen bei AA und AF? :hmm:



Bulsh*t, Beweis? Link her!


@ Thade2001

Nu muss ich lachen .... 1600x1200 was der User schreibt habe ich auch gelesen ....

Und versuche nicht die Stromaufnahme schön zu reden ...
1+1 ist fast 2 :bigok:

Greetz Koyote008
 
Zuletzt bearbeitet:
twixter schrieb:
Eigentlich so viel wie 2 7800GTX 512, aber ok.
Das bedeutet aber auch, dass 2 X1800XT PE so viel Strom verbrauchen wie 4 7800GTX 512, außerdem wird die X1800XT bis zu 92°C unter Last warm
Aber nun back2topic. CB sei dank: http://www.computerbase.de/news/har.../2006/maerz/cebit06_geforce_7900_gtx_7900_gt/

Totaler Irrsinn, 2 7800GT 256MB ziehen unter Last so viel wie eine X1800XT PE unter Last. Die 256MB Variante der X1800 zieht 25W weniger. Eine 7800GTX 512MB zieht fast so viel wie die X1800XT PE.
Siehe:
http://www.computerbase.de/artikel/...rce_7800_gtx_512/20/#abschnitt_stromverbrauch
http://www.computerbase.de/artikel/...2006/test_nvidia_geforce_7800_gtx_512_sli/23/
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
mir fällt auf das ASUS auf nem King kong Trip ist...

Welches spiel da wohl dabei sein wird?:rolleyes:
 
wundert mich aber echt das die da son miniding von kühler auf der gt haben, zumal ohne ram kühler, find ich doch sehr suspekt wenn man sich das monster von kühler der gtx anschaut.

€:
Dieser kingkong lüfter sieht ma echt abartig aus.

Und 2GTX sli sieht einfach nur geil aus^^
 
Zuletzt bearbeitet:
Es ist doch aber so, das der Trend klar in die Stromsparrichtung geht, siehe CPUs! Und das ATI gerade mit ihrer neuen Architektur in die andre Richtung geht obwohl sie zuvor darin besser warn als nV - nicht verständlich!

Warum soll man den zwei Karten im Rechner haben, die zwar 10FPS mehr bringen (die man nur beim Pennismark in höheren Punkten sieht, jedoch in Games kaum wahr genommen werden) dafür aber auch 50W oder so mehr verbrauchen an Saft?!

Und net jeder hat automatisch Wakü nur weil er nen schnellen High-End PC besitzt. Somit freuen sich diese Leute (und User welche die Garantie beim Basteln nicht verlieren wollen) umso mehr, wenn die Karten schon mit Lukü kühl bleiben!
 
Jo, es geht ja ums Haben, nicht ums Brauchen. BTW, ab dem 22. März gibts Quad SLI für alle.
 
Was du hast lieber deutlich mehr Stromverbrauch als geringfügig weniger FPS?! :hmm:
 
Mumins schrieb:
Totaler Irrsinn, 2 7800GT 256MB ziehen unter Last so viel wie eine X1800XT PE unter Last. Die 256MB Variante der X1800 zieht 25W weniger. Eine 7800GTX 512MB zieht fast so viel wie die X1800XT PE.
Siehe:
http://www.computerbase.de/artikel/...rce_7800_gtx_512/20/#abschnitt_stromverbrauch
http://www.computerbase.de/artikel/...2006/test_nvidia_geforce_7800_gtx_512_sli/23/

Hm Sorry, hab mich daran orientiert: http://www.computerbase.de/artikel/...rossfire-edition/22/#abschnitt_stromverbrauch
Wieso steht da eigentlich CF Edition? Sind das 2 X1800 oder ist das die CF Karte?
 
SFVogt schrieb:
Was du hast lieber deutlich mehr Stromverbrauch als geringfügig weniger FPS?! :hmm:
Ich glaube die ein SLI System oder Quad System kaufen, ist der Stromverbrauch schnuppe. Mir persönlich langt eine. Es kaufen sich auch einige Leute die nur zum Testen und verkaufen sie dann wieder.

Edit: @BinniBanni: Sommer
 
Zuletzt bearbeitet:
SFVogt schrieb:
Es ist doch aber so, das der Trend klar in die Stromsparrichtung geht, siehe CPUs! Und das ATI gerade mit ihrer neuen Architektur in die andre Richtung geht obwohl sie zuvor darin besser warn als nV - nicht verständlich!

Warum soll man den zwei Karten im Rechner haben, die zwar 10FPS mehr bringen (die man nur beim Pennismark in höheren Punkten sieht, jedoch in Games kaum wahr genommen werden) dafür aber auch 50W oder so mehr verbrauchen an Saft?!

Meinste Du ATi macht das mit Absicht? Unverständlich ist so Manches.

SLI/CF muss nicht unbedingt höhere Frameraten bringen, das Wichtige an der Sache sind die MinFPS, die sind mit SLI/CF deutlich höher als mit einer Singlekarte.

Wenn Ich mal wieder Geld habe, werde Ich mir auch SLI/CF holen, weil damit anständiges Zocken möglich ist, ohne lästige Slowdowns, sowas hasse Ich.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh