R600 doch auf der Cebit????

Status
Für weitere Antworten geschlossen.
@ fdsonne: Ich denke es ist alles in Ordnung mit meinem System. Wenn ich den Prozzi @ Default laufen lasse habe ich ca. 500 Punkte weniger im 06er. Als ich noch 2 HIS X1950pro drinnen hatte, waren es so um die 7800 Punkte im 06er. Ich denke ich warte mal schön auf den K10 und R600 Grakas + RD790.

Gruss
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na ja aber in dem Fall muss man die gleichen Anforderungen auch an NV und deren kommenden bzw. derzeitigen Karten stellen! Man kann das nicht einfach vom Hersteller A erwarten und bei Hersteller N übersehen bzw. auch bei nicht Vorhandensein aktzeptieren - und sorry, aber deine Post riecht verdammt danach.

Ganz so einfach ist es nicht:
NVIDIA war 6 Monate vorher da, ATi kommt spät. Wer später kommt, muss die Dinge besser machen als derjenige, der früher da war. ;)
Ich habe bewusst die Punkte aufgelistet, in denen NVIDIA mit der G80-Generation Probleme hat. Nur dort kann ATi punkten mit dem R600.
Perfomance schön und gut, aber das ist bei weitem nicht alles! Wichtig ist das Gesamtpaket!
ATi hat die Chance mit dem R600 es dort besser zu machen wo NVIDIA zur Zeit Mist baut (Treiber, Idle-Modus). Gerade weil sie 6 Monate zu spät kommen, muss in diesen Punkten was passieren.
Was meinst du warum ich keinen G80 besitze?
Stimmt das Gesamtpaket beim R600, kaufe ich mir eine schnuckelige X2900 XL. Stimmt es nicht, wird es ein G80.
Das ist die Macht die wir als Kunden haben, wir sollten sie nutzen.

MfG :cool:
 
@JamesRyan
Naja über 6 Monate zu spät kann man sich streiten, Nvidias Karten kamen aufgrund der von dir gennanten Probleme auch zu früh, aber ansonsten kann ich dir nur zustimmen!
Das einzige was man noch hinzufügen könnte ist, dass das Preis/Leistungsverhältnis stimmen muss. Dann würde bei mir auch ne X2900Xl in System kommen.
 
Also eigtl. find ich´s langssam richtig gut das nix von ATI kommt. Ist doch mal cool nen ganzes halbes Jahr die schnellste Graka zu haben und nicht diesen Aufrüstwahn widerstehn zu müssen.

Bis jetzt reicht die Leistung einer GTX ganz gut aus, nur die CPU´s sind selbst übertaktet irgendwie noch zu langsam.
 
Wenn man schon eine GTX hat und nicht gerade was mit der Source-Engine unter XP spielen will, sitzt man derzeit auf einem hohen Thron, das ist wahr. :) Nur gibts auch Leute, die jetzt erst eine neue Karte brauchen (oder seit Februar) und seitdem auf diesen dämlichen R600 warten.
 
richtig. weil ich möchte stalker mal gern mit allen details spielen. so richtig flott läuft das auf meiner 7800gtx nicht...
die 8800er haben mich diesmal nicht so recht überzeugt. dennoch spiele ich schon mit dem gedanken da sich der r600 immer weiter nach hinten verzögert und es 0 offizielle infos gibt
 
Zuletzt bearbeitet:
Nur zur Info: Der G80 hat einen 2D Modus. Da die Karte in jeden Modie mit 1,2xV läuft, gäbe es nur noch die Möglichkeit einer Untertaktung. Wer diese unbedingt will, kann selbst Hand anlegen. Die 7900GTX lief zum Beispiel im 3D Modus mit 1,4V und im 2D Modus mit 1,2V. Man sieht, nVidia will garnicht weiter runtergehen, da es wohl zu Fehlern kommen könnte.

die 8800er haben mich diesmal nicht so recht überzeugt.

Was stört dich an den Karten?
 
Ich denke ich werde nun mit der 8800GTS 640MB zuschlagen.

Ist derzeit wieder für 326€ zu haben. Ich denke es wären bei noch längerem warten eine max Ersparnis von 20-25€ drin. Unter 300€ werden die GTS Karten sicher nicht fallen, oder was meint Ihr?
 
das halbherzige runtertakten im 2d modus, der noch nicht perfekte treibersupport. von der ati karte verspreche ich mir mehr - sollte ich mich täuschen kann ich immer noch zu einer nvidia lösung greifen - aber ich wollte das thema jetzt nicht aufrollen - wurde ja schon oft genug hier behandelt. ;)
Hinzugefügter Post:
ich hätte wohl auch zur 8800gts 640 gegriffen, aber da ich dann noch wakübesitzer bin und mir teuer noch einen passenden wakühler dafür kaufen muss, warte ich lieber bis zum r600 release und entscheide dann
 
Zuletzt bearbeitet:
das halbherzige runtertakten im 2d modus, der noch nicht perfekte treibersupport.

Sie taktet sich nicht runter im 2D Modus. ;)
Ansonsten ist das Verständlich. Jedoch muss auch immer im Hinterkopf bleiben, dass die Karte schon standardmäßig auf einer geringeren Spannung läuft und somit der Verbrauch im 3D Modus auf einem "geringen" Niveau gehalten wird.
Tiefer will anscheinend nVidia im Desktopbereich nicht gehen. Auch die 7600 und die 7900GT(GS) Karten hatten im 2D Modus keine geringere Taktung, dafür liefen sie auch nur mit 1,2V!
 
Ich dachte das Runtertakten im 2D bringt schon was an Stromersparnis bei den 8800? Oder bin ich da falsch informiert?
 
@w0mbat:
Lol...da kann man nur lachen.:p
Ansonsten finde ich das sehr beschämend, schäm CB-Forum.

Tiefer will anscheinend nVidia im Desktopbereich nicht gehen. Auch die 7600 und die 7900GT(GS) Karten hatten im 2D Modus keine geringere Taktung, dafür liefen sie auch nur mit 1,2V!

Naja obwohl es tiefer geht, machen sie das nicht?^^
Naja ich finde das etwas schwach von NV.

mfg Nakai
 
soweit ich gehört habe nur ein bischen, deswegen habe ich halbherzig geschrieben ;) (jetzt ist das thema doch wieder aufgerollt :P ;))
 
Was heißt ein bisschen? Wie hoch ist die minimal zu erwartende Leistungsaufnahme einer GTS bei Taktabsenkung?

Vielleicht weiß das ja jemand von Euch. Weiß nicht ob ATI das besser macht als NV
 
Na schon den R600 Thread mit dem G80 verwechselt :stupid:

@w0mbat Naja man sieht ja auch hier wie kindisch die Fanboys reagieren, wenn sie sich oder ihre Marke angegriffen sehen :rolleyes:
 
Zuletzt bearbeitet:
die größten spinner laufen immernoch bei giga.de rum :P

@wombat
bist sicher das nächste woche ES rausgehen? kommst du dann an informationen?
 
@wombat - ich dachte bei HWLuxx liefen die grössten Spinner aus web rum, ich habe mich geirrt

Dachte ich auch^^

Ansonsten wird wohl die Geforce 8800Ultra einen deutlich höheren Shadertakt haben, der Coretakt wird nicht so sehr ansteigen.
Das ist wieder ein Beleg dafür das NV keinen Treiber für die MUL-Aktivierung rausbringt, sondern nur die MULs auch für Shaderberechnungen zugänglich macht.

Der R600 muss also wohl nicht so mächtig werden.

mfg Nakai
 
Wieso redet ihr mit einer KI? Die versteht doch ohnehin nichts. :fresse:
 
100%tige Fakten gibt es nicht. AMD könnte alle verarschen. Was aber als gesichert gilt:

80nm @ 750-850MHz
64v5 Shader
512Bit SI
900MHz GDDR3 & 1000MHz GDDR4
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh