x800 pro oder 6800 GT ???

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das mit das 400watt netzteil ist alt und stimt nicht.
Wen man ein normalen pc hat also nichts ubertaktet und nur 1 onder 2 festplatten und 2 drives solte eine 350watt PSU gut genug sein (wohl gute marke wie Antec oder enemrax)
Sind sachen ubertaktet und had mein ein vollgeladenen PC dan mus mehr power rein.

Auch had die GT nur 1 molex steckplatz (jemand hier sagte was davon)


Ich habe von einene kumpel gehort das die 6800GT von POV (Point Of View) 2 molex steck platze hat und auch ein dual Slot Cooler so wie die Ultra.
:teufel: When das stimt solte sie sehr leicht zu Ultra zu takten sein und weiter.

ps. bij einer Ultra braucht man laut mehreren berichte nur 1 anschus wen man ubertaktet mus man auch den zweiten gebrauchen.

ubrigens geile pics von PS3.0 finde nur die waffe sieht nicht so super aus. Wie grosskonte der FPS drop sein bei PS3.0?
 
Zuletzt bearbeitet:
Autsch

das muss ruckeln wie sau

und mit welcher karte?
 
keine Ahnung glaub aber miot der 6800U

Es kann auch sein dass nur das eine einzige Bild gerendert wurde
 
Sieht aber echt geil aus

freu in 3 wochen hab ich ne GT

*JUHU*
 
Hi

noch gar nicht

nur in max. 3 wochen ist sie lieferbar

warte noch auf die gt von MSI

sonst nehme ich die AOpen GT
 
und genau in 2 Wochen kommt der 1.2 farCry Patch heraus !
 
also ich bin geschockt !
boah hätte net gedacht das pixel shader 3.0 doch so gut
abgehen kann also das mit bildqualität ist 1a,
überhaupt das beste was ich je gesehn hab,
hoffentlih kann man auch das spielt dann bei pixel shader 3.0 flüssig spielen ,den es gab mal die vorwürfe das man es nicht kann...

aber wenn es geht boah dann muss ich sagen ist
pixel shader 3.0. ein hammer :) :bigok:
NVIDA HAT DOCH GUTE HAUSAUFGABEN GEMACHT als wir alle gedacht haben :bigok: ;) :) :wink:
 
Ich glaube sagen zu dürfen dass die Quali der PS 3.0 BIlder von farCry so gut sind
dass die schon fast der Unreal Engine 3 konkurrenz machen
 
dumme frage, aber... diese - wirklich übelst gute - bildqualität kommt nur durch ps3 zustande? wie sieht es da aus wenn man ne karte hat die kein ps3 kann? bleibt es dann bei der alten BQ oder kommt man trotzdem in den genuss der neuen grafik evtl. halt mit performance einbusen?
 
Hi

ne das ist noch ein riesiger unterschied

naja ein bisschen verbessern kann man jetzt auch bei der x800 weil sie schneller ist mehr platz für besse quali bietet



ne 9800XT war ja schon ziemlich am limit


glaub schon das es durch ps 3.0 auch besser aussieht
 
Zuletzt bearbeitet:
@ myild

nicht nur nv hat gut ihre hausaufgaben gemacht,
aber vor allem die leute von Crytek

Was nützt die beste Architektur wenn sie ( zum teil ) ausgelastet wird
oder wenigstens teile der funtionen genutzt werden.
 
also irgendwie bin ich buff .... eigentlich was ich jetzt gelesen habe bringt VP 3.0 Shader nur folgendes dass durch VP 3.0 Shader keinerlei Vorteile in der Bildqualität bestehen, es lassen sich lediglich größere Shader-Programme leichter integrieren und das sei der Grund warum ATI den VP 3.0 Shader net verwendet
Quelle: ATI News, PCI Express Lineup

Da frag ich mich, was stimmt den nun?
 
naja ti biegt sich das nur zurecht um keine käufer zu verlieren, denn mit ps 3 können sie nicht dienen :d
 
Ich weis nicht obs stimmt, aber ich glaube gelesen zu haben das die gezeigte Qualität auch mit ATI Karten dargestellt werden kann. Nur ATI muss es mit PS2 berechen woduch es große Leistungseinbußen gibt. Egal aufjedenfall sehen die Bilder :hail: aus.
 
Zuletzt bearbeitet:
@ Mr Mo


glaub auch das es so war

bei gleicher quali sollte es auf der nv40 besser laufen und vielleicht noch einen tick besser ausehen

Mfg
 
also so wie ich das gehört habe sollen die ati karten keine PS 3.0 berechnen können.....
wie denn auch???
das ist doch ne ganz neue technik, guckt euch mal das haar der Meerjungfrau in der Nvidia tech demo an,
ich denke nicht das das die ati karten berechnen können
 
Radical_53 schrieb:
An deiner Stelle würde ich noch auf ein paar Tests warten, gerade wegen der neuen Treiber.

Da ja auch ATI stark "optimiert" hat, sieht es bei gleicher IQ im Moment eigentlich besser für Nvidia aus, bzw. "Gleichstand".

Für mich ein Vorteil, für dich wohl egal, ist die Nvidia-interne Optimierung Graka+Chipsatz, wodurch es z.B. auf dem NF3 klar zugunsten der GeForce ausgehen müßte.

Aber: Würde da wirklich noch weitere Tests mit späteren Treibern abwarten. Gerade was die IQ angeht.

wäre die optimierung denn so sichtbar in tests usw ?

spz:d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh