Nvidia 8800GT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke für den "Größenvergleich" :bigok:

Sah echt größer aus... nicht dass es mich gestört hätte...
 
Bitte nicht schlagen, aber die Werte sind ja nicht so doll:

Bench

gruß
truli
;)
 
Bitte nicht schlagen, aber die Werte sind ja nicht so doll:

Bench

gruß
truli
;)

siehst du andere Werte als ich? immer über GTS Niveau ist doch nicht schlecht!?
Und 740/1000MHz beim OCing finde ich auch nicht schlecht, zumal das sicher nicht das Ende sein wird.

btw: Hab den Vergleich nochmal neu gemacht:
http://img137.imageshack.us/img137/111/8800gtgtxvergleich2vv1.jpg

Kann ja vll in den ersten Post geschrieben werden (bis offizielle/echt nachgemessene Werte kommen) das auf Grund von Bildern darauf geschlossen werden kann das die Karte so ca. 23-24cm lang sein wird
 
@the-gamer

Hast ja Recht, die Werte liegen über der GTS aber ich und viele andere dachten, das da mehr rüberkommen würde, aber egal.

Wer jetzt auf eine neue Graka wechseln möchte ist mit dieser sicherlich gut beraten und ich kann meine GTS noch ne Weile werkeln lassen.

gruß
truli
;)
 
Also, wie schon gesagt, hat sich meine Befürchtung, daß die Qimonda Speicher wohl nicht über 1000MHz gehen leider bestätigt (ca.+10%). Naja vll. verbauen manche Hersteller auch mal andere. P.S.: Es gibt von Qimonda auch 1200'er, sind halt etwas teurer....
 
Mehr erwartet? Von einer Karte, die namentlich sogar unterhalb einer GTS einzuordnen ist? Es ist doch so schon verwirrend und überraschend genug!
 
ja ein bisschen merkwürdig ist das schon aber sie soll ja knapp an einer GTX ran kommen also wenn die rauskommt ist das aufjedenfall meine :)
 
Ich denk mal, in den nächsten 2 oder 3 Tagen werden die ersten Shops sie listen ;)

*Auchhabenwill* :fresse:
 
@the-gamer

Hast ja Recht, die Werte liegen über der GTS aber ich und viele andere dachten, das da mehr rüberkommen würde, aber egal.

Wer jetzt auf eine neue Graka wechseln möchte ist mit dieser sicherlich gut beraten und ich kann meine GTS noch ne Weile werkeln lassen.

gruß
truli
;)

sowas habe ich in keinem einzigen forum gelesen. im gegenteil: wenn man die leistung der GT gleichauf/über GTS niveau vermutet hat, wurde man von einigen als träumer bezeichnet.
die technischen daten haben schon vor 2 wochen darauf hingedeutet, dass die GT in die fussstapfen der alten GTS treten wird. alles mit GTX-leistung und darüber wäre wirkliche träumerei gewesen ;)
 
Es geht mit 65nm Technik schon noch einiges mehr, kommt halt dann danach.
Diese mußte halt preislich etwas nach unten geschraubt sein. Das scheint gut zu passen....Auf jeden Fall hochinteressant....:)
 
Ja aber wie gesagt es gibt Leute die es einfach nicht raffen.

Die GT ist als Ersatz für die GTS gedacht und siedelt sich in dieser Leistungsregion an. So war es angekündigt und so ist es auch.

Verstehe nicht was die Leute für ein wesen machen, es wurde nie von einer Überkarte gesprochen :hmm:

Einfach ein Ersatz für die Stromfressende 88er GTS und ein Konkurent vom Preis für die aktuellen ATI Produkte.

Aber manche leben in ner anderen Welt irgendwie.... :stupid:
 
das mit gen 9 versionen kann ich mir nur so vorstellen, das jeder hersteller seine unterschiedlichen OC versionen anbietet. wie man es z.b von XFX kennt.
 
Wenn die Leistung stimmt wird die Karte nen P/L Kracher.
Mich stört aber irgendwie der fehlende DX10.1 support..
 
Wenn die Leistung stimmt wird die Karte nen P/L Kracher.
Mich stört aber irgendwie der fehlende DX10.1 support..

Und warum? Wofür brauchst es den? Jetzt kommen die ersten Dx10 Games wo die nächste Gen im Anmarsch ist, anders wird es mit DX10.1 auch nicht sein.

Bis das wichtig ist , kaufst schon die nächste Karte...:)
 
arg wieder diese DX10.1 sache.

was hat der 6600GT der neue SM3.0 gebracht? genau genommen garnichts.
sie war einfach nur zu schwach dafür, selbst die 6800Ultra. zumal es an spielen mit SM3 recht gemangelt hat.
 
@Le frog99
"Recht geb"....;)
Edit: Post#346
 
Zuletzt bearbeitet:
ich kann mir nicht vorstellen dass dei benchmarks stimmen...vorallem für den preis.
 
ich für meinen teil finde das die gt ein P/L kracher ist und wenn man sich die oc ergebnisse ansieht geht das teil ja oced in gtx gegenden (7k sm3,sm2 score im 3d06) ist mmn kein wert einer "mid-range" karte
Kostet aber nur die hälfte einer gtx..
Wenn man bedenkt das die gt eine gts640 fast überall einsackt und dafür noch billiger ist und nur das kostet was die kleine gts kostet taugt ma des noch viel mehr....
Bin kein high ender, und muß sagen 250-300€ is für mich das maximum was ich für ne graka ausgeben will, denn nach 12-18 monaten ist sie eh schon reif fürs verkaufen...
 
ich kann mir nicht vorstellen dass dei benchmarks stimmen...vorallem für den preis.

:wall:

Und die 2900Pro passt auch nicht weil der Preis zu niedrig ist und sie so schnell ist wie ne GTS??

Überall Hexerei am Werke...

Schon dran gedacht das Nvidia auf die Midrange Preise von ATI mal reagieren muß? Und das werden sie mit Sicherheit nicht mit alten Karten tun.
 
Zuletzt bearbeitet:
Ansonsten, das mit dem Dx 10.1 hätte man technisch leicht integrieren können. Da nervt Marketing. Es wäre leicht gewesen...((wie bei der G80 der Videoprozessor VP-2, den man nicht eingebaut hat).... Naja, sind halt alles irgendwo "Schlawiner", diese Hardwarehersteller mit ihrem "ausgeklügelten" Marketing....;)

P.S.: Man braucht halt immer Kaufanreize in der Hinterhand, sonst könnte ein Stillstand drohen....
 
@Frog

Du wolltest ja evtl Sli mit den GTs fahren....schon eine Idee welches Board es bei dir wird? Auf den 790i zu warten scheint sich offensichtlich nicht zu lohnen (680i mit pcie2.0 support)
 
Und warum? Wofür brauchst es den? Jetzt kommen die ersten Dx10 Games wo die nächste Gen im Anmarsch ist, anders wird es mit DX10.1 auch nicht sein.

Bis das wichtig ist , kaufst schon die nächste Karte...:)

fast keiner kauft sich jede grakageneration oder jedes jahr neue hardware. deswegen wäre der DX10.1 support für mich auch wichtig. die beste graka in meinem bekanntenkreis hat ein freund mit einer X1950 XT und ich habe hier z.b. den einzigen Core 2 Duo, abgesehen von dem mac book pro meines bruders.
 
Tja richtig da liegt der Hase begraben, das EVGA hatte ich schonmal und es flog nach 2 Tagen sofort wieder aus dem Rechner.

Überlege wegen dem Striker ist aber auch nicht der Hit. Vielleicht solch Asus p5K Board mal schauen.. das ist das große Problem an der Sache :shot:
Hinzugefügter Post:
fast keiner kauft sich jede grakageneration oder jedes jahr neue hardware. deswegen wäre der DX10.1 support für mich auch wichtig. die beste graka in meinem bekanntenkreis hat ein freund mit einer X1950 XT und ich habe hier z.b. den einzigen Core 2 Duo, abgesehen von dem mac book pro meines bruders.


Ich persönlich zerbreche mir da noch überhaupt nicht den Kopf drüber noch ist nichts fest.

Und wenn man schon liest, das sich das ganze (laut Crytek) mit ner simplen Codezeile ergänzen lässt , würde ich das nicht zu einem kauf kriterium machen. ;)

Gibt noch keinerlei Handfeste fakten die mich unruhig machen würden deswegen. Geschweige den Programme angekündigt welche das nutzen würden.
 
Zuletzt bearbeitet:
Ich persönlich zerbreche mir da noch überhaupt nicht den Kopf drüber noch ist nichts fest.

Und wenn man schon liest, das sich das ganze (laut Crytek) mit ner simplen Codezeile ergänzen lässt , würde ich das nicht zu einem kauf kriterium machen. ;)

Gibt noch keinerlei Handfeste fakten die mich unruhig machen würden deswegen. Geschweige den Programme angekündigt welche das nutzen würden.
richtig, genau das quote ich auch immer wenn wer meint die GT ist veraltet weil sie kein DX10.1 kann :d
inCrysis schrieb:
GI: You were one of the big cheerleaders for DX10 from the outset, and there are all these discussions on the Internet now saying there’s this new version of DX10 that’s going to make existing DX10 hardware obsolete.


Yerli: It’s bulls***. It’s a misunderstanding and miscommunication. DX10.1 does not make DX10 obsolete, and it doesn’t make the hardware obsolete. 10.1 is the improvement on the API. Because DX10 was a little loose with the guidelines, 10.1 makes absolutely no compromises anymore. Microsoft made the spec to support the hardware manufacturers back then because of development times and SDK, so people could start developing for Vista. If a game absolutely requires 10.1, which no game will do because it would be economically a ridiculous call - if you were to make a DX10 only game, it would be 10 only, not 10.1. Otherwise, you’d rule out a whole generation of DX10 hardware.

@JiriMan: Ich finde wenn man sich die Specs anguckt sagt einem schon der gesunde Menschenverstand das die Benchs stimmen können ;)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh