***** G80 Sammelthread *****

Status
Für weitere Antworten geschlossen.
so es wird zeit für den Sammel thread !

neuste news zeigen uns

GF 8800 GTX:
Preis 599,- US-$
Takrate Kern (MHz) 575
Taktrate Speicher (MHz) 900
Taktrate Shader (MHz) 1350
Speicher 768 MByte
Fertigung 90nm
Transistoren 681 Mio.
Shader-Version 4.0
Shader-Alus (VS/PS) 128
Textureinheiten (TA/TMU) 32/64
Speichertyp DDR3
Rechenleistung (GFLOP/s) 345.6
Texturfüllrate (MTex/s) 18.400
Speicherbandbreite (MByte/s) 86.400
Multi-Sampling max. 16x
Anti-Aliasing max. 16xQ
MSSA + HDR-Rendring FP16, FP32
Länge: 26,7 cm

GF 8800 GTS:
Preis 449,- US-$
Takrate Kern (MHz) 500
Taktrate Speicher (MHz) 800
Taktrate Shader (MHz) 1200
Speicher 640 MByte
Fertigung 90nm
Transistoren 681 Mio. (wie die GTX)
Shader-Version 4.0
Shader-Alus (VS/PS) 96
Textureinheiten (TA/TMU) 24/48
Speichertyp DDR3
Rechenleistung (GFLOP/s) 230.4
Texturfüllrate (MTex/s) 12.000
Speicherbandbreite (MByte/s) 64.000
Multi-Sampling max. 16x
Anti-Aliasing max. 16xQ
MSSA + HDR-Rendring FP16, FP32
Länge: 22cm

thx an PitGST

Generelle Features:

* Gigathread-Architektur
* 16x FSAA (programmierbares AA-Muster
* 128 Bit Floating Point HDR
* OpenGL 2.0
* Direct3D 10[/B]


weitere Ausstattungen:
Der Geforce 8 unterstützt Direct X 10 sowie Open GL 2.0 und ist zudem SLI-fähig. Die Karten verfügen über zwei Dual-Link-DVI-I-Anschlüsse und eine Video-In/Out-Buchse. Der Grafikchip unterstützt HDCP (High-bandwidth Digital Content Protection) und kann damit auch hoch aufgelöste Filme wiedergeben, die auf Blu-ray- und HD-DVD-Medien gespeichert sind.


erste Informationen
http://www.gamestar.de/news/hardware/geforce_8800_gtx_und_gts/1465523/geforce_8800_gtx_und_gts.html




PCB Länge 260mm (26cm)
Gewicht 800 gramm



Strom Versorgung:
empfohlen wird ein 450W Netzteil mit 30A auf der 12V Schiene.
Die Karte wird unter volllast etwa 200W ziehen und soll dabei aber dennoch Kühl und leise sein Laufen !
(alle angaben beziehen sich auf den Referenz Luft Kühler der mit Heat pipes ausgestattet ist !)
(Geforce 8800 GTS: 400 Watt/26 Ampere)


Zusatz Informationen:
Bereits an Bord der Geforce-8-Grafikchips befindet sich eine Physik-Recheneinheit namens Quantum Effects Physics Processor. Sie soll die Physikberechnung übernehmen. Detaillierte Informationen zum Quantum Effects Physics Processor Folgen.

Fest steht aber, dass der Geforce 8 jetzt - ebenso wie ATI - das High Dynamic Range Rendering (HDRR) mit 128-Bit-Genauigkeit durchführen kann, ohne das Sie dabei auf Kantenglättung bis hinauf zum 16x-Full-Screen-Modus verzichten müssen.

8800gtxjq3.png

Quelle


sizegf1.jpg


8800GTX
8800GTX_2_h1UMLAQvfIWk.jpg


8800GTS
8800GTS_2_KxAZw5kFM7Pm.jpg


Ersters Review & mehr
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487


http://www.computerbase.de/news/har...a/2006/november/weitere_geforce_8800_gtx_gts/

http://www.chip.de/artikel/c1_artikel_22630651.html
 
Zuletzt bearbeitet:
nochmal zu den Game Benches ... kommen die also auch am Do... wenn die Karte rauskommt ? hätte schon gern 1-2 Tage vorher welche ^^

Kati
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Achso, die Auflösung ist ein Argument aber, dass es noch kein Windows Vista und auch keine Direct3D10 Games gibt sind keine Argumente? ;)

€: "Wer lesen kann ..." war nicht für dich bestimmt, jetzt allerdings schon! :lol:

mfg
P0ng1

Was hast du nur mit Direct3D10, .. auch in nicht Direct3D10 Games ist die Karte deutlich schneller!
 
" Einige hier haben wirklich ernste Probleme! " -> pong.

Darum geht es hier aber nicht. Wenn du Streit haben willst, geh doch ins Off-topic Forum ohne dass du dich hier als Schlaumeier vermarktest.
 
Es soll ja auch Leute geben, die die Grafikeffekte im Spiel ausstellen um nicht vom eigentlichen Spiel abgelenkt zu werden :lol:

ich schau grad in deine signatur und mir kommen fast die tränen.

du willst einen C2D 6700 und eine 8800GTX verbauen und dass in einem system mit nur EINEM GB arbeitsspeicher ? :stupid:
um die karte vernünftig ausnutzen zu können (neuste games höchste auflösung)
würde ich dir mindestestens 1,5 GB ram empfehlen,
in meinem 2t rechner steckt seid einem jahr schon 2 GB drin :drool:
in meinem haupt sys 6GB
sicher ist sicher :drool:
 
Und dann soll es ja auch noch die Leute geben die eh ne neue Karte brauchen..

Ich hab hier ne 6800LE, bei mir muss eh was neues her. Wieso sollte ich dann noch eine Graka der "alten" Generation kaufen?
 
Gibts es schon Benchmarks !?

Wo kann man welche Karte (GTS, GTX) kaufen !?
 
Warum muss denn hier jetzt jeder öffentlich Begründen warum er eine kaufen will, sowas ist doch nicht nicht nötig, jeder der für sich entschlossen hat eine 8800 GTX - GTS zu kaufen tut dies auch, mich eingeschlossen! :drool:
 
adicitz ist Matrose, kein Moderator ;)


Jetzt aber zurück zum Thema und bleibt bitte sachlich
 
Wenn die Werte stimmen, die im Link von perfect.dark stehen, dann lohnt sich die Karte 100%tig, die Karte wär dann knapp 60% schneller als eine X1950XTX :eek: :eek:
 
Wenn die Werte stimmen, die im Link von perfect.dark stehen, dann lohnt sich die Karte 100%tig, die Karte wär dann knapp 60% schneller als eine X1950XTX :eek: :eek:

60-92% schneller um genau zu sein
aber ich warte lieber auf benches in 1920 gegen eine GX2 - die werte sind für mich interessant - wenn sichs da ned viel nimmt wart ich auf die g80 gx2 :)
 
warum sollte die Karte denn da langsammer sein? eine GX2 (jetzige) ist niemals 60% schneller als eine X1950XTX
 
ich glaub anstatt meine 7900 GTX zu verramschen und ne 26 cm lange 8800 GTX zu verbauen, kauf ich mir für die 300 € Aufpreis lieber nen halbwegs gescheiten 19" zum Zocken. Da dürfte mit der 7900er noch ne ganze Zeit was gehen, was ich bei der 8800 auf 2560x1600 bezweifele :(
 
@K!ller
Jupp, genau 12 Posts über dir. Auf genau dieser Seite.
 
Vor allem kommt da ein extremes Problem auf nVidia zu. Wie einige schon erwähnten, haben sie nicht recht viel Platz zur Gehäuseabdeckung. Bei der GTX sind die Stromanschlüsse aber aud der Seite und viele Stromkabel haben so einen "Entstörfilter" drinn ( der leider ziemlich sinnlos ist ) der sich nicht mal eben so umknicken läßt.
Man kann nur hoffen, dass nVidia Winkelanschlüsse dazu gibt, sodaß sich die Stromanschlüsse entweder von oben oder unter heranführen lassen.
 
Vor allem kommt da ein extremes Problem auf nVidia zu. Wie einige schon erwähnten, haben sie nicht recht viel Platz zur Gehäuseabdeckung. Bei der GTX sind die Stromanschlüsse aber aud der Seite und viele Stromkabel haben so einen "Entstörfilter" drinn ( der leider ziemlich sinnlos ist ) der sich nicht mal eben so umknicken läßt.
Man kann nur hoffen, dass nVidia Winkelanschlüsse dazu gibt, sodaß sich die Stromanschlüsse entweder von oben oder unter heranführen lassen.

Genau deshalb habe ich kein Tagan Netzteil gekauft, da die genau solche schlechten Kabel haben.

Meine GX2 hat auch die Anschlüsse zur Seite, und mit nem normalen PCIe stecker und Kabel gibts da kein Problem.
 
Da werden einige Leute ziemlich angep*sst sein, viel NT wurden nämlich mit solchem "Eyecandy" ausgestattet.
 
btw habt ihr die ach so schlimme leistungsaufnahme gesehen?
13 watt mehr wie ne 1950XTX X-D
 
Ich weiß nicht ob ich dem Glauben schencken soll. über 700mio Transistoren dazu der ausgelagerte Ramdac und der Ram. Irgendwie unglaubwürdig. Vor allem weil der G80 noch nicht mal in 65nm hergestellt wird.
 
wenn man die gesamtleistungsaufnahme des pcs misst kann man ned viel falsch machen ;)
 
wenn man die gesamtleistungsaufnahme des pcs misst kann man ned viel falsch machen ;)

sehe ich genau so, und 320W für ein extremes High End System sind in meinen augen nicht viel und verkraftbar, da die Leistung ja auch stimmt
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh