***** G80 Sammelthread *****

Status
Für weitere Antworten geschlossen.
so es wird zeit für den Sammel thread !

neuste news zeigen uns

GF 8800 GTX:
Preis 599,- US-$
Takrate Kern (MHz) 575
Taktrate Speicher (MHz) 900
Taktrate Shader (MHz) 1350
Speicher 768 MByte
Fertigung 90nm
Transistoren 681 Mio.
Shader-Version 4.0
Shader-Alus (VS/PS) 128
Textureinheiten (TA/TMU) 32/64
Speichertyp DDR3
Rechenleistung (GFLOP/s) 345.6
Texturfüllrate (MTex/s) 18.400
Speicherbandbreite (MByte/s) 86.400
Multi-Sampling max. 16x
Anti-Aliasing max. 16xQ
MSSA + HDR-Rendring FP16, FP32
Länge: 26,7 cm

GF 8800 GTS:
Preis 449,- US-$
Takrate Kern (MHz) 500
Taktrate Speicher (MHz) 800
Taktrate Shader (MHz) 1200
Speicher 640 MByte
Fertigung 90nm
Transistoren 681 Mio. (wie die GTX)
Shader-Version 4.0
Shader-Alus (VS/PS) 96
Textureinheiten (TA/TMU) 24/48
Speichertyp DDR3
Rechenleistung (GFLOP/s) 230.4
Texturfüllrate (MTex/s) 12.000
Speicherbandbreite (MByte/s) 64.000
Multi-Sampling max. 16x
Anti-Aliasing max. 16xQ
MSSA + HDR-Rendring FP16, FP32
Länge: 22cm

thx an PitGST

Generelle Features:

* Gigathread-Architektur
* 16x FSAA (programmierbares AA-Muster
* 128 Bit Floating Point HDR
* OpenGL 2.0
* Direct3D 10[/B]


weitere Ausstattungen:
Der Geforce 8 unterstützt Direct X 10 sowie Open GL 2.0 und ist zudem SLI-fähig. Die Karten verfügen über zwei Dual-Link-DVI-I-Anschlüsse und eine Video-In/Out-Buchse. Der Grafikchip unterstützt HDCP (High-bandwidth Digital Content Protection) und kann damit auch hoch aufgelöste Filme wiedergeben, die auf Blu-ray- und HD-DVD-Medien gespeichert sind.


erste Informationen
http://www.gamestar.de/news/hardware/geforce_8800_gtx_und_gts/1465523/geforce_8800_gtx_und_gts.html




PCB Länge 260mm (26cm)
Gewicht 800 gramm



Strom Versorgung:
empfohlen wird ein 450W Netzteil mit 30A auf der 12V Schiene.
Die Karte wird unter volllast etwa 200W ziehen und soll dabei aber dennoch Kühl und leise sein Laufen !
(alle angaben beziehen sich auf den Referenz Luft Kühler der mit Heat pipes ausgestattet ist !)
(Geforce 8800 GTS: 400 Watt/26 Ampere)


Zusatz Informationen:
Bereits an Bord der Geforce-8-Grafikchips befindet sich eine Physik-Recheneinheit namens Quantum Effects Physics Processor. Sie soll die Physikberechnung übernehmen. Detaillierte Informationen zum Quantum Effects Physics Processor Folgen.

Fest steht aber, dass der Geforce 8 jetzt - ebenso wie ATI - das High Dynamic Range Rendering (HDRR) mit 128-Bit-Genauigkeit durchführen kann, ohne das Sie dabei auf Kantenglättung bis hinauf zum 16x-Full-Screen-Modus verzichten müssen.

8800gtxjq3.png

Quelle


sizegf1.jpg


8800GTX
8800GTX_2_h1UMLAQvfIWk.jpg


8800GTS
8800GTS_2_KxAZw5kFM7Pm.jpg


Ersters Review & mehr
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487


http://www.computerbase.de/news/har...a/2006/november/weitere_geforce_8800_gtx_gts/

http://www.chip.de/artikel/c1_artikel_22630651.html
 
Zuletzt bearbeitet:
Hinzugefügter Post:


ich meine die 24 pixelp haben jeweils zwei einheiten also 48 + 16
ist also genau die hälfte (64) bei höherem takt.
wenn man dann noch den verwaltungsmehraufand abzieht....
bei den treiber ist aber dafür ja auch noch nicht das letzte wort gesprochen;)

so kannstes eben nicht rechnen, beim G71 zB konnte die 2. einheit nicht so viel wie die erste einheit. und beim G80 sinds wieder ganz andere teile de nv da eingebaut hat.

Eure Rechnung und der Vergleich stimmen nicht.
Der G70/71 hat 8 VS. Also 48 PS + 8 VS = 56! (und nur unter bestimmen bedingungen arbeiten sie als 48er Einheit, meisten nur als 24er)
Man könnte es aber auch so rechnen das 192 Shader rauskommen.
Wie ihr merkt hat die eine mit anderen Architektur kaum noch was zu tun.
Der Vergleich ist also kaum möglich.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das problem ist>Keiner weiss ob es beim ersten anlauf wirklich klappt.Wenn Nvidia schwierigkeiten bekommt kann sich der Refresh bis er rauskommt verdammt in die länge ziehen.;)

richtig, sah man ja bei ATI ;)
NV lässt ATI meist den vortritt,
wie jetzt auch
G80 90nm
R600 80nm

diese 65nm werden nie bei dem refresh (8900) kommen da NV immer auf nummer sicher geht was ATI jetzt auch macht !
erst den kleineren fertigungs prozess bei mid range karten bringen
zb
6800GT 130nm
6600GT 110nm
7800GTX 110nm
7600 90nm
7900GTX 90nm

ATI hat beim R520 nen dicken rückschlag deswegen bekommen, aber sie haben dazu gelernt !
nähmlich X1650XT in 80nm und dann die X19xx in 80nm :) so macht ATI es richtig, ich denke der R600 wird ein ausgereifter chip und keine probs wegen dem fertigungs verfahren machen.
:wink:
 
Zuletzt bearbeitet:
richtig, sah man ja bei ATI ;)
NV lässt ATI meist den vortritt,
wie jetzt auch
G80 90nm
R600 80nm

diese 65nm werden nie bei dem refresh (8900) kommen da NV immer auf nummer sicher geht was ATI jetzt auch macht !
erst den kleineren fertigungs prozess bei mid range karten bringen
zb
6800GT 130nm
6600GT 110nm
7800GTX 110nm
7600 90nm
7900GTX 90nm

ATI hat beim R520 nen dicken rückschlag deswegen bekommen, aber sie haben dazu gelernt !
nähmlich X1650XT in 80nm und dann die X19xx in 80nm :) so macht ATI es richtig, ich denke der R600 wird ein ausgereifter chip und keine probs wegen dem fertigungs verfahren machen.
:wink:

Ähm ich bin mir jetzt nicht ganz sicher, deswegen möchte ich es nicht behaupten, aber war die 6600GT nicht schon in 90nm gefertigt?? Du hattest recht....es waren 110nm ;)

Tut mir leid.


mfg

Marvin
 
Zuletzt bearbeitet:
ich denke der refresch wird gegen den R600 vorbereitet und in 65nm sein.sollte der R600 wiedererwarten doch nicht so leitungsstark sein werden sie sich vielleicht etwas länger zeit lassen und anfangs wirklich nur mainstream karten bringen.
 
ich denke der refresch wird gegen den R600 vorbereitet und in 65nm sein.sollte der R600 wiedererwarten doch nicht so leitungsstark sein werden sie sich vielleicht etwas länger zeit lassen und anfangs wirklich nur mainstream karten bringen.

die 8900 in 65nm ? sehr unglaubwürdig, da müsste erstmal die 8600 in 65nm kommen was auch nicht gerade sehr warscheinlich sein wird, warten wir es ab !
 
Ist schon bekannt, ob die 8800GTS schneller als 2 512MB X1950Pro´s @ Crossfire sein wird?
 
bekannt nicht aber denke das man die frage mit ja beantworten kann ;)
 
Sehr gut, dann wird das meine nächste Karte :coolblue:
 

Winkel unabhängig.

Sie hat 681 M Transistoren.

Der G80 kann eine MADD und eine MUL Operation pro Pipe ausführen! Bei 16 ALUs...
Ich weiss nur nicht wie man das rechnen soll, 2 Pixel pro Pipe oder 3?

Ist wohl Auslegungssache, wie ja bei dem G70 auch...
 
Zuletzt bearbeitet:
Dicker schwarzer Kühler mit grünem Logo drin. 8800gtx = 26,7cm und 8800gts 22cm lang. Lautstärke anscheinend noch akzeptabel. Angeblich mindestens doppelt so schnell wie 7900gtx und >25% als gx2. Unified-Shader ist bestätigt!
 
Quelle?
Hört sich aber gut an. Mit welcher Karte ist denn die GTS von der Länge her vergleichbar?
 
Naja, darüber werden sich wohl gleich wieder einige den Mund zereissen :d

Gut, dann muss ich mir die wohl oder übel kaufen ;)

Ist da ein längerer Bericht drin oder nur kurz??

edit: Oder haste das von der inet seite?
 
Zuletzt bearbeitet:
nur das anscheinend das Biest mit keiner Dualcore CPU auszureizen ist

Hier ein Dualcore

1161835812.jpg



Hier der Quadcore

1161849814.jpg
 
Zuletzt bearbeitet:
Nur das auf dem ersten Bild kein Graka Takt angegeben ist. Naja sieht nicht sehr glaubwürdig aus, auch wenn ich mir die ergebnisse durchaus vorstellen kann.
 
3 volle Seiten im Heft.

gtx (599$, 575mhz, 768mb@900mhz, ddr3, 128alu's@1350mhz) gts (449$, 500mhz, 640mb@800mhz, ddr3, 96alu's@1200mhz)

ach und man sieht 2 stromanschlüsse :-)
 
Welche Ausgabe ist denn das?? 11/06??? Oder ist die 12/06 schon zu haben im Handel?? Oder bist du Abbonent?
 
nur das anscheinend das Biest mit keiner Dualcore CPU auszureizen ist

NAJA, 3DMark mehr muss man nicht sagen, ok wer auf PUnkte aus ist sicher aber sonst.
ich möchte reale games sehen.
 
Nur das auf dem ersten Bild kein Graka Takt angegeben ist. Naja sieht nicht sehr glaubwürdig aus, auch wenn ich mir die ergebnisse durchaus vorstellen kann.


die werte sind echt, bin in dem anderem forum auch unterwegs!
quatsch ist das ein dualcore die gpu nicht ausreitzen kann.
der 06 weicht hier im score ab da der cpu score, der ja bekantlich dazu adiert wird höher ausfällt bei nem quadcore;)
wenn die karte in etwa so schnell oder etwas schneller ist als ein crossfire, dann ist auch ab 1280x1024 mit aa+af spätestens ab 16xx, die graka nach wie vor der limitierend faktor, je nach spiel nat.
 
nur das anscheinend das Biest mit keiner Dualcore CPU auszureizen ist

Das stimmt nicht mal annähernd, willst du das mit 3DMark 06 Benchmarks beurteilen (die nebenbei fast jeder kennt)? Der CPU Bench ist auf software Basis und deshalb Multithreaded, und wird anteilig in das Endergebniss reingerechnet.

Deshalb muss man sich keine Sorgen machen. Bei HQ Einstellung bleibt ist die CPU immernoch zu vernachlässigen, besonders wenn die Graka Physikberechnungen übernimmt.

NAJA, 3DMark mehr muss man nicht sagen, ok wer auf PUnkte aus ist sicher aber sonst.
ich möchte reale games sehen.

richtig! Bei Games wird sich wohl das selbe Bild wie sonst ergeben...
 
Zuletzt bearbeitet:
Hab das Ding abonniert und heut bekommen (12.06). Fotos darf man wohl von sowas nicht machen. Will keinen Ärger :-)
 
Deshalb muss man sich keine Sorgen machen. Bei HQ Einstellung bleibt ist die CPU immernoch zu vernachlässigen, besonders wenn die Graka Physikberechnungen übernimmt.

richtig! Bei Games wird sich wohl das selbe Bild wie sonst ergeben...

++

wobei bei SLI könnte man schon eher darüber nachdenken
 
Naja bei den einzelnen Game benches im 3Dmark sieht man schon einen Unterschied von 6 fps mehr gegenüber dem dualcore ... das der cpu wert höher ist und somit die gesamtpunktezahl um einiges ist auch klar
 
Naja bei den einzelnen Game benches im 3Dmark sieht man schon einen Unterschied von 6 fps mehr gegenüber dem dualcore ... das der cpu wert höher ist und somit die gesamtpunktezahl um einiges ist auch klar

In einem Game @ HQ ist das nicht so klar...
Ob es bei 3DMark anders ist, ist nicht wirklich interessant.
Bzw. ist 3DMark absolut uninteressant.


http://www.firingsquad.com/hardware/intel_core_2_performance/page12.asp

Bei 800x600 macht dei CPU was aus, aber das Settings auch ziemlich irrelevant.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh