8800Ultra ***Sammelthread*** (Part 1)

Status
Für weitere Antworten geschlossen.
Hi,

hier dürft ihr alles über die 8800Ultra schreiben :)

8800Ultra News & Infos:













8800Ultra Testberichte:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/ (Deutsch)

http://www.theinquirer.net/default.aspx?article=39342 (Englisch)

http://www.tweaktown.com/reviews/1093/1 (Englisch)

http://www.anandtech.com/video/showdoc.aspx?i=2979&p=1 (Englisch)

http://www.gamestar.de/hardware/specials/radeon_hd_2900_xt_vs_geforce_8800/1470135/radeon_hd_2900_xt_vs_geforce_8800_p5.html (Deutsch)

http://www.pcwelt.de/start/computer/grafikkarte/tests/83135/ (Deutsch)

http://www.netzwelt.de/news/75639-geforce-8800-ultra-im-test.html (Deutsch)

http://www.channelpartner.de/knowledgecenter/assemblieren/242084/ (Deutsch)



Preise 8800Ultra:

http://geizhals.at/deutschland/?fs=8800+Ultra&x=0&y=0&in=

Techn. Daten:
Chip: G80
Transistoren: ca.681 Mio.
Fertigung: 90nm
Chiptakt: 612 Mhz
Shadertakt: 1512 Mhz
Shader Einheiten (MADD): 128 (1D)
FLOPs (MADD/ADD/MUL): 581 GFLOPs*
ROPs: 24
Pixelfüllrate: 14688 MPix/s
TMUs: 64
TAUs: 32
Texelfüllrate: 39168 MTex/s
Unified-Shader in Hardware: Ja
Pixelshader: SM4
Vertexshader: SM4
Geometryshader: Ja
Speichermenge: 768 MB GDDR3
Speichertakt: 1080Mhz
Speicherinterface: 384 Bit
Speicherbandbreite: 103680 MB/s


Fillrate Tester:


Shadermark 2.1:
[URL=http://imageshack.us][/URL]

3DMark06:

Dual-Core CPU (zwei Kerne des Quad-Core deaktiviert) GeForce 8800Ultra (Kein SLI)


Quad-Core CPU; GeForce 8800Ultra (Kein SLI)


Quad-Core CPU; GeForce 8800Ultra im SLI-Modus


8800Ultra Tech Demo (Human Head):

http://youtube.com/watch?v=LIGWAYS5uRw
 
Zuletzt bearbeitet:
Anstelle hier so geschwollen daher zu reden, zeige lieber das du gebildet bist und erklärs ihm lieber...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wobei es ja wirklich sehr wenig Infos gibt, wenn sie wirklich schon am 17. kommt.
 
Interessant wird da ob es nur ein Paperlaunch oder gleich verfügbare Karten gibt. Und vorallem wie es sich auf alte auswirkt?
Hab vor ner Woche noch eine 8800er GTS 320 von Gigabyte für 200 als Schnäppchen gekriegt... hoffe die verliert nicht so schnell an wert...
 
Die Leute geifern ja auch nicht so wie beim ewig-späten R600.
 
Ein Paperlaunch wird es wohl nicht. Sie hätten ja noch ein wenig Zeit bis zum R600. Zeit zum Selektieren hätten sie ja auch genug gehabt.
 
Interessant wird da ob es nur ein Paperlaunch oder gleich verfügbare Karten gibt. Und vorallem wie es sich auf alte auswirkt?
Hab vor ner Woche noch eine 8800er GTS 320 von Gigabyte für 200 als Schnäppchen gekriegt... hoffe die verliert nicht so schnell an wert...

200€ für ne 8800-er GTS 320MB .... und dann hast Du Sorge ?

Wo gabs die denn so günstig ?

Zumal ich denke das die 8800Ultra selbst der 8800-er 640MB kaum
etwas am Preis "weh tut".

Greetz Koyote008
 
Wenn sie als längerverfügbare Karte für 550€ kommt, sollten die Preise der anderen Karten schon leicht runtergehen. Aber die kleine GTS wird es deswegen auch nicht für 200€ geben ;).
 
Zuletzt bearbeitet:
Ja denke ich auch.

Hardware verliert nun mal kontinuierlich an Wert. Aber einen riesigen Preisdrop wird es nicht geben, da die neuen Grafikkarten die alte Serie nicht ablösen, sondern nur das Produktspektrum erweitern!
 
Ja denke ich auch.

Hardware verliert nun mal kontinuierlich an Wert. Aber einen riesigen Preisdrop wird es nicht geben, da die neuen Grafikkarten die alte Serie nicht ablösen, sondern nur das Produktspektrum erweitern!

Dann sollte aber der Treibersupport nicht schwinden wie es bei NV der Fall ist.
Zurzeit konzentriert man sich vorallem auf die Dx10-Version.

mfg Nakai
 
Wie so wird eingentlich der G80 nicht in 80nm sondern in 90nm Hergestellt?
Der 80nm Herstellungsprozess ist ja schon länger verfügbar und soll ohne grösseren Aufwand auch für 90nm GPUs tauglich sein, somit könnte nVidia den G80 doch schon längst in 80nm Herstellen und damit kosten sparen und den Verbrauch senken.
 
Zuletzt bearbeitet:
Vielleicht sparen die sich die 80nm Karten für die nächste "Generation" auf. Sprich halt 8900GTX etc.
 
Ja, mir ist halt der Name nicht eingefallen, von daher auch Generation in -->""<-- :shot:
 
Ich gurke mit nem 19" TFT durch den Altag, da die Leistung von nem 3,6Ghz 66ér und ner GTX grad so ausreichen da hilft mir auch SLI nicht wirklich weiter.
Die CPU´s sind zu schwach für die Games die ich zocke und jede höhere Auflösung kostet nicht nur mehr GPU Leistung.
 
Wie so wird eingentlich der G80 nicht in 80nm sondern in 90nm Hergestellt?
Der 80nm Herstellungsprozess ist ja schon länger verfügbar und soll ohne grösseren Aufwand auch für 90nm GPUs tauglich sein, somit könnte nVidia den G80 doch schon längst in 80nm Herstellen und damit kosten sparen und den Verbrauch senken.
nVidia hat doch schon immer den sicheren Weg gewählt bei der Herstellung der High-End-GPUs und hat auf bewährtes gesetzt als neue Transistormonster in neuen Herstellungsverfahren zu fertigen.

Wahrscheinlich ist die Umstellung mit etwas mehr Aufwand/Kosten behaftet als das der "Gewinn" durch die Umstellung das rechtfertigen würde. In Anbetracht das der G90 demnächst erscheinen soll und wohl paar mehr Verbesserungen bieten wid sowie die G80 Karten sich auch so gut verkaufen, nachvollziehbar.
 
Zuletzt bearbeitet:
Na du scheinst ja DEN Plan schlechthin zu haben. Unabhängig davon was du glaubst zu wissen Coyote, kann ich die Erfahrungen von Screenmon absolut bestätigen. Meine XFX 7900GTX XX hatte zwischen 15 und 20 fps auf 2560x1600 produziert, low/medium details, no AA/AF. Das 7900GTX SLI Sys schaffte dann doch sagenhafte medium/high details mit 15 - 20 fps, auch ohne AA/AF.

Ich meine mich zu erinnern, mehrmals hier im Forum gelesen zu haben, dass SLI bis zu 100% mehr Performance bringt, aber im Schnitt nur ca. 20 - 40 %. Mag ja sein das FEAR das SLI Game des Jahres 05 war, bei 2560x1600 bringts jedenfalls nicht mehr als 20%.

Lange Rede kurzer Sinn. Hast du nen 30" Display? Spielst du mit 2560x1600? Nicht? :eek: Dann vielleicht besser mal Schnauze halten wenns um SLI Performance bei hohen Auflösungen geht :p

PS: Screenmon benutzt den Terminus "Ich denke", welches einen gewissen Grad an Unsicherheit suggeriert. Das ist ein deutlicher Unterschied zu "Ich weiß" oder "das ist so." Jeder der wegen so nem Kommentar ne Kaufentscheidung trifft ist selbst schuld. Aber egal, weiterhin happy klugscheissing :xmas:


Ich halte nicht die Schnauze , wenn solche User wie Du Behauptungen
aufstellen oder unterstützen .... wenn Sie falsch sind.

Und ich habe zumindest einen Plan ... nach 4 Sli Systemen ... und
Sli-Club User .....

Das Prinzip von Sli bleibt logischerweise auch bei höheren Auflösungen
dasselbe ... ich socce zwar nur 1600x1200 ...

hier bitteschön FEAR ... bei 2048x1536 .... Unterschied Non Sli und
Sli noch extremer .... 8800GTS Sli :

http://www.theinquirer.net/default.aspx?article=37766

Und noch Fragen ?

Greetz Koyote008
 
Ich halte nicht die Schnauze , wenn solche User wie Du Behauptungen
aufstellen oder unterstützen .... wenn Sie falsch sind.

Und ich habe zumindest einen Plan ... nach 4 Sli Systemen ... und
Sli-Club User .....

Das Prinzip von Sli bleibt logischerweise auch bei höheren Auflösungen
dasselbe ... ich socce zwar nur 1600x1200 ...

hier bitteschön FEAR ... bei 2048x1536 .... Unterschied Non Sli und
Sli noch extremer .... 8800GTS Sli :

http://www.theinquirer.net/default.aspx?article=37766

Und noch Fragen ?

Greetz Koyote008


W O R D !!!


Wegen dem Artikel und einer Aussage von Crytek, dass Crysis nicht mit einer 8800GTX auf max spielbar sei, sondern erst ab 8800GTS im SLi, werde ich mir nach dem Sommer auch eine zweite Karte fürs SLi kaufen.
Ihr denkt hier alle zuviel! Wahrscheinlich kommt der nächste und denkt man braucht ein 1kW Netzteil fürs SLi, weil man nicht lesen kann!
 
W O R D !!!


Wegen dem Artikel und einer Aussage von Crytek, dass Crysis nicht mit einer 8800GTX auf max spielbar sei, sondern erst ab 8800GTS im SLi, werde ich mir nach dem Sommer auch eine zweite Karte fürs SLi kaufen.
Ihr denkt hier alle zuviel! Wahrscheinlich kommt der nächste und denkt man braucht ein 1kW Netzteil fürs SLi, weil man nicht lesen kann!


Naja ... 700Watt für GTS @ Sli und Prozzi OC schon.

Allerdings bekommste auch nen Marken-NT 700Watt für 100€.

Das beschissene ist nur beim G80 der Stromverbrauch im Idle ...
der blanke Horror ;)

Naja ... und den Stand von Vista & Sli kenne ich auch ned.

Ich befürworte ja garkein Sli oder Multi GPU , Geforce6 & Geforce7
hat es aber Laune gemacht .... und war sinnvoll ... selbst bei
1280x1024 schon ... und 1600x1200 sowieso.

Naja .... und jetzt kommt sicherlich ... nen C2D auf 3,20 - 3,60 Ghz
ist zu lahm ... kann ich trösten ... bei Crysis + Filtern limitieren
sowieso so stark die Karten ... das es den Prozzi ned trifft ....
und bei Games wie Stalker hat wenn wenigsten nicht so stark die
reudigen Drops & Slowdownes mit Dyn. Light.

Greetz Koyote008
 
ich geh davon aus, dass Crysis eh verschoben wird.... da gibts dann sicherlich die 9000er Geforce Serie ;)
 
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidia_geforce_8800_gtx_sli/16/

700W kommt in etwa hin. ist mir ehrlich gesagt viel zu viel!

Meinste das drecks Crysis ist so höllisch anspruchsvoll? Also wird man ohne Quadcore und 8900GX2 nicht auskommen? Das wäre aber wirklich dekadent.


Naja , nen OC Dualcore reicht schon .... aber mit ner GTX alleine
hat man wohl keinen vollen Spass bei 1600x1200 und höher.

Wie stark die Ultra und R600 wird , wissen wir ja ned genau.

Aber bis Crysis könnte natürlich der G90 schon am Start sein -
und 7-12 Monate später der R700 :shot:

Naja , auf Crysis und Alan Wake warten wir wohl "alle" , und
an Stalker konnten wir sehen - wie beschissen optimiert man
nen Game auf dem Markt bringen kann - mit HDR (Dyn.Light)
ohne AA -haben schon High-End Systeme absolute Berechtigung.


Greetz Koyote008
 
Zuletzt bearbeitet:
SLI ist schon was feines, die Leute die behaupten es sei für nichts, haben einfach nicht das nötige klein Geld ;)

Leider ist es wirklich so das die heutigen CPUs bei zwei GTX im SLI fast schon zulangsam sind, unter 4GHz Core 2 Duo macht es schon fast keinen Sinn mehr.

Meins System mit 2x8800GTX und 4GHz QX6700 kommt in 3D Mark 06 etwa auf 900Watt inkl. Vapochill LS, die alleine schon gut 250Watt Verbraucht. Wirklich viel ist das ja nicht für so ein System, wird halt einfach immer wieder übertrieben und nach 1KW Netzteilen geschriehen die gar nicht nötig sind. Ich verwende mit diesem System ein be quiet! 750Watt und dies ohne Probleme...
 
Zuletzt bearbeitet:
SLI ist schon was feines, die Leute die behaupten es sei für nichts, haben einfach nicht das nötige klein Geld ;)

Leider ist es wirklich so das die heutigen CPUs bei zwei GTX im SLI fast schon zulangsam sind, unter 4GHz Core 2 Duo macht es schon fast keinen Sinn mehr.

Meins System mit 2x8800GTX und 4GHz QX6700 kommt in 3D Mark 06 etwa auf 900Watt inkl. Vapochill LS, die alleine schon gut 250Watt Verbraucht. Wirklich viel ist das ja nicht für so ein System, wird halt einfach immer wieder übertrieben und nach 1KW Netzteilen geschriehen die gar nicht nötig sind. Ich verwende mit diesem System ein be quiet! 750Watt und dies ohne Probleme...



Joa , für MAX. FPS bringt nen kleiner Prozzi ned viel , aber um Droops und
Slowdowns zu umgehen ist Sli auch mit "kleinen" Prozzi Ideal.

Und bei Alan Wake und Crysis ... bei entsprechender Auflösung und filtern...
rückt der Prozzi wieder in den Hintergrund ... da werden sicher die Grakas
böse gefordert.

Aber wer ned gerade über 1600x1200 socct , braucht aktuell kein G80
Sli .... okay ... einzelne Titel ... Gothic3 ... Oblivion ... Stalker ... da
machts Sinn ... beschissen optimierte Spiele wird es immer geben.

Beim Kauf von Hardware habe ich mich meistens ned so .... aber ich
verbrutzel alleine locker 500€ Strom im Jahr .... und irgendwie bin ich da
geizig ... +lacht+

Greetz Koyote008
 
Zuletzt bearbeitet:
jo! Früher wars ja so dass sli mehr brachte, je höher die Auflösung wurde! Bei 8800gtx sli bleibts aber irgendwo setehn weil die cpu limitiert ^^
 
Auch Crysis wird hohe CPU Anforderungen haben, ich hoffe mal das Game wird mit Quad Core CPUs auch was an mehr Leistung bringen.
 
jo! Früher wars ja so dass sli mehr brachte, je höher die Auflösung wurde! Bei 8800gtx sli bleibts aber irgendwo setehn weil die cpu limitiert ^^

Nana , selbst bei GTX Sli und nem X6800 Niveau Prozzi - bei 1600x1200
und nur 4xAA / 16xAF ... merkste das selbst bei DX9 Games gewaltig.

Greetz Koyote008

Auch Crysis wird hohe CPU Anforderungen haben, ich hoffe mal das Game wird mit Quad Core CPUs auch was an mehr Leistung bringen.

Naja , was richtig DC optimiert ist ... läuft auch auf Quad besser.

Ich denke auch das Crysis und Alan Wake die ersten richtigen Titel
sind die von Quadcore profitieren.

Greetz Koyote008
 
Zuletzt bearbeitet:
Ach was, das mit der CPU ist doch echt gelaber..
Ein C2D @ 3,6 ist für 99% der Spiele, wo man SLI auch wirklich braucht völlig ausreichend.
Dass ich @ CSS z.b. kaum Mehrleistung habe sollte klar sein, aber da reicht auch schon eine GTS/GTX lockerst aus...

Und wie schon gesagt wurde, bei Stalker und wohl auch Crysis werden die Karten das Problem sein, denn bei den nervigen Slowdowns sind nunmal die Karten schuld.
Ich hab das @ Stalker mit meinem alten e6400er ausgetestet.
@3,2GHz waren in High-FPS-Gebieten die Frames merkbar höher, fast 1:1 zur CPU-Takterhöhung, aber das ist sowas von wayne, weil obs jetzt 60 oder 80 sind siehst eh nicht mehr... aber dann wenns zu Slowdowns kam, da hat auch CPU-OC nix mehr gebracht..
 
Ach was, das mit der CPU ist doch echt gelaber..
Ein C2D @ 3,6 ist für 99% der Spiele, wo man SLI auch wirklich braucht völlig ausreichend.
Dass ich @ CSS z.b. kaum Mehrleistung habe sollte klar sein, aber da reicht auch schon eine GTS/GTX lockerst aus...

Und wie schon gesagt wurde, bei Stalker und wohl auch Crysis werden die Karten das Problem sein, denn bei den nervigen Slowdowns sind nunmal die Karten schuld.
Ich hab das @ Stalker mit meinem alten e6400er ausgetestet.
@3,2GHz waren in High-FPS-Gebieten die Frames merkbar höher, fast 1:1 zur CPU-Takterhöhung, aber das ist sowas von wayne, weil obs jetzt 60 oder 80 sind siehst eh nicht mehr... aber dann wenns zu Slowdowns kam, da hat auch CPU-OC nix mehr gebracht..


Japp , das denke ich auch ... selbst nen C2D 3,20 Ghz ... den jeder haben
kann .... und zwei nette 8800-er GTS ... haben dasselbe Prinzip.

Wie siehts denn aus mit Sli und Vista aktuell ... Probleme noch ?

Wobei Dural mit nem QC @ 4,30Ghz Vapo .... in einer anderen Liga spielt ....
seine meinung muss man seperat stehen lassen .... finde ich schon okay.

Aber ob nen E6400 3,20 Ghz oder E6600 3,60 Ghz @Sli bei entsprechenden
Settings und Auflösungen ... und Spielen ... ist es Wurstbrötchen.

Gruss
Koyote008
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh