8800Ultra ***Sammelthread*** (Part 1)

Status
Für weitere Antworten geschlossen.
Hi,

hier dürft ihr alles über die 8800Ultra schreiben :)

8800Ultra News & Infos:













8800Ultra Testberichte:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/ (Deutsch)

http://www.theinquirer.net/default.aspx?article=39342 (Englisch)

http://www.tweaktown.com/reviews/1093/1 (Englisch)

http://www.anandtech.com/video/showdoc.aspx?i=2979&p=1 (Englisch)

http://www.gamestar.de/hardware/specials/radeon_hd_2900_xt_vs_geforce_8800/1470135/radeon_hd_2900_xt_vs_geforce_8800_p5.html (Deutsch)

http://www.pcwelt.de/start/computer/grafikkarte/tests/83135/ (Deutsch)

http://www.netzwelt.de/news/75639-geforce-8800-ultra-im-test.html (Deutsch)

http://www.channelpartner.de/knowledgecenter/assemblieren/242084/ (Deutsch)



Preise 8800Ultra:

http://geizhals.at/deutschland/?fs=8800+Ultra&x=0&y=0&in=

Techn. Daten:
Chip: G80
Transistoren: ca.681 Mio.
Fertigung: 90nm
Chiptakt: 612 Mhz
Shadertakt: 1512 Mhz
Shader Einheiten (MADD): 128 (1D)
FLOPs (MADD/ADD/MUL): 581 GFLOPs*
ROPs: 24
Pixelfüllrate: 14688 MPix/s
TMUs: 64
TAUs: 32
Texelfüllrate: 39168 MTex/s
Unified-Shader in Hardware: Ja
Pixelshader: SM4
Vertexshader: SM4
Geometryshader: Ja
Speichermenge: 768 MB GDDR3
Speichertakt: 1080Mhz
Speicherinterface: 384 Bit
Speicherbandbreite: 103680 MB/s


Fillrate Tester:


Shadermark 2.1:
[URL=http://imageshack.us][/URL]

3DMark06:

Dual-Core CPU (zwei Kerne des Quad-Core deaktiviert) GeForce 8800Ultra (Kein SLI)


Quad-Core CPU; GeForce 8800Ultra (Kein SLI)


Quad-Core CPU; GeForce 8800Ultra im SLI-Modus


8800Ultra Tech Demo (Human Head):

http://youtube.com/watch?v=LIGWAYS5uRw
 
Zuletzt bearbeitet:
Vista hab ich nicht und werd ich wohl auch so schnell nicht haben ;)

Das mit dem Mega-OC-Quadcore ist sicher was anderes, aber ich sage es mal so, auch hier wird der Unterschied zu einem C2D @ 3,6 im einstelligen Prozentbereich liegen, denn die Karten sind dafür immer noch zu schwach.
Das mag sich ändern, wenn man die GTX noch deftig übertaktet, aber ehrlich gesagt selbst dann wirst keinen allzugroßen Unterschied merken.
Geht man aber von "Ottonormalverbrauchern" aus, dann siehts natürlich anders aus, weil ein e6600 oder selbst x6800er dürfte schon eher bremsen dann... (Aber diese Leute haben meist auch kein SLI aus 2xGTX ^^)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
3.2GHz mit zwei 8800GTX find ich reine Geld verschwendung, es soll ja auch noch Leute geben die in 1280 zocken und dann hat man schon fast nichts mehr am SLI. Ich sehs ja an meinen System, da geht bei 3GHz ja schon fast nichts mehr im Vergleich zu den 4GHz. Klar bei höheren Auflösungen wird der Abstand kleiner.

und wenn ich statt den 60FPS auch 80FPS haben kann, will ich die auch ;)
 
in 1280 ist sli ein witz :p mit 2 8800gtx erst recht! Würde es so bei High-End Karten erst ab 1920x1200 und hohen Details als sinnvoll einstufen!
 
Zuletzt bearbeitet:
ich meine ja auch nciht 1600x1200, 2560x1600 schon eher!

Dann hast Du aber gewaltig was verpasst ... bei noch höheren
Settings merkste Sli noch viel eher ... auch bei nem kleinen Prozzi
... wie z.B. nen C2D @ 3,20Ghz.

Oder verstehe ich Dich nur falsch ???

Greetz Koyote008


3.2GHz mit zwei 8800GTX find ich reine Geld verschwendung, es soll ja auch noch Leute geben die in 1280 zocken und dann hat man schon fast nichts mehr am SLI. Ich sehs ja an meinen System, da geht bei 3GHz ja schon fast nichts mehr im Vergleich zu den 4GHz. Klar bei höheren Auflösungen wird der Abstand kleiner.

und wenn ich statt den 60FPS auch 80FPS haben kann, will ich die auch ;)


Joa , das verrät auch Deine Signatur ;)

Bissl Krank schon ... aber natürlich Geil ... aber Vapo ist
Geschmackssache.

Greetz Koyote008
 
Zuletzt bearbeitet:
in 1280 ist sli ein witz :p mit 2 8800gtx erst recht! Würde es so bei High-End Karten erst ab 1920x1200 und hohen Details als sinnvoll einstufen!

Die mehrheit hat derzeit noch ganz klar 1280! Es gibt auch wirklich noch sollche die mit 8800GTX im SLI bei dieser Auflösung zocken, hat dann wohl nicht mehr für den Monitor gereicht ;) Ich kenne sogar welche die zwei X1950XTX haben, mit der Begründung 4 Monitore anschliesen zu können und nur Desktop arbeiten drauf machen :haha:
 

Aso , dann hatte ich Dich falsch verstanden ;)

Nu krieg ich wieder Bock auf Sli :shot:

Greetz Koyote008


Die mehrheit hat derzeit noch ganz klar 1280! Es gibt auch wirklich noch sollche die mit 8800GTX im SLI bei dieser Auflösung zocken, hat dann wohl nicht mehr für den Monitor gereicht ;) Ich kenne sogar welche die zwei X1950XTX haben, mit der Begründung 4 Monitore anschliesen zu können und nur Desktop arbeiten drauf machen :haha:

Naja , ich socce 1600x1200 oder 1280x1024 ... je nachdem wie
weich die Konturen werden ... also je nach Game.

Okay , im Moment habe ich nur ne Übergangskarte ... die GTS
hatte ich wieder rausgeschmissen ... wegen krass schlechten Treiber ;)

Komisch nur das selbst 2xGTS mit 320MB so derbe rocken bei den
aktuellen Spielen bis 1600x1200 sogar.

Greetz Koyote008
 
Zuletzt bearbeitet:
och mann ich will endlich crysis zocken! mal wieder so ein richtig schöner splatter-action shooter mit edelgrafik! Aus deutschem Hause ^^ da lohnt sli
 
Schon was neues von der Ultra oder vom neuen GX2?
 
Bin mir ziemlich sicher das es keine GX2 Karte mit dem G80 in 90nm geben wird, da es technisch fast nicht möglich sein dürfte wegen des sehr hohen Verbrauches und die Kühlung extrem schwierig wäre.

Kommt die Ultra jetzt eigentlich zusammen mit der 8600 Serie am 17. April?
 
Bin mir ziemlich sicher das es keine GX2 Karte mit dem G80 in 90nm geben wird, da es technisch fast nicht möglich sein dürfte wegen des sehr hohen Verbrauches und die Kühlung extrem schwierig wäre.

Kommt die Ultra jetzt eigentlich zusammen mit der 8600 Serie am 17. April?

Keine Ahnung , .... meinste so früh ...
wenn der R600 erst Mitte Mai kommt ?

Greetz Koyote008
 
Also ich hab nur eine GTX drin und muss mal sagen das sich für mich ne 2te garnicht lohnt da der 66ér bei 3,6Ghz eh schon schlapp macht.

Das merk ich besonders bei Gothic3(gemoddet) da ist es egal ob ich 8xAF oder 1X drin hab. Die CPU limitiert, wie bei vielen Spielen, sobald Action ist und viele Einheiten da sind z.B..

Spielen tu ich eh auf 1280x1024, und das ganz bewusst da ich jedes quentchen CPU Leistung brauch, auch wenn bei höheren Auflösungen eher die GPU zu tragen kommt.

Eigentlich schade das man Quadcore und auch Dualcore derzeit so gut wie garnicht nutzt, bei Dualcore sind ca 60% im Durchschnitt die Regel bei Games.
 
Zuletzt bearbeitet:
Ja, wär mal interessant zu sehen, wie stark die GPU-Leistung noch skaliert, wenn man denn mal ein 100%ig optimiertes DC/QC-Spiel hätte.

@topic: Die Ultra soll am 17. April kommen, zusammen mit dem Rest der Bande.
 
Also komplett sicher ist bestimmt noch nichts. Aber durch vermehrte Meldungen und das Auftauchen in den Treibern und so wird sie wohl am 17. kommen.
 
Also komplett sicher ist bestimmt noch nichts. Aber durch vermehrte Meldungen und das Auftauchen in den Treibern und so wird sie wohl am 17. kommen.

Aber wie kommt man auf den 17. April? Warum nicht 18. April?
Kann mir das einer erklären oder hatt Nvidia immer den selben Zeitraum zwischen "Karten-Release" und "Treiber-Release" ???

Wenn das wirklich war ist, dann kaufe ich mir die Ultra :drool:
 
Aber wie kommt man auf den 17. April? Warum nicht 18. April?
Kann mir das einer erklären oder hatt Nvidia immer den selben Zeitraum zwischen "Karten-Release" und "Treiber-Release" ???

Wenn das wirklich war ist, dann kaufe ich mir die Ultra :drool:

ja *G ich auch! R600@ Mitte mai ist mir zu spät...aber die Woche warten wäre ok!
 
also im Endeffekt werden die neuen Spiele weiterhin nur für 0.1 Promille der Spieler und voller Pracht zu erleben sein, oder wie? Ich hab ja nicht unbedingt ein günstiges System, und jetzt bemerke ich erst was ich da alles nicht kann. Also zB Stalker: die Grafik ist echt nur so lal la, dafür sind überall tolle Lichter, und das ruckelt auf meinem Babe? Die scheisse von den dummen Russen ist doch schon Jahre alt!? Haben die etwa ihr drecks kyrilisch selber nicht lesen können? verdammt.
 
1. sind es keine Russen, sondern 2. Ukrainer, die ihrerseits aber 3. nicht dumm sind und im Übrigen läuft 4. Stalker bei mir auf 1600x1200 und maximal samt Dyn. Lighting perfekt. Vielleicht solltest du an deinem System noch ein bisschen optimieren, denn viel unterscheiden sich unsere Komponenten ja nicht.
 
Andre Yang scheibt in seinem DFI 680i Review-Thread im XS auch, dass er für 3D-Benches auf die Ultra wartet, da er keine GTX mehr hat.
Der wartet doch jetzt nicht einen Monat???
 
1. sind es keine Russen, sondern 2. Ukrainer, die ihrerseits aber 3. nicht dumm sind und im Übrigen läuft 4. Stalker bei mir auf 1600x1200 und maximal samt Dyn. Lighting perfekt. Vielleicht solltest du an deinem System noch ein bisschen optimieren, denn viel unterscheiden sich unsere Komponenten ja nicht.

1. Sind die Ukrainer eher Russen ... da :

Sie unter Russland "Russen" waren
und
Sie aktuell "blau" wählen ... und sich absichtlich
wieder Richtung "Russland" - Moskau bewegen -
da Sie kein Bock mehr auf "orange" = Demokratie haben.

Sie mögen es eher absolut ... ergo Absolt Vodka :lol:

2. Ist Stalker ein geiles Game - aber absolute Scheisse optimiert -
und selbst mit ner 8800GTX läuft es unter dyn.Light eben nicht
perfekt - und solche Leistung ohne AA - LOL.

Ich habe extra die game.db alles entpackt und sonstige Spässe
... nun isses zu ertragen.

Greetz Koyote008
 
Hab meine XFX 8950GX2 XXX jetzt auf 650/2200
getaktet und unterwasser gesetzt, geht ab wie sau.
14.500K in 3Dmark06
 
In den Videos die ich unter www.video.google.de gefunden und gesehen habe, waren zwar nur sehr kurze und knappe Sätze, aber ich habe alles perfekt verstanden.
Demnach sind es Russen und keine Ukrainer ;)

Es ist auch schön, wenn man alles versteht, vor allem in dem Raum mit dem rießigen Satelliten oder was das war... das kann einen schon ablenken :p



P.S.:

@Deez:
Du hast wirklich Komplexe...
 
Hab meine XFX 8950GX2 XXX jetzt auf 650/2200
getaktet und unterwasser gesetzt, geht ab wie sau.
14.500K in 3Dmark06

Bei diesem Wert wäre ich mehr als enttäuscht, meine einzelne 8800 GTX hats schon auf 15k gebracht, also nächstes mal besser lügen :d
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh