8800Ultra ***Sammelthread*** (Part 1)

Status
Für weitere Antworten geschlossen.
Hi,

hier dürft ihr alles über die 8800Ultra schreiben :)

8800Ultra News & Infos:













8800Ultra Testberichte:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/ (Deutsch)

http://www.theinquirer.net/default.aspx?article=39342 (Englisch)

http://www.tweaktown.com/reviews/1093/1 (Englisch)

http://www.anandtech.com/video/showdoc.aspx?i=2979&p=1 (Englisch)

http://www.gamestar.de/hardware/specials/radeon_hd_2900_xt_vs_geforce_8800/1470135/radeon_hd_2900_xt_vs_geforce_8800_p5.html (Deutsch)

http://www.pcwelt.de/start/computer/grafikkarte/tests/83135/ (Deutsch)

http://www.netzwelt.de/news/75639-geforce-8800-ultra-im-test.html (Deutsch)

http://www.channelpartner.de/knowledgecenter/assemblieren/242084/ (Deutsch)



Preise 8800Ultra:

http://geizhals.at/deutschland/?fs=8800+Ultra&x=0&y=0&in=

Techn. Daten:
Chip: G80
Transistoren: ca.681 Mio.
Fertigung: 90nm
Chiptakt: 612 Mhz
Shadertakt: 1512 Mhz
Shader Einheiten (MADD): 128 (1D)
FLOPs (MADD/ADD/MUL): 581 GFLOPs*
ROPs: 24
Pixelfüllrate: 14688 MPix/s
TMUs: 64
TAUs: 32
Texelfüllrate: 39168 MTex/s
Unified-Shader in Hardware: Ja
Pixelshader: SM4
Vertexshader: SM4
Geometryshader: Ja
Speichermenge: 768 MB GDDR3
Speichertakt: 1080Mhz
Speicherinterface: 384 Bit
Speicherbandbreite: 103680 MB/s


Fillrate Tester:


Shadermark 2.1:
[URL=http://imageshack.us][/URL]

3DMark06:

Dual-Core CPU (zwei Kerne des Quad-Core deaktiviert) GeForce 8800Ultra (Kein SLI)


Quad-Core CPU; GeForce 8800Ultra (Kein SLI)


Quad-Core CPU; GeForce 8800Ultra im SLI-Modus


8800Ultra Tech Demo (Human Head):

http://youtube.com/watch?v=LIGWAYS5uRw
 
Zuletzt bearbeitet:
click

soll das nen Kühler für die 8950 sein :confused:
mein Französisch war schon mal besser.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na das sieht doch gut aus, bekomme ende der nächsten Woche die selbe Graka(aber ohne den Kühler, hab dann einen EK drauf), hoffe meine macht dann auch solche werte.....:hail:

Gruß
Martin

Hast du dir eine Ultra bestellt, na dann kannst du ja erst mal ausgiebig testen und wenns garnicht geht kann mann ja noch einen Voltmod machen!:fresse:
 

TROLL hat mit seiner MSI OC Ultra nur 675 geschafft.....
Hinzugefügter Post:
Hast du dir eine Ultra bestellt, na dann kannst du ja erst mal ausgiebig testen und wenns garnicht geht kann mann ja noch einen Voltmod machen!:fresse:

Jaaaa, aber muß bis ende nächster Woche warten, es ist eine Leadtek Leviathan (684/1160), aber ohne den WaküKühler, bekomm sie dafür viel billiger und wenn die wirklich nicht gut zu takten geht, dann weiß ich ja wohin ich fahren muß...:fresse:
Und was ist mit dir, verkaufst du deine GTX ?


Gruß
Martin
 
Zuletzt bearbeitet:
TROLL hat mit seiner MSI OC Ultra nur 675 geschafft.....
Hinzugefügter Post:


Jaaaa, aber muß bis ende nächster Woche warten, es ist eine Leadtek Leviathan (684/1160), aber ohne den WaküKühler, bekomm sie dafür viel billiger und wenn die wirklich nicht gut zu takten geht, dann weiß ich ja wohin ich fahren muß...:fresse:
Und was ist mit dir, verkaufst du deine GTX ?


Gruß
Martin

Ach ich behalte die GTX erst mal wenn man so liest das nicht alle Ultras über 700 gehen lohn sich das nicht wirklich für mich würde mir am liebsten noch eine GTX bestellen und mal ein SLI aufziehen aber dann müßte ich mir ja auch wieder ein neues Board kaufen und ein neues Netzteil und das ist mir wieder zu viel des guten! Hab mir erst mal eine neue CPU bestellt zum testen! Wieso bekommst du die Leadtek ohne den Kühler, mit dem EK und deiner großen Wakü geht da bestimmt noch einiges,binn schon mal auf deine Test gespannt und wenn nicht müssen wir die Ultra halt mal Löten! Muuuaaa ich zittere jetzt schon!:lol:
 
kann man das bios auf ne gtx spielen oder hat sich da spannungswandlertechnisch oder so zu viel geändert?
 
Ach ich behalte die GTX erst mal wenn man so liest das nicht alle Ultras über 700 gehen lohn sich das nicht wirklich für mich würde mir am liebsten noch eine GTX bestellen und mal ein SLI aufziehen aber dann müßte ich mir ja auch wieder ein neues Board kaufen und ein neues Netzteil und das ist mir wieder zu viel des guten! Hab mir erst mal eine neue CPU bestellt zum testen! Wieso bekommst du die Leadtek ohne den Kühler, mit dem EK und deiner großen Wakü geht da bestimmt noch einiges,binn schon mal auf deine Test gespannt und wenn nicht müssen wir die Ultra halt mal Löten! Muuuaaa ich zittere jetzt schon!:lol:

Jo ich kenn das, ich hätte mir auch keine Ultra gekauft, wenn ich die nicht billiger bekommen hätte....
Du und zittern, kennen keinen der so gut löten kann....:hail:
Was hast du denn für ene CPU bestellt ?

Gruß
Martin
 
Ich an deiner Stelle hätte auch eine Ultra genommen. Vor allem lohnt sich das bei dir, zwischen deiner GTS und der Ultra ist schon ein größerer Unterschied, als zwischen der GTX und der Ultra. Habe mir den Intel Core 2 Duo E6850 bestellt. Aber das wird noch etwas dauern mit der Lieferung, schätze ich.:heul:
 
Ich an deiner Stelle hätte auch eine Ultra genommen. Vor allem lohnt sich das bei dir, zwischen deiner GTS und der Ultra ist schon ein größerer Unterschied, als zwischen der GTX und der Ultra. Habe mir den Intel Core 2 Duo E6850 bestellt. Aber das wird noch etwas dauern mit der Lieferung, schätze ich.:heul:

Warum kein Q ?
Hast du gesehen das die Grakas im Preis steigen, die Zotac steht jetzt bei 307€..:hmm:
Ich werd demnächst noch ein QX rein machen und dann ist schluß, ich hoffe der innere Schweinehund ist dann befriedigt und ich hab ruhe...
Gleich gehts ab zum See, hoffe ihr habt im osten auch so schönes Wetter :)

Gruß
Martin
 
Im Süden auch schönes Wetter und ich darf lernen :(
Jetzt wurde das Büro noch mit dem Rechner und Dirt schnell auf 28° aufgeheizt (ich schätze mal ca. 33° werden es heute), also ideale Randbedingungen :fresse:
Euch einen schönen tag!
 
na warum wohl keinen Q.... weils beim zocken NIX bringt...

Noch nicht ganz, hast du mal den bench von Supreme Commander gesehen mit 4 cores und Lost Planet unterstützt ja auch 4 cores....

Gruß
 
ISt von euch jmd. von einer 88GTX auf die 88GTX-Ultra umgestiegen?

Würde mal gern wissen ob man da einen unterschied merkt.
 
ISt von euch jmd. von einer 88GTX auf die 88GTX-Ultra umgestiegen?

Würde mal gern wissen ob man da einen unterschied merkt.

Leute die von einer GTX auf eine Ultra steigen, machen das nur um wirklich die letzten Reserven der Graka herauszuholen oder Freaks ;)
Ansonsten find ich es reine Geld verschwendung, weil paar % und dann der Aufpreis lohnen nicht.....

Gruß
Martin
 
Noch nicht ganz, hast du mal den bench von Supreme Commander gesehen mit 4 cores und Lost Planet unterstützt ja auch 4 cores....

Gruß

Zwischen "unterstützen" und "auslasten" ist ein himmelweiter Unterschied! Mir wurde das mal recht gut erklärt (ich hoffe richtig?), die Verteilung der Aufgaben auf die Kerne bringt ein wenig mehr Leistung. Kann aber nicht 100% oder gar 200% mehr Leistung bringen da bestimmte Rechenoperationen erst mal von dem ersten Kern berechnet sein müssen, bevor der zweite überhaupt anfangen kann! Verinfacht ausgedrückt, du kannst keine Bewegung ohne die fertig berechnete Figur zu haben ausführen und ohne das nötige Gitternetz kannst du auch keine Textur positionieren. Nur wenn alle gleichzeitig Alles machen würden, so wie eine Art QSLi, also die genaue aufteilung einer Aufgabe auf alle, hätte man am Ende sehr viel mehr Leistung. Wobei dessen Umsetzung sicher nicht leicht wäre...

Ich hoffe ich habs richtig wiedergegeben, ansonsten bitte nicht hauen! :d
 
Zuletzt bearbeitet von einem Moderator:
Zwischen "unterstützen" und "auslasten" ist ein himmelweiter Unterschied! Mir wurde das mal recht gut erklärt (ich hoffe richtig?), die Verteilung der Aufgaben auf die Kerne bringt ein wenig mehr Leistung. Kann aber nicht 100% oder gar 200% mehr Leistung bringen da bestimmte Rechenoperationen erst mal von dem ersten Kern berechnet sein müssen, bevor der zweite überhaupt anfangen kann! Verinfacht ausgedrückt, du kannst keine Bewegung ohne die fertig berechnete Figur zu haben ausführen und ohne das nötige Gitternetz kannst du auch keine Textur positionieren. Nur wenn alle gleichzeitig Alles machen würden, so wie eine Art QSLi, also die genaue aufteilung einer Aufgabe auf alle, hätte man am Ende sehr viel mehr Leistung. Wobei dessen Umsetzung sicher nicht leicht wäre...

Ich hoffe ich habs richtig wiedergegeben, ansonsten bitte nicht hauen! :d

Ist gut erklärt, nur der bench zeigt eine fast Verdoppelung der Frames.....also bringts was in dem Spiel....

Gruß
Martin
 
Dann hat dieses Spiel einen wirklich guten Quadcore Support! Aber es ist ja leider nicht bei Allen so, oder kann man davon ausgehen, dass z.B. Lost Planet auch 100% mehr Leistung hat? Und alle zukünftigen "QuadCore Ready" Games?
 
Ausgelastet sicher noch nicht, bei LP habe ich mit 2 Kernen @3,2 nicht viel Auslastung auf beiden Kernen, dafür ziemlich gleich.

Wenn ein Spiel für Multi-Core programmiert ist, dann können wohl die Berechnungen aufgeteilt werden, also z.b. irgendeine Physik auf nem andren Kern. So hab ich persönlich das verstanden.
Machen wir uns nichts vor, momentan brauchen wir sie noch nicht zum Spielen (was meinem Hirn aber egal ist :fresse: ), doch die Zeit wird sicher irgendwann kommen.

Aber ich denke, diese Diskussion wird schon woanders zur Genüge geführt und bevor ein Mod meckert sollten wir lieber zum Thema finden :rolleyes:


@setup.exe: Von GTX nach Ultra würde ich nur machen, wenn es sein muss (aus welchen Gründen auch immer ;) ).
Von GTS ->> Ultra ist jedenfalls ein kräftiger Unterschied
 
Kommt die GX2 denn überhaupt noch? Man hört ja gar nichts von Ihr. :( Oder hab ich mal wieder eine News verpasst?
 
nvidia hat es gar nicht nötig, ne gx2 rauszubringen, da sie eh die performancekrone haben.
wahrscheinlich war sie nur ein entwurf, falls der r600er ne bombe geworden wäre, was er ja nicht wirklich ist.

des weiteren sind bei ner dual-karte die materialkosten viel höher, womit die gewinnmarge im vergleich zu ner singel-karte sinkt
 
@Mayk-Freak

warum kein Q6600? Ist ja preislich nicht viel Unterschied.
& @ Sir Ozelot

Naja das mit dem Quad hatte ich mir auch schon überlegt.

Kennst du vielleicht einen Shop der gute OC- Q6600 auf Lager hat oder gibt es auch irgendwo schon welche mit dem G0 Stepping?
 
Zuletzt bearbeitet:
nvidia hat es gar nicht nötig, ne gx2 rauszubringen, da sie eh die performancekrone haben.
wahrscheinlich war sie nur ein entwurf, falls der r600er ne bombe geworden wäre, was er ja nicht wirklich ist.

des weiteren sind bei ner dual-karte die materialkosten viel höher, womit die gewinnmarge im vergleich zu ner singel-karte sinkt


Nuja Fudzilla :-)rolleyes:) schreibt, dass ATI gegen Ende des Jahres :-)rolleyes:) eine Dual RV670 bringen will, um die 8800Ultra zu schlagen. Aber da ist ja schon fast der G92 fertig... also eher unwahrscheinlich, dass es noch eine High End G80 Karte geben wird...
 
ist der g92 nicht die neue version des g84(8600 gt(s), bloss in 65 nm und mit 256 bit speicheranbindung?:hmm:
 
& @ Sir Ozelot

Naja das mit dem Quad hatte ich mir auch schon überlegt.

Kennst du vielleicht einen Shop der gute OC- Q6600 auf Lager hat oder gibt es auch irgendwo schon welche mit dem G0 Stepping?

Ne, aber nächste Woche krieg ich bescheid, schick dir dann mal ne Mail...
Ich interessiere mich für den QX6700....

Gruß
Martin
 
Nuja Fudzilla :-)rolleyes:) schreibt, dass ATI gegen Ende des Jahres :-)rolleyes:) eine Dual RV670 bringen will, um die 8800Ultra zu schlagen. Aber da ist ja schon fast der G92 fertig... also eher unwahrscheinlich, dass es noch eine High End G80 Karte geben wird...

Genau das denk ich auch, die werden sich schön zeit lassen und einen neuen Superchip entwickeln, was anderes wäre reine Verschwendung....und ich glaube auch nicht das der G92 noch dieses Jahr kommt, bestimmt zur nächsten Cebit...

Gruß
Martin
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh