nVidia G90, G92 (new 8800 GTS), G9x, G100 [Speku-, News- & Sammelthread] (2)

Status
Für weitere Antworten geschlossen.
Das war´s mit dem:
nVidia G90, G92 (new 8800 GTS), G9x, G100
[Speku-, News- & Sammelthread]

so wie Ihr ihn kanntet und größtenteils auch mochtet!

-S-O-R-R-Y- :(



Da sich mein Blutrausch aufgrund der traurigen
Vorkommnisse auf Forumdeluxx so langsam legt, wird es hier demnächst wieder OnTopic Infos zum Thema geben.
Ich lasse mir meine Arbeit net von den paar "Geisterfahrern"
einfach kaputt machen.
Ab jetzt wird hier die harte Linie gefahren! :hwluxx:


UPDATE IN PROGRESS...


------------------------------------

Vorläufig editiert [Inhalte gesichert]
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
es könnte auch so kommen das die GT die 8800er serie beebert.
QUOTE]


:eek:

Was da wohl rauskommt? :lol:

Ich sehe die 8800GT als würdigen Nachfolger der GeForce 4 TI 4200. Lange Zeit unschlagbares Preis/Leistungsverhältnis und per OC in die Nähe der Leistung des Spitzenmodells zu bringen. Da muss sich AMD/ATI mächtig strecken, um konkurrenzfähig zu sein. Sobald sich die Preise eingependelt haben, wird nach zwei ATI Karten wohl wieder eine NVidia in meinen PC wandern.

Macht´s gut

IBXP
 
...ob nun die 256Mb oder 512Mb Variante für einen besser ist, hängt ja nicht zuletzt auch von der gewünschten Auflösung ab. Ich denke 1280x1024 is da die Grenze und bei allem was da drüber kommt, macht die 256Mb Version sowieso keinen Sinn mehr und bei 1920x1200 sollte man dann auch schon über SLI nachdenken! ;)

Das stimmt nicht...
Die Auflösung spielt beim VRam Verbrauch heutzutage eher ne Untergeordnete Rolle. Viel mehr spielen die eingestellten Details und vor allem das Game beim VRam Verbrauch die Hauptrolle.

Also kurz gesagt, ob du nun 640x480 oer 1920x1200 fährst, ändert am VRam Verbrauch nahezu nix. Ob du aber mit Medium Details oder mit High Details zockst zeigt hingegen schon ne extremen Unterschied im VRam Verbrauch.
 
Das stimmt nicht...
Die Auflösung spielt beim VRam Verbrauch heutzutage eher ne Untergeordnete Rolle. Viel mehr spielen die eingestellten Details und vor allem das Game beim VRam Verbrauch die Hauptrolle.

Also kurz gesagt, ob du nun 640x480 oer 1920x1200 fährst, ändert am VRam Verbrauch nahezu nix. Ob du aber mit Medium Details oder mit High Details zockst zeigt hingegen schon ne extremen Unterschied im VRam Verbrauch.

Merkwürdigerweise ese ich sehr oft (3dcenter.de) das die Auflösung sehrwohl mit dem RAM der Graka zutun hat. Genauso bei AA/AF. :confused: Also was stimmt jetzt ?
 
bei den kommenden Titeln wird eine Karte mit 512 auch so gaaanz langsam an ihre Grenzen stoßen. Wenn man sich nur mal Alan Wake anschaut, und dann alles auf max mit moderater Kantenglättung...
€: Auflösung spielt da auch ne rolle, aber eher eine untergeordnete, texturlastige spiele hauen da richtig rein, und wenn man die details erhöht, frisst das Spiel an VRAM
 
Zuletzt bearbeitet:
Merkwürdigerweise ese ich sehr oft (3dcenter.de) das die Auflösung sehrwohl mit dem RAM der Graka zutun hat. Genauso bei AA/AF. :confused: Also was stimmt jetzt ?

Damals zu Zeiten von 2-16MB Grakas war die Auflösung noch sehr ausschlaggebend, derzeit mit Karten weit über 100MB ist es aber nicht mehr soo sehr.
Und ich sag ja nicht das es überhaupt nix damit zu tun hat, spielt eher ne untergeordnete Rolle, weil es bei heutigen Games andere Dinge gibt, welche viel mehr "reinknallen"

Das es fast nirgends richtig steht, stört mich auch ein wenig...
Selbst in der letzten [printed] stand noch drin, das man mit der 1GB HD2900XT einen Vorteil bei hohen Auflösungen hat, gegenüber ner 512MB XT, was, wenns um gängige Auflösungen geht, auch quatsch ist.
 
Alan Wake (das Spiel :fresse: :fresse:) soll 2008 rauskommen, wobei noch nichtmal das Quartal angegeben wurde. Die Entwickler sind doch die gleichen die auch Max Payne 1&2 gemacht haben oder ? Wenn ich mich nicht irre haben die Devs die Rechte von Max Payne verkauft um an Alan Wake zu arbeiten. Das heißt das die Entwickler Anfang 2004 mit Alan Wake begonnen haben müssen, schließlich ist Max Payne 2 im Dezember 2003 erschienen.

Hab ich Recht ? :fresse:
Hinzugefügter Post:
@ fdsonne

Die Auflösung spielt also nur dann wirklich eine Rolle wenn man mit 1920x1200 oder 2560x1600 zockt ? Verglichen mit 1280x1024.
 
Zuletzt bearbeitet:
joa, also wenn ich mir das Spiel bzw. die Grafik anschaue, die ist einfach mal der Hammer, aber was da an Hw-Anforderungen gestellt werden, dass will ich am besten gar nicht wissen
 
@ fdsonne

Die Auflösung spielt also nur dann wirklich eine Rolle wenn man mit 1920x1200 oder 2560x1600 zockt ? Verglichen mit 1280x1024.

Ich zähl die beiden erstgenannten noch zu den gängigen... alles was drüber ist ist unüblich und man müsste es also erstmal genau austesten.
 
Mal ehrlich, wenn ich mir die Karte kaufe, um sie zwei Jahre zu behalten, oder zumindest 1 Jahr, dann würde ich lieber die 50€ (isses überhaupt soviel?) mehr bezahlen für die 512MB Version. Zum Benchen, Testen, Für den Zweitrechner etc. reichen auch 256MB.
 
Und evtl. sogar ein paar Millionen Transistoren mehr....
 
Mal ehrlich, wenn ich mir die Karte kaufe, um sie zwei Jahre zu behalten, oder zumindest 1 Jahr, dann würde ich lieber die 50€ (isses überhaupt soviel?) mehr bezahlen für die 512MB Version. Zum Benchen, Testen, Für den Zweitrechner etc. reichen auch 256MB.

Also wenn, würde ich auf jeden Fall die 512MB Version kaufen!
Ich denk wenn diese verfügbar ist, wird sie so 200-220€ kosten, da kann man nicht meckern!
 
Ich halts nicht aus...
Hab mir schon überlegt mir schnell im Mediamarkt ne 8600GT zu kaufen und dann in 2 Wochen die Karte zurück zu bringen damit ich wenigsten irgentwas zocken kann...
 
Zuletzt bearbeitet:
@uhjj36 normal müssen die dann deine gebrauchte karte NICHT mehr annehmen bzw. geld zurückgeben!!!

der test der 8800gt ist ja der hammer! hoffentlich stimmen auch alle werte, die dort angegeben wurde! da kann ich nur sage, die leute die eine gts haben tun mir leid :d
 
Ich frag mich wirklich, was der Sinn hinter einer solchen Preis- und Releasepolitik seitens nVidia ist. Was haben die davon, sich ihr eigenes Sortiment zu zerstören? Warum nicht einfach die GTS billiger machen und den D8P dann als Midrangekarte der nächsten Generation zusammen mit einem neuen Highendchip verkaufen?
Wenn der Test stimmt, leg ich mir so ein Ding zu.
 
Zuletzt bearbeitet:
Ich frag mich wirklich, was der Sinn hinter einer solchen Preis- und Releasepolitik seitens nVidia ist. Was haben die davon, sich ihr eigenes Sortiment zu zerstören? Warum nicht einfach die GTS billiger machen und den D8P einfach als Midrangekarte der nächsten Generation zusammen mit einem neuen Highendchip verkaufen?
Wenn der Test stimmt, leg ich mir so ein Ding zu.

naja Unternehmer halt;) die wissen schon mit recht was die machen :d
 
Von dem ersten, der hier eine Karte hat, will ich keine Benches sehen, sondern als aller aller Erstes einen Kompatiblitätscheck zu PCI-E 1.0a und 1.0! :wink:

Gruss
DiedMatrix
 
ich lach mich schlapp wieiveile bezeichnung es shcon gibt PCIE 1.0 /1.0a /1.1 /2.0 ich kenne nur 1.0 und 2.0 was sind die abderen beiden?
 
schon heftig wieviel "angebliche" Leistung die 88gt hat wenn man bedenkt für welchen "angeblichen" Preis die verkauft wird... hätte mir beinahe die alte GTS geholt vor 3 Wochen... ABER dank euch hab ich noch gewartet ... zu recht wie ich jetzt weiß.
NV könnte jetzt ehrlich mal Butter bei die Fische geben... überlegt mal: eine Woche vor Release keine klaren Ansagen!!! schon heavy...
Naja 3 Wochen noch warten dann soll ja "angeblich" :-) die 88gts Refresh kommen ... so lang kann ich mich noch gedulten ... und??? gibts da schon harte Fakten??? hmmm nööö .. ach man ...

blödes Virales Marketing ... (jedenfalls in der verwandten Form) ...

aber danke Jungs ... dank euch keine 300eus zu früh verworfen :-)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh