7900 Ultra

Status
Für weitere Antworten geschlossen.
Etwa 2-3 Wochen vor der offiziellen Vorstellung und sogar vllt dem Verkaufsstart der 7900 gehts schon wieder los... Beleidigen, FanBoy Geflame und Argumente, die keinerlei Sinn und Halt haben :(
Ist wie beim R580.. NaJa in 3 Wochen hat sich wieder alles gelegt:bigok: :(
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
mustrum schrieb:
Weiß man schon ob HQ AF möglich sein wird? Wenn nicht hole ich mir nämlich eine x1900XT. Bitte kein geflame über das Thema. Mir ist das AF einiges wert auch wenn ich weniger FPS habe. Das muss nicht jeder akzeptieren und ich dränge auch niemandem meine Meinung auf.
Ich bin zwar GTX user aber die neue X1900XT finde ich ja wohl mehr als klasse das ist ne karte die ich mir auch kaufen würde nur leider wird die so heiß!
Aber ich schätze das die neue 7900GTX der X1900XTX etwas überlegen sein wird!
P.s ich denke ich sollte mir mal wieder ne ATI kaufen nach der 7800GTX aber eigentlich kann ich ja auch noch diese generation mit meiner karte überspringen!
 
Nakai schrieb:
Und dann machst du ebenfalls das Gleiche!:shot:
Naja, wollt ihn ja nur mal drauf hinweisen!
Er meinte die X1800XT-PE, die ist 75 mhz höher getaktet!
Zu erst meinte er die normale XT!
Er meinte das die X1800xt trotz nur 16 Pixelshader die 7800gtx mit 48 Pixelshader besiegt. Also das dreifache.
Der Takt der X1800xt ist nicht so viel höher, rund 50% und trotzdem besiegt die x1800xt die 7800gtx.
Er vergleicht, weil die 7900gtx nur eine verbesserte 7800gtx ist und sich somit nicht viel voneinander unterscheiden! (Selbe Renderabfolge!)

Lol, die X1800xt hat weniger Pixelpipes, weniger Alus, gleichviele Rops und Tmus, aber dafür mehr Takt.
Pixelpipes und Pixelshader gehören genauso zum System wie die Mhz.
Hier spielt es keine Rolle ob ein Chip mehr oder weniger Mhz hat, sondern die Gesamtleistung!
Wie kann er da nen Vergleich anstellen und dann nur auf die Shader eingehen?! Du Sagst selber das alles wichtig sei?! Und nunmal wird wohl die 7900er net nur mehr Shader haben sondern auch mehr Pipes und nochmals deutlich mehr Takt als die GTX 512?! Von den kleinen anderen Verbesserungen mal abgesehen oder was noch so geändert wird!

Und das es es nicht auf den Takt ankommt halte ich für ein Gerücht! Oder was meinst wie kommt ATI sonst auf die höhere Pixelfüllrate und Dreiecksdurchsatz?!
Auserdem meinte ich, das man mal sieht was ATI und nV unterschiedliche Architekturen bei gleichem Takt leisten! Ist ja nun auch buggy - will nicht länger Diskutieren solange nichts Handfestes zur 79er gibt :wink:
 
SFVogt schrieb:
Naja, wollt ihn ja nur mal drauf hinweisen!

Zu erst meinte er die normale XT!

Wie kann er da nen Vergleich anstellen und dann nur auf die Shader eingehen?! Du Sagst selber das alles wichtig sei?! Und nunmal wird wohl die 7900er net nur mehr Shader haben sondern auch mehr Pipes und nochmals deutlich mehr Takt als die GTX 512?! Von den kleinen anderen Verbesserungen mal abgesehen oder was noch so geändert wird!

Und das es es nicht auf den Takt ankommt halte ich für ein Gerücht! Oder was meinst wie kommt ATI sonst auf die höhere Pixelfüllrate und Dreiecksdurchsatz?!
Auserdem meinte ich, das man mal sieht was ATI und nV unterschiedliche Architekturen bei gleichem Takt leisten! Ist ja nun auch buggy - will nicht länger Diskutieren solange nichts Handfestes zur 79er gibt :wink:
Ich denke auch das die NV architektur etwas effizienter ist! Wenn die NV karte auch noch küher sein sollte und somit mehr OC potenzial bietet würden die alle wieder NV kaufen wie verrückt!
 
Ist eigentlich was bekannt, ob NV nun endlich mal die "Bugs" behoben hat? Also AA und AF gleichzeitig etc...? Alles was eben ATI kann.. klar das die NV wieder stärker ist, aber wahrscheinlich wieder auf Kosten der Qualität des Bildes.. :( Also mal abwarten, aber ich fürchte NV behebt diesen Scheiss erst mit dem G80
 
Ja das denke ich auch das man bei der NV auf High Quali stellen muß um das gleiche an Bildqualität zu bekommen!
Was aber auch noch ein vorteil bei der NV ist die reagiert enorm auf einen Dualcore!
Nur mal als beispiel: Vorher habe ich NFS MS auf volle pulle gezockt auf HighQuali im treiber und im game alles an mit nem 670er@4,7Ghz und es kam schon ab und an an die 30FPS grenze!
Jetzt mit dem 920D@4,5Ghz habe ich im treiber noch "Gama Korrektes AA" -AN- "Tranzperentes AA (Multisampling)" -AN- "Triple Buffering" -AN- und alle optimierungen aus und das Game ist trozdem einiges schneller als vorher!
Habe das Game auch nochmal mit 8X AA +Supersamping und 16X AF gezockt und es lief flüssig :hmm:
Also da hat NV wirklich gute DC treiber :love:
 
LOL alles was ATI kann ^^, also AA und AF funken sehr gut udn HDR auch nur eben mit 8bit wenn man AA an hat (Ich persönlich seh keinen Unterscheid zwischen 8bit und 16bit HDR) Dann Bildqualität -> Wenn man Auf HQ stellt, hat man ein sehr gutes Bild, seit den neuen Treiber reicht Q auch. ATI ist in der hinsicht nicht besser, wenn man AI an macht is die Bild Qualität schlechter als bei NV.´Ob bei der 7900 HDR mit AA auf 16 bit läuft bezweifle ich. Denke das wird ehr bei dem g80 gemacht :cool:
 
SFVogt schrieb:
Naja, wollt ihn ja nur mal drauf hinweisen!

Zu erst meinte er die normale XT!
So also erstmal meinte ich einfach nur eine XT gegen eine 256MB GTX...nur wegen der Pixelshader. Also lagst Du schon mal falsch.
Zweitens will ich hier kein ATI vs NVidia anzetteln, wie Du es schon oft gemacht hast ;) Mir ging es einfach nur um die Aussage das die 7900 mal locker ne XTX wegfegen würde, wegen der Pixelshaderleistung.
Ich find es einfach geil, wenn man mal was postet was einen nicht in den Kragen passt, das die damit nicht leben können. Hättest Du meinen Post vernünftig durchgelesen wäre das nicht so zustande gekommen.
Ich habe auch keine lust mich hier rumzustreiten...war das mein letzter Post zu dem Thema...ich weiß noch wer erst rumposaunt hat, das die X1900er soo schlecht zu OCen gehen...nur weil 10 Teste online waren...hauptsache ne Firma schlecht reden...gott sei dank sind hier nur die wenigsten so....aber egal....


Rauwman
das ATI die bessere BQ hat, steht nicht umsonst überall geschrieben. Das ist kein schlechtreden, sondern einfach nur Fakt.
wie gesagt, letzter Post zu dem Thema :btt:

PS: ich bin 13+19 Jahre ;)
 
Zuletzt bearbeitet:
@Tectrex
Die ATI hat ja auch mit sicherheit das bessere bild nicht um sonst testet Computerbase auch ohne optimierungen bei der NV!
Ich glaube auch das wenn man die ATI X1900XT richtig kühlt ein enormes OC potenzial hat grade wenn noch immer wie bei der X1800 die möglichkeit besteht die Spannung per software zu erhöhen!

P.s. Habe irgendwo gelesen das die neue 7900GTX nur 32 Shadereinheiten haben soll und nicht 64 stimmt das denn nun!
 
Zuletzt bearbeitet:
ka, was stimmt, die normale GTX soll ja auch 48 haben(das wußt ich auch nicht).....wenn die schon 48 hat, wird die neue 7900er mit sicherheit nicht weniger haben...
 
SFVogt schrieb:
Und das es es nicht auf den Takt ankommt halte ich für ein Gerücht!


Das meinte er auch nicht. Es kommt auf die Gesamtleistung an, wie er auch schrieb. Wie die Karte die performance erzielt kann erstmal egal sein.
 
Tectrex schrieb:
ka, was stimmt, die normale GTX soll ja auch 48 haben(das wußt ich auch nicht).....wenn die schon 48 hat, wird die neue 7900er mit sicherheit nicht weniger haben...
die 7900 gtx hat 64
 
ka, was stimmt, die normale GTX soll ja auch 48 haben(das wußt ich auch nicht).....wenn die schon 48 hat, wird die neue 7900er mit sicherheit nicht weniger haben...
die haben an der architektur zum g70 nichts geändert bei der 7900.
der g70(7800gtx) hat 24 pixelshader die 2 MADDs pro takt abarbeiten kann.
Man kann also sagen das der g70 24 TMUs hat mit 2mal 24pixelshader.(das ist aber normalerweise alles noch viel komplizierter)
Da der g71 warscheinlich 32 TMUs hat wird er auch "64" pixelschader haben.Anders kann nvidia nicht skalieren.Die bauen einfach "nur" wieder ein quad dran der aus 4 TMUs und "8" pixelshader besteht.
Man kann aber pixelshader nicht gleich pixelshader setzen.Ich denke das zur zeit ati´s pixelshader bischen stärker sind.(vergleich g70 mit r520,48x430mhz zu 16x625mhz)
Der richtig grosse Vorteil vom g71 wird die TMU power sein 32(g71) zu 16(r580).Wie stark sich das auswirkt werden wir noch sehen.Der g71 wird aber 100% ohne aa/af schneller sein mit warscheinlich auch.Nur wird er stark an seinem speicher hängen der ja"nur" mit 800mhz getaktet sein soll.Bei 32 TMUs@650mhz imo bissel sehr wenig......
 
sklave_gottes schrieb:
die haben an der architektur zum g70 nichts geändert bei der 7900.
der g70(7800gtx) hat 24 pixelshader die 2 MADDs pro takt abarbeiten kann.
Man kann also sagen das der g70 24 TMUs hat mit 2mal 24pixelshader.(das ist aber normalerweise alles noch viel komplizierter)
Da der g71 warscheinlich 32 TMUs hat wird er auch "64" pixelschader haben.Anders kann nvidia nicht skalieren.Die bauen einfach "nur" wieder ein quad dran der aus 4 TMUs und "8" pixelshader besteht.
Man kann aber pixelshader nicht gleich pixelshader setzen.Ich denke das zur zeit ati´s pixelshader bischen stärker sind.(vergleich g70 mit r520,48x430mhz zu 16x625mhz)
Der richtig grosse Vorteil vom g71 wird die TMU power sein 32(g71) zu 16(r580).Wie stark sich das auswirkt werden wir noch sehen.Der g71 wird aber 100% ohne aa/af schneller sein mit warscheinlich auch.Nur wird er stark an seinem speicher hängen der ja"nur" mit 800mhz getaktet sein soll.Bei 32 TMUs@650mhz imo bissel sehr wenig......

Hmm da der selbe Speicher wie auf der GTX 512 verbaut werden soll, BJ11, wird dieser auch mit 900 MHz laufen. Die Endkarten von XFX usw. liegen doch sowie so alle deutlich über den Standarttakt:

GTX 512: 550/850

XFX + ein wenig OC (ist noch mehr möglich): 600/900

Also wird die neue wohl mind. mit 700/900 laufen.
 
Stimmt also 700/850 sollte auf jedenfall möglich sein und darüber dann natürlich auch wenns bei der GTX 512 auch ging.
Bin schon gespannt wie hoch die XFX Extreme getaktet ist. Normalerweise gehn die aber doch normalerweise nur 30/30 hoch?!
 
jo hätte ichs kleingeld, würd ich mir auf jeden die xfx holln diedann auch noch nen tollen takt hat und dann wakü dran :cool:
 
Supermax2003 schrieb:
Stimmt also 700/850 sollte auf jedenfall möglich sein und darüber dann natürlich auch wenns bei der GTX 512 auch ging.
Bin schon gespannt wie hoch die XFX Extreme getaktet ist. Normalerweise gehn die aber doch normalerweise nur 30/30 hoch?!

Ja die XFX läuft ja mit 580/1730, aber geht ohne Probleme auf 600/900 und höher.
 
Gut dann wirds wohl ne XFX Extreme :) Nachsten Freitag in 2Wochen sollts eigentlich losgehen :) Mal guckn....
 
@supermax, ich glaub du kriegst noch nen orgasmus wenn bilder von der KArte da sind, bist ja den ganzen tread lang am schwärmen :)
 
Zuletzt bearbeitet:
Rauwman schrieb:
@supermax, ich glaub du kriegst noch nen orgasmus wenn bilder von der KArte da sind, bist ja den ganezn trad lang am schwärmen :)

Sobald er eine hat, strib er an einem Infarkt!^^:fresse:
 
Rauwman schrieb:
@supermax, ich glaub du kriegst noch nen orgasmus wenn bilder von der KArte da sind, bist ja den ganzen tread lang am schwärmen :)

*lach*

Ich war lange nicht hier im Thead, .... gibt es Termine wann die neue kommen soll?
 
zur Cebit!

Zur Shaderdiskussion nochmal: Ich meinte ja nur, das die Games immer mehr Shaderleistung brauchen werden. Deshalb wird nvidia sich bei der 7900GTX sicher nicht lumpen lassen. Und bei der aggressiven Produktpolitik, welche sie gegenüber ATI im letzten Jahr gezeigt haben, gehe ich schon von einer signifikanten Leistungssteigerung im Vergleich zur aktuellen ATI-Rakete aus.
 
NVIDIA_G71.DEV_0290.1="NVIDIA GeForce 7900 GTX"
NVIDIA_G71.DEV_0290.1="NVIDIA GeForce 7900 GT"
NVIDIA_G72.DEV_0290.1="NVIDIA GeForce 7300 LE"
NVIDIA_G72.DEV_0290.1="NVIDIA GeForce 7300 GS"
NVIDIA_G73.DEV_0290.1="NVIDIA GeForce 7600 GT"

steht im neuen offiziellen Treiber, also kommen die zu 90% zur Cebit.
 
Was sagt ihr dazu?
http://www.theinquirer.net/?article=29795
Die soll nur 499$ kosten und die X1900XTX NICHT schlagen? Der Preis ist geil, aber wieso X1900 nicht schlagen? Das wissen die gar nicht :o Außerdem ist die 7800GTX 512 für mich eh schon so schnell wie ne X1900XTX, CA. Also muss die 7900 ja nochmal schneller werden (Takt und Pipes und Transistoren usw. erhöht).
Also Preis geil, X1900XTX wird nicht geschlagen dann kauf ich mir wohl ne X1900XTX:rolleyes:
 
Supermax2003 schrieb:
Was sagt ihr dazu?
http://www.theinquirer.net/?article=29795
Die soll nur 499$ kosten und die X1900XTX NICHT schlagen? Der Preis ist geil, aber wieso X1900 nicht schlagen? Das wissen die gar nicht :o Außerdem ist die 7800GTX 512 für mich eh schon so schnell wie ne X1900XTX, CA. Also muss die 7900 ja nochmal schneller werden (Takt und Pipes und Transistoren usw. erhöht).
Also Preis geil, X1900XTX wird nicht geschlagen dann kauf ich mir wohl ne X1900XTX:rolleyes:
Alles nur Spekulation. Ander Quellen behaupten 32 Pipes GTC 24 GT.
Wie auch immer: Es wird keine Revolution sondern nur ein kleiner Performanceschritt.
Grund genug für mich um an meiner GTX festzuhalten und auf die unified Shader Karten zu warten.
Wenn ich jetzt eine Karte kaufen würde würd ich zur x1900 greifen.
 
Ja genau ein kleiner Performanceschritt ABER von GTX 512. Von GTX 256 also ein wesentlich größerer und von 6800 ein sehr großer :)
Trotzdem bin ich mir über die Leistung der 7900 nicht mehr ganz so sicher....ob die wirklich gut wird? :d
Ich will hier bloß keine Karte, die en bissl besser iss als ne GTX 512 (5-10%) und die XTX nur knapp streift. Dann könnt ich vielleicht sogar ne XTX nehmen....obwohl die mir in manchen Spielen einfach zu schwach ist, in anderen widerrum ziemlich gut. Deshalb ist die 7900 einfach der größte Favorit ^^

Edit: Ajo die Typen denken, sie hat 24. Mit 32 sagen sie, könnte die 7900 öfter gewinnen. Dann iss wieder alles im Lot :d Aber der Preis soll bleiben :)
 
Zuletzt bearbeitet:
N1K THA CH1K schrieb:
muss aber auch bedenken, dass die gtx512 selektierte chips hatten..und da dann die 600 möglich waren.....
so viel besser als die 256er GTX chips waren die gar net. man braucht die corespannung nur auf 1,45V anheben und den geotakt streichen, voilá, da sind die 550-600 MHz coretakt.
 
duKee schrieb:
so viel besser als die 256er GTX chips waren die gar net. man braucht die corespannung nur auf 1,45V anheben und den geotakt streichen, voilá, da sind die 550-600 MHz coretakt.
Jupp. Meine GTX macht 550 Geotakt @1.4v. Mit GTX 512 vcore würde die locker 580 machen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh