ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
was sind die gerüchte wann kommt der G80?

btw ne frage welches spiel ist nicht mit max details zb auf ner x1800xt oder 7900gt mit verbindung von 2gbram und nen fx-60 zb nich spielbar`?

kommt da irgendwie ein monster vor 2007?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was sind die gerüchte wann kommt der G80?

btw ne frage welches spiel ist nicht mit max details zb auf ner x1800xt oder 7900gt mit verbindung von 2gbram und nen fx-60 zb nich spielbar`?

kommt da irgendwie ein monster vor 2007?

also es gibt einige spiele die bei max details nicht mit deiner oben genannten config flüssig spielbar sind, allerdings kommt es mehr auf die auflösung an die du spielen willst, und in welchen quality settings wie Full AA/AF oder HDR/AAA etc.
daher kommt sogar eine x1950XTX zum einbrechen bei zb Obivilion mit allen schatten und details an bei zb 1600x1200 mit AA/AF

der G80 wird ende november vorgestellt und wann er in den handel kommt weiss keiner, entweder gibts ende november nen papier lounch oder anfang dezember einen super launch mit hoher verfügbarkeit,
ATI fans munkeln allerdings dass er erst im Januar verfügbar sein wird ;)
 
der G80 wird ende november vorgestellt und wann er in den handel kommt weiss keiner, entweder gibts ende november nen papier lounch oder anfang dezember einen super launch mit hoher verfügbarkeit,
ATI fans munkeln allerdings dass er erst im Januar verfügbar sein wird ;)

Wie siehts mit dem R600 aus?
 
look at site 50-62 :d
ne fun also ati verspätet sich auf januar bis februar
ich schätze launch anfang/mitte januar und verfügbarkeit bei glück schon ende januar oder anfang februar
 
Alles Vermutungen oder gibts da öffentliche Angaben dazu?

wurde von mehreren seiten berichtet aber die links such ich dir jetzt nicht raus ;)
meine eigene meinung währe folgende
G80 Dez-Jan in den läden
R600 Feb-März in den läden
ich vertrau nicht auf paper launches
 
War klar, mit DX10 gibt es endlich mehr Möglichkeiten für andere Rechenaufgaben.
Physik wird dadurch auch ermöglicht.
Naja whayne...das würde vll auch den größeren Speicherbus auf dem G80 erklären...aber eigentlich sinnlos.

mfg Nakai
 
Hab auch verstanden ,daß der G80 Unified Shader und so ne Physikberechnung haben soll!Ati verärgert mich langsam mit der sch...verschieberei.Wollt den rd600 auf nem DFI - wird ja auch ständig verschoben...werd mir jetzt wohl was anderes holen!Wenns mit dem r600 genauso wird,hol ich mir ne Nvidia.

P.S. spiel auch FEAR online,nur Deathmatch. Kampfnahme Aragorn :o)
Wie nennst Du Dich?
 
Night<eye> :)
aber ich denke der G80 wird keine USA haben. interpretations sache :)
 
Das war auch die Ganze Zeit Stand der Dinge : G80 kein USA...bin verwirrt -aber cool wenn doch-mal wieder abwarten:o)
Hoffe man sieht sich mal in FEAR -kommst mir bekannt vor...:o)
 
naja... der hat die gleiche quelle wie alle anderen artikel... deswegen würde ich den mit vorsicht genießen.

wäre natürlich schön für uns, wenn NV seine meinung bezüglich USA geändert hat...
allerdings ist das nicht sicher.
 
Zuletzt bearbeitet:
Und wäre denn U.S. so schnell implementierbar? Ich denke, dass der Chip von vornherein so geplant werden muss.
 
naja vllt hatten sie es schon eine geraume zeit im hinterkopf vllt sogar ein alternativ designe vorher schon angefertigt und haben uns bis zum sommer im dunkeln haben tappen lassen was usa angeht , auch net schlecht :fresse:

€: eben gelesen das die leute im pcgh forum denken , dass die usa über eine software basierend arbeiten würde also eine art fake usa.
ist das machbar? also mir ist bekannt das die nvidia programmierer gute treiber zaubern können aber sowas zu implentieren ist doch eine heiden arbeitet oder?
 
Zuletzt bearbeitet:
Wird wohl gehen. Intel wollte z.B. auch einen 32Bit Prozessor emulieren als sie noch an Ihrer eigenen 64Bit Technologie verharrt haben.

Wenn es so ist, wird unter DX10 die R600 klar punkten. Denn Emulieren kostet immer Leistung. Wie es aber genau bei der G80 aussehen wird, lässt sich nicht sagen. Tatsache ist aber, dass der R600 dynamischer sein wird mit ihren Shadern. Der G80 hat nämlich eine feste Anzahl an Pixel- und Vertexshader und haben bei dieser "Emulation" klar Grenzen.

Ich will natürlich nicht sagen, dass die G80 schlecht wird, auf keinen Fall. Wahrscheinlich würde ich sie mir auch kaufen, wenn sie preis-/leistungstechnisch attraktiv ist. Aber ATI hat momentan die besseren Karten. Laut allen Gerüchten versteht sich...
 
Zuletzt bearbeitet:
Der G80 hat Unified Shader, aber keine UnifiedShaderCores...:wall:

eben gelesen das die leute im pcgh forum denken , dass die usa über eine software basierend arbeiten würde also eine art fake usa.
ist das machbar? also mir ist bekannt das die nvidia programmierer gute treiber zaubern können aber sowas zu implentieren ist doch eine heiden arbeitet oder?

Die im Pcgh-Forum sind wie immer falsch informiert.
Der G80 hat keine USCs beherrscht aber dennoch US, was ich Dx10 verankert ist.

mfg Nakai
 
ja , selbst das gerücht mit den 250w ist kein nachteil den der g80 wird auch kein stromsparwunder und somit gäbe es kein weiteres argument (imoment) ggn. den r600

€:achso ok nakai , wusste nicht das es unterschiede gibt zwischen dem ganze us haufen :fresse:
also us = die shader anfürsich ?
und usa & usc die hardwareseitigen pipes ?
 
Zuletzt bearbeitet:
€:achso ok nakai , wusste nicht das es unterschiede gibt zwischen dem ganze us haufen :fresse:
also us = die shader anfürsich ?
und usa & usc die hardwareseitigen pipes ?

Da muss man differenzieren. Das ist auch nicht schlimm nachzufragen.
Also US ist für DX10 notwendig, USCs sind aber die hardwareseitigen Shadercores.
USA kann man auch anderes definieren.
Sicherlich ist der G80 eine USA in dem Sinne, dass er US berechnen kann, aber er hat keine USCs.
Deswegen kann man auch nicht sagen, dass der G80 kein voller DX10-Chip ist.
Er kann alle DX-10-Berechnungen durchführen.
USCs sind seitens DX10 nicht erforderlich, aber es wäre besser.
Die Unified-Shader-Cores sind perfekt für eine bessere Balance geeignet, und deswegen werden USCs, selbst bei gleicher Leistung zu anderen Shadercores schneller sein.
NV setzt auf ein gutes Verhältnis. 16 VS sollen Geo und Vertexberechnungen durchführen und die 32 PPs die Pixelshader.
Falls es aber zu berechnen mit hoher Vertexshaderanforderungen kommt, wird der G80 dem R600 um den Faktor 2 oder mehr unterlegen sein.
Denn jeder USC vom R600 kann auch Vertexanweisungen berechnen.
Das wären bei 700MHz Core und reinen Vertexanforderungen ein Dreiecksdurchsatz von 11200 MVertices/s
Die X1900XTX hat nur 1300MV/s.
Aber das auch nur bei reinen Vertexberechnungen!

mfg Nakai
 
ok nun ist alles klar tnx :)

aber das prinzip um die ganze usa hab ich schon verstanden nur war ich ein wenig verwirrt zwischen den ganzen bezeichnungen und überhaupt :fresse:
 
beim g80 werden die vertexshader zu kombinierten vertex&geometry shader aufgebohrt, die pixelshader bleiben jedoch extern (werden enventuell mit rops vereinigt)
die verteilung der aufgaben übernimmt der treiber, das system spricht die karte wie eine mit unifiedshadern an.
in wie weit das langsamer/schneller ist, bleibt abzuwarten.
insgesamt sollen r600 und g80 wohl gleich viele shader haben, nur dass der r600 seine halt flexibler verteilen kann.
ob das einen vorteil bringt, bleibt abzuwarten, bis auf weiteres sind die spiele ja auf getrennte shader ausgelegt und da spezialisierte einheiten (nvidia) durchaus schneller als universelle sein können, haben beide modelle durchaus eine chance.
 
ob das einen vorteil bringt, bleibt abzuwarten, bis auf weiteres sind die spiele ja auf getrennte shader ausgelegt und da spezialisierte einheiten (nvidia) durchaus schneller als universelle sein können, haben beide modelle durchaus eine chance.

Naja Shader bleibt Shader, da gibt es nur Unterschiede in den Auslegungen und der Genauigkeit.
Ein Vertexshader ist nichts anderes als ein Pixelshader(und umgekehrt!) nur das er keine Texturzugriffe macht.
(Natürlich gibt es da auch noch unterschiede, aber beide Einheiten sind zusagen im Grunde fast identisch.)

Mittlerweile meine ich das USCs besser bei den Berechnungen sind.
Das eigentliche Rechenwerk der USCs werden sich wohl höchstens in der Genauigkeit eines Shaders des R580 unterscheiden. Außerdem ist es ein Irrtum das eine USC den Zustand eines GS, VS oder eines PS einnehmen kann. Er bekommt Daten und die berechnet er. Wenn er Vertexdaten reingestopft bekommt, berechnet er diese. Der USC benötigt dennoch 1 oder mehr Takte um sich umstellen zu können.


beim g80 werden die vertexshader zu kombinierten vertex&geometry shader aufgebohrt

Mhh, Vertexshader berechnen nur Eckpunkte von Dreiecke und Winkelzeuch. Geoshader berechnen Bewegungen von Kanten.
Die Frage die mich interessiert ist, ob des nur Vertexshader sind, was ich denke, oder eine 2 stufige Pipe.
Falls das erstere wäre der G80 ein kleiner USC-Chip.
Das letztere passt aber besser ins Profil...naja schauen wir mal.

(werden enventuell mit rops vereinigt)

Welchen Vorteil sollte das bringen? Jedenfalls sind die Rops schon sehr Pixelshader Nah angebracht.
Rops sind für Z- und Stencilberechnungen da.
Die Anzahl der Rops wird sich eh auf 16 beschränken, selbst beim R580 sind die 16 ROPs und die 650Mhz einfach overkill.

mfg Nakai
 
Hmm ich Freu mich irgendwie drauf auf die Neuen karten mein 7900GS (Neu^^) leuft mit keinem neuen Spiel Richtig flüssi^g auf 1024 mit max details usw.... Fear Leuft Flüssig auch mit FSAA schatten voll alles auf Max was geht und es Leuft Flüssig..... Aber Tombraider im Nexgen .....NEVER Check ich nicht :fresse: die hat mitlerweile mehr herz als ne GTX oOooOooOo

Hoffentlich habe die genug Power um wenigstens Spiele in 1280 mit allen max was geht Flüssig zu Zocken
 
Zuletzt bearbeitet:
hmm deine gs müsste doch locker reichen zz :)
aber ich weiss, wir haben nie genug power ^^
@ Nakai
der text war nicht von mir sondern ausm pcgh forum, wollt mal sehen was ihr dazu sagt, thx :wink:
 
hmm deine gs müsste doch locker reichen zz :)
aber ich weiss, wir haben nie genug power ^^
@ Nakai
der text war nicht von mir sondern ausm pcgh forum, wollt mal sehen was ihr dazu sagt, thx :wink:

Keine ahnung was bei mir los ist normalerweise sollte das Locker langen.....naja muss ich nochmal schauen wenn ich morgen zuhause bin ;)

aber dies ist ja nicht das Thema :d
 
Weis man schon was die neue 8800gt/x kosten sollen? Mit meinem 3ghz prescott werden aber wohl stark unterfordert sein oder?

ach dein prescott sollte reichen solange du nicht in 1600x1200 max AA/AF hdr usw zockst,
und um so mehr grafik power die spiele brauchen um so mehr limitiert die grafik karte also ich denke dein prescott reicht noch, limiteren bei 1280x1024 würde deine cpu wohl nicht, jedenfalls nicht in unspielbaren bereichen
 
Hallo, weiss jemand ob Q3 standardmäßig auf 60 FPS limitiert ist?

is jetzt bissl OT, aber sry

MFG
Danke!
 
Hallo, weiss jemand ob Q3 standardmäßig auf 60 FPS limitiert ist?

is jetzt bissl OT, aber sry

MFG
Danke!

hi
nein quake 3 ist nicht auf 60 fps limitiert,
siehst du auch bei vielen benches neuer hardware wo noch mit quake 3 gebencht wird
oftmals haben die test systeme über 200 fps
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh