ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
64 Player ohne Zerstörbare Landschaften und Gebäude
32 Player und alles wie im Singleplayer.. also alles zerstören ^^


Kati


Egal, hauptsache man bleibt mitm Panzer ect. wenigstens net an einem Zaun hängen :fresse: wie in nem anderen Game....

@SinSilla, sorry, ok jetzt wieder :btt:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na ja, irgendwie gehört das schon zum topic. Schließlich wollen viele deswegen aufrüsten mit der 8800 oder R600. Und wenn die Karte schon mit dem Spiel lief, finde ich es sehr gut wenn die Leuts berichten.
Übrigends, könnte es durchaus schon mit DX10 und PS4 gelaufen sein, denn Vista ist durchaus schon draußen bei den Entwicklern inkl DX10. Treiber gibts ja auch schon für Vista.

Die 8800 dürfte als nix bringen Snoopy, limitierung duch Restsystem. Ist doch bei der XTX nicht anders. Bei mir gabs den bums in Grakalimitierten Games erst durch CPU wechsel.
 
Das werden wir ja morgen sehen - da gibts richtige Spielebenches :)
 
Na ja, irgendwie gehört das schon zum topic. Schließlich wollen viele deswegen aufrüsten mit der 8800 oder R600. Und wenn die Karte schon mit dem Spiel lief, finde ich es sehr gut wenn die Leuts berichten.

Prinzipiell schon, aber es gibt noch keinen einzigen Benchmark oder bestätige Informationen über das GC System.

Von demher gibt es keine Diskussiongrundlage bezüglich Crysis in diesem Thread. Alles weitere (Multiplayer etc) gehört also in den Sammelthread.
 
es war eine x1900xt, amd 4200+, 2 gb ram (der mp auf der gc)
 
Nope, 1280x1024, High, 2xAA und 8xAF, wenn ich mich recht erinnere. Und es hat gerockt (war Freitag da, da konnte ich am morgen länger zocken als die üblichen 10 Minuten - rox :) )!

never ever. ich hab es auch angespielt und mir die videos noch mal reingezogen.auf der gc sah die grafik eher aller hl2 aus.in den videos ist das ne ganz andere baustelle.das war nie hq.
Hinzugefügter Post:
Verstehe ich nicht ganz. Sollen "nur" 1000MHz mehr gleich fast 4000 P. mehr ausmachen???
Sch... - das verunsichert mich jetzt voll! Das würde ja heissen, dass ein E6700 @ default die G80 voll limitiert - also zu schwach ist (wenn man NICHT oced).
Links?

soweit ich weiss waren es um die 11300 c2d@3700
das sind keine 3000pts. aber trotzdem noch ne menge.glaube kaum das das nur durch den cpu score kommt.

der aufbu des g80 (pcgh)ist ganz schön clever.so ist es ein leichtes für nv noch 2einheiten nebst speicher dranzuflanschen.=1024mb@512 bit
166 usa`s oder 333 usa`s 2048mb@1024bit:eek:
auf jedenfall ist man für den r600 gerüstet, einzig der herstellungsprozess könnte noch probleme bereiten.aber wegen mir kann die karte noch 8cm länger werden;)
 
Zuletzt bearbeitet:
der aufbu des g80 (pcgh)ist ganz schön clever.so ist es ein leichtes für nv noch 2einheiten nebst speicher dranzuflanschen.=1024mb@512 bit
166 usa`s oder 333 usa`s 2048mb@1024bit:eek:
auf jedenfall ist man für den r600 gerüstet, einzig der herstellungsprozess könnte noch probleme bereiten.aber wegen mir kann die karte noch 8cm länger werden;)
Soso, einfach noch 256bit drannflashen. Verräts Du uns auch noch, wie einfach sowas geht? Oder einfach die entsprechende Quelle um so eine Behauptung zu belegen.
 
hat jmd infos zum stromverbrauch

lohnt es auf nen refresh zuwarten wann könnt der kommen (ich weis der G80 ist noch netmal da und ich denk schon wieder an refresh:shot:)

würde mir wenn eh nur ne GTS holen
allein weil sie sparsamer ist;)
 
ehm er hat doch mit dem zusatz (pcgh) doch eine quelle geboten oder etwa nicht ?
 
Wenn Ati viel schneller wird mit der R600 ist die Wahrscheinlichkeit sehr hoch das nVidia realtiv schnell einen refresh rausbringt. Tippe so März - April nächstes Jahr spätestens.
 
Wenn Ati viel schneller wird mit der R600 ist die Wahrscheinlichkeit sehr hoch das nVidia realtiv schnell einen refresh rausbringt. Tippe so März - April nächstes Jahr spätestens.

zustimm!


ja, war mir bis dahin ja auch nicht bewusst.aber ich vermute was nach unten geht zur gts geht auch nach oben.die einzelnen cluster haben ihre 64bit anbindung an den speicher.es sind im fall der gts5 bei der gtx6 6x64=384
und den rest hab ich dann einfach mal dazu gesponnen.ich weis nicht ob man dies überhaupt als eine echte 384bit anbindung bezeichnen kann!?auf jedenfall ist schön der modulare aufbau zu erkennen.mangels kokurenz und geeignetem fertigungsprozess hat man imho wahrscheinlich diesen "kompromiss" aus leistungsfähigkeit vs. verbrauch gewählt.
 
Was schätzt ihr, wann werden die Midrange G80 Karten auf den Markt kommen?

8600GS, 8600GT...
 
Naja, ich glaube die haben das alle sehr gut ausgelegt.
AMD will ja auch so in der Zeit gute DualCore Gegner herausbringen -
Und dazu auch noch so was schönes wie eine DX10 Start - Sehr fein.

Dann kommt Vista. Und schon hat Aldi wieder Schnäppchen im Angebot :shot:
 
zustimm!


ja, war mir bis dahin ja auch nicht bewusst.aber ich vermute was nach unten geht zur gts geht auch nach oben.die einzelnen cluster haben ihre 64bit anbindung an den speicher.es sind im fall der gts5 bei der gtx6 6x64=384
und den rest hab ich dann einfach mal dazu gesponnen.ich weis nicht ob man dies überhaupt als eine echte 384bit anbindung bezeichnen kann!?auf jedenfall ist schön der modulare aufbau zu erkennen.mangels kokurenz und geeignetem fertigungsprozess hat man imho wahrscheinlich diesen "kompromiss" aus leistungsfähigkeit vs. verbrauch gewählt.

dann dürfte es bei der 7900er auch keine echte 256 bit anbindung geben ;)

sind ja dort auch 4x64 ;)
 
es sollen in ganz "uk" nur einige hundert karten insgesamt zum relase verfügbar sein...laut "ocuk" preise um 750€ werden gehandelt...
das macht mir angst...
erst überlegt man die ganze zeit: "soll ich soll ich nicht!?".mit einem entschiedenen "JA" als antwort auf die frage und am ende nimmt sie uns noch ein anderer ab..seufs!
 
Also ich glaub ich warte noch ne Weile. Was man so hört besagt das die G80 wirklich nich sooo viel schneller ist auf z.B. 1280er Auflösung.

Klar DX10 usw. aber bis dahin... long time away .....
 
Ich würde ATIs Verhalten nicht als "überlegens Warten" bezeichnen ;)
 
Ich würde ATIs Verhalten nicht als "überlegens Warten" bezeichnen ;)

Ich auch nicht, wer zuerst kommt ... den Rest kennt ihr ja. NVIDIA wird mit der neuen Generation erstmal gut verdienen, ATI hat (noch) nix um mitzuspielen, und das kann NVIDIA nur Recht sein.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh