ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mal ganz ehrlich , ich finde das einfach schon krank das jedes Jahr fast zwei neue Generationen an Grafik Chips raus kommen! Ne Grake für 300 Euro sollte doch schon gute 3 Jahre Top sein! Aber das war mal :hmm: Jetz muß man sich jedes Jahr ne neue Graka kaufen um auf dem laufendem zu sein! Irgendwie macht das echt kein Spaß mehr sein PC aufzurüsten weil er 3 MOnate später schon wieder alt ist! :mad: Nächstes Jahr da ich Windows Vista nutzen will in allen zügen heißt es wieder ne neue Graka obwohl ich mir gerade erst vor 1 Monat ne X1900XT gegönnt habe!

Ich habe mir geschworen immer mindestens 2 Generationen bei den Grafikkarten zu überspringen. Hatte vor der Geforce 6800 ne Geforce3 TI200. Dann merkt man wenigstens auch mal bei den Spielen, daß nicht die Grafik entscheident ist. Wenn das Spiel Spaß macht, dann auch mit mittleren Details.
Finde es in letzter Zeit eh extrem, wieviel Wert auf AA gelegt wird. Zu den Anfangszeiten sagte man immer es mache nur Sinn bei Auflösungen unter 1024x768. Und nun will man am besten 8xAA bei 1600x1200. Kann mir keiner sagen, daß man daß im Spielgeschehen noch sieht...
 
Also ich kann nur eins sagen:
Ich merks beim Spielen sogar bei 2048*1600 !

AA hat wenig mit der Auflösung zu tun....man die die Treppen auch noch bei hohen Auflösungen. Nichtmehr so stark wie bei 1024 aber man sieht sie noch.

Vor allem bei Transparentem-Antialiasing merkt man einen staaarken Unterschied !
 
Kann ich mir garnicht vorstellen. Ok. Wenn man im Spiel stehen bleibt und sich genau drauf konzentriert. Aber ansonsten wage ich das zu bezweifeln.
 
Die taiwanische Internetseite VR-Zone hat erste Informationen zu Nvidias neuer GeForce 8800 enthüllt. In dieser Grafikkarte kommt erstmals der neue Grafik-Prozessor G80 zum Einsatz, der die Performance drastisch steigern soll. Die Grafikkarte soll noch in diesem Jahr auf den Markt kommen.

Die GeForce 8800 wird als wesentliche Erneuerung eine vereinheitlichte Shader-Architektur mitbringen und aus rund 700 Millionen Transistoren bestehen. Die Performance der Pixel- und Vertex-Shader soll sich verdoppelt haben. Dies kann entweder mit doppelt so vielen Shader-Pipelines realisiert werden oder durch eine doppelt so hohe Taktfrequenz. Genaue Informationen liegen hier nicht vor.

Das Speicherinterface der neuen Grafikkarte soll bei 384 und 320 Bit liegen, je nachdem welches Modell man kauft. Die teure GeForce 8800GTX kann mit einer Wasserkühlung bestellt werden und soll 649 US-Dollar kosten. Die GeForce 8800GT dagegen kostet "nur" 499 US-Dollar und wird ausschließlich mit einem Lüfter gekühlt. Außerdem wird ein neuer Antialiasing-Modus unterstützt, der auf das Kürzel VCAA hört. Der Videospeicher wird auf beiden Karten 768 Megabyte groß sein.
 
Na es gint jene die ihre umgebung genauer ansehen und jene die eher an den eyecandy vorbeilaufen. Ich habe noch eine fx5200 ich sehe also nich mal die eyecandys :xmas: So ist bei mir immer der spassfaktor wichtig. Aber gönne mir auch bald neue graka und wenn die solange lebt und erst die spiele 2008/2009 unspielbar werden bin ich schon glücklich. Ich hoffe auf mein glück.
 
Zuletzt bearbeitet:
Ich merk es auch so beim Spielen. Klar, bei CSS oder BF2 achtet man nicht drauf aber bei Half Life 2 schon. Zum Beispiel wenn dort viele Zäune sind.
Dort man Transp. AA schon eine enoooorme Menge aus.

Darf ich gleichmal sagen, dass es eine geile HL² Mod gibt:
Schaut euch das Vergleichsbild mal an:
http://halflife2.filefront.com/screenshots/File/69829/12
Die Mod gibts hier:
http://halflife2.filefront.com/file/HalfLife_2_FakeFactorys_Cinematic_Mod_v3;69829
Ich sags mal so. Die FPS gehen mit der Grafik Mod bis zu 60% runter ;) Und die Ladezeiten sind 4 mal so lange. Man sollte am besten 2GB Ram haben aber ich schnarche noch mit 1GB dahin :fresse:


Hobby Tuner...das hatten wir schon 3 mal :bigok:

Edit: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4796433&postcount=137
 
Zuletzt bearbeitet:
für perfectionisten sicher nicht verkehrt
für leuts die einfach keine lego grafik haben wollen und einfach viel fps ohne jedes jahr die graka aufzurüsten reichts auch ohne AA usw
 
dann ist man immer glücklich und überrascht wenn man sich ne neue graka kauft und alles aufdreht. Hat auch was für sich. ;)
 
für perfectionisten sicher nicht verkehrt
für leuts die einfach keine lego grafik haben wollen und einfach viel fps ohne jedes jahr die graka aufzurüsten reichts auch ohne AA usw


Wat? du weist doch garnicht was Lego Grafik ist :drool: Ich Leih dir GERNE meine 6200TC :lol: Hab seit knapp einer woche Spiel Endzug:mad:
 
Soweit ich sehe, sind die neusten Spekulationen von INQ hier noch nicht gepostet, deshalb fasse ich mal kurz zusammen:

- 64 Unified Shader Units (soweit schon längst bekannt]
- 80nm Prozess (ebenfalls nichts Neues)
- definitiv über 700 MHz, wieviel genau drüber wird sich zeigen
- Markteinführung Januar/Februar 2007 (Launch möglichst zeitgleich mit Vista, wenn ATI schon genug Chips auf Halde produziert hat.)
- G80 aller Wahrscheinlichkeit nach trotzdem früher verfügbar (1,5 GHz my ass!)

Quelle: R600 to clock at more than 700MHz
 
Zuletzt bearbeitet:
Also wenn der G80 echt dann 1,5 ghz hat ja dann Halelulja

Ich freue mich schon auf dem R600 ;)

Hat er nicht!
Er ist bis 1500Mhz skalierbar. Die Frage ist, mit welchen Mitteln dies erreicht wird.
Achja falls der R600 750Mhz Coretakt hat, dann ist die Texelleistung um 15% höher und die Shaderleistung ist brachial angestiegen.
Selbst der G80 wird dann mit selbst 1000Mhz sehr schwer mithalten können.
USCs sind, falls gut skaliert, sehr schnell und sehr effektiv.

Die GeForce 8800 wird als wesentliche Erneuerung eine vereinheitlichte Shader-Architektur mitbringen und aus rund 700 Millionen Transistoren bestehen. Die Performance der Pixel- und Vertex-Shader soll sich verdoppelt haben. Dies kann entweder mit doppelt so vielen Shader-Pipelines realisiert werden oder durch eine doppelt so hohe Taktfrequenz. Genaue Informationen liegen hier nicht vor.

700Mill und 90NM?!
Niemals ich bleib bei höchstens 550Mill.
Aber das ist selbst fast unmöglich.
Also die Vertexshaderpipes wurden verdoppelt, außerdem schätze ich den Takt auf etwa 750Mhz.
Der G80 wird wenn dann ungefähr 50% schneller sein als der G70!
(Achtung ich meine den Chip!)
Schußendlich wird der Takt noch um einiges erhöht. Ich gehe um etwa 70% Leistungserhöhung bei der Karte zum Vorgänger, also der Geforce 7900GTX aus.

mfg Nakai
 
was Nakai schreibt klingt Garnicht nach Müll
wie gesagt 500-550mio transis beim G80 und 90nm können auch daher kommen,
der G80 wird nix besonderes der R600 wird 1000 mal besser also kauft euch alle den R600 :drool:
 
was Nakai schreibt klingt Garnicht nach Müll
wie gesagt 500-550mio transis beim G80 und 90nm können auch daher kommen,
der G80 wird nix besonderes der R600 wird 1000 mal besser also kauft euch alle den R600 :drool:



Hab ich was verpasst?Warum wird der R600 1000 mall besser werden bitte erklärung!?
 
Der R600 wird schnell, USCs sind sehr gut skalierbar...sehr sogar.
Falls höhere Vertexleistung gebraucht wird, gibt der Chip höhere Leistung her.
Der Chip findet immer eine perfekte Balance da alle Einheiten wirklich fast alles berechnen können.
Bei reinen Vertexanforderungen arbeiten insgesamt 64 Einheiten daran, genauso wie bei 64 Pixelanforderungen.
Der limitierende Faktor wird einfach ausgemerzt. Natürlich muss es irgendwie immer eine Limitation geben.

mfg Nakai
 
wie es bei der next gen bei den grakas aussehen wird man erst sehen wenn die grakas rauskommen.
Jetzt schon zu sagen welche der beiden besser ist funzt nicht da man nicht mal daten hat um sie zu vergleichen. Wenn die offiziellen specs kommen kann man die beiden vergleichen, wenn man die Möglichkeit hat die beiden auszuprobieren, kann man dann erst richtig schauen welche der beiden einen besser gefällt. Von aussagen die sich auf nichts von den oben genannten stützen, halte ich nicht viel.
 
Zuletzt bearbeitet:
Kann sein aber woher willst du wissen das die Unfined Shader vom R600 auch völlig ausgereizt werden?

nakai wie es bei der next gen bei den grakas aussehen wird man erst sehen wenn die grakas rauskommen.
Jetzt schon zu sagen welche der beiden besser ist funzt nicht da man nicht mal daten hat um sie zu vergleichen.

Der R600 wird sicherlich schneller werden als der G80 jetzt ist oder später die Frage wieviel schneller.
 
Zuletzt bearbeitet:
also ich vermute es so
R600 wird unter dx10 schneller aber r600 wird keine 64 einheiten haben sondern 32 eineiten !
unter dx9 wird der G80 gleich schnell oder schneller sein,
dennoch wird der R600 der zukunftssicherere chip sein
 
Ich will auch so eine Glaskugel haben wie ihr. Da sind noch nichtmal irgendwelche daten von ATI oder NV preisgegeben worden und ihr sagt schon welche der beiden schneller ist :hmm:. Wie gesagt man kann erst sachen vergleichen wenn man die daten beider hat. Vorher zu sagen welche schneller ist, etwas Substanzlos da es an fakten mangelt. Also bitte spekuliert über daten tauscht die neuesten gerüchte im web rum aber behauptet nicht jetzt schon welche der beiden besser ist.
 
Zuletzt bearbeitet:
Genau Der R600 wird euren G80 vergasen *kriegmitdenfanboysanfang* :teufel:

:lol: Jo Ati was sonst?:lol: Ne aber mall ehrlich,ich warte auch auf denn R600 weil mein Zimmer immer so kalt ist.

Ich will auch so eine Glaskugel haben wie ihr. Da sind noch nichtmal irgendwelche daten von ATI oder NV preisgegeben worden und ihr sagt schon welche der beiden schneller ist :hmm:. Wie gesagt man kann erst sachen vergleichen wenn man die daten beider hat. Vorher zu sagen welche schneller ist, etwas Substanzlos da es an fakten mangelt. Also bitte spekuliert über daten tauscht die neuesten gerüchte im web rum aber behauptet nicht jetzt schon welche der beiden besser ist.

Für Grafik Gurus sind schon genug Fakten rausgekommen um eine einschätzung der Performance machen zu können!
 
Zuletzt bearbeitet:
R600 wird unter dx10 schneller aber r600 wird keine 64 einheiten haben sondern 32 eineiten !

Das wäre ein großer Rückschritt. 32 Einheiten sind in diesem Fall zu wenig.

Kann sein aber woher willst du wissen das die Unfined Shader vom R600 auch völlig ausgereizt werden?

Weil es USCs sind!

Eine Umstellung zwischen einen Zustand dauert auch nur einen Takt.
(Zustände: Vertex, Geo, Pixel)
Der Nachteil bei USCs sind die Zugriffe. Die kann mit einer höheren Anzahl von USCs aber besser kompensieren.
64 sind mehr als genug.

mfg Nakai
 
:lol: Jo Ati was sonst?:lol: Ne aber mall ehrlich,ich warte auch auf denn R600 weil mein Zimmer immer so kalt ist.



Für Grafik Gurus sind schon genug Fakten rausgekommen um eine einschätzung der Performance machen zu können!

Jup mein Zimmer ist auch immer kalt, nur Ati wird warscheinlich zu spät kommen :mad: da ist der Winter schon vorbei :xmas:
 
es sind bis jetzt nur vereinzelt gerüchte aufgetaucht. Gerüchte können stimmen oder auch nicht. Was er dann wirklich kann und tut weiss man erst wenn die technischen specs (die ganzen) von den beiden präsentiert werden. Vorher ist es reine Spekulation. So wie die 250watt die der r600 verschlingen soll etc.
 
es sind bis jetzt nur vereinzelt gerüchte aufgetaucht. Gerüchte können stimmen oder auch nicht. Was er dann wirklich kann und tut weiss man erst wenn die technischen specs (die ganzen) von den beiden präsentiert werden. Vorher ist es reine Spekulation. So wie die 250watt die der r600 verschlingen soll etc.

richtig bist sehr vernünftig :)
dennoch ist ati meistens n stück schneller gewesen in der vergangenheit, wird wohl wieder so sein
 
Man das sieht ja besser als ein Hardcore Film aus.:fresse:Mall gucken obs auch so kommt,Ati und Nvidia übertreiben immer gerne bei ihren Folien.;)
 
vor der 9800 serie waren sie aber langsamer ;)
Das ATi schneller sein könnte bezweifel ich auch wieder nicht, aber wie es dann ist kann man wie gesagt erst sagen wenn man was zum vergleichen hat. So gesehen ist es jetzt noch wirklich zu früh für die Noten Blätter und Bewertungen. Ich würde hier lieber die neuesten Gerüchte die im Web kursieren lesen als darüber welche der beiden schneller sein soll. Weil das kann man dann vergleichen wenn man specs hat (wo es ja dann auch wieder das es von spiel zu spiel sich unterscheidet wird)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh