ATi R600/RV6xx *Infothread* (Part 2)

Status
Für weitere Antworten geschlossen.
Das glaube ich nicht.Der Chip war so geplant,die verspätung kam nur weil Ati mall wieder Fertigungsprobleme hatte.Normalerweise wer der R600 fast zeitgleich mit der 8800 gekommen.

Erst mit denn R700 wird sich wieder was an der Architektur ändern.

Die R600 Architektur soll doch auch richtig gut sein für Dx 10 Anwendungen...

Also kein grund was zu ändern..

http://img175.imageshack.us/img175/7604/img1911es8.jpg

das ist spekulation, dann musst du auch weitere spekulationen zulassen ;)

gruß klasse
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
naja über die Frau lässt sich streiten Domi :d

Ich steh net so auf aufgespritzte Lippen und es könnte schon etwas mehr Ram dran sein :haha:

Schau mal da sieht man den Unterschied 512Mb vs. 768MB :haha:
768 MB "RAM" :d
 
ein sli bzw. cf wäre auch nicht zu verachten ^^

back to topic pls ^^ sonst werd ich noch ganz meschugge
och wiwr ham schon ein an der waffel, frauen mit pC's vergleichen o_O

naja, nen vergleich mach ich mir später selber...
 
Zuletzt bearbeitet:
Wenn wirklich ne R650 in 65nm im Q3 kommen soll, dann kann man die 1,5Monate bis das Q3 losgeht auch noch warten :fresse: :lol:
Im warten kennen wir uns ja mittlerweile aus

aber diesesmal lohnt es sich dann
also ich meine dass warten auf den R650 in 65nm
ob man sich jetzt den R600 kauft oder Spätestens ! 12 wochen später den refresh in 65nm hmm da würd ich ganz klar zum refresh tendieren.
 
aber diesesmal lohnt es sich dann
also ich meine dass warten auf den R650 in 65nm
ob man sich jetzt den R600 kauft oder Spätestens ! 12 wochen später den refresh in 65nm hmm da würd ich ganz klar zum refresh tendieren.

und dann kommt 6 Wochen später der G90... :bigok:

ich werde mir am 14. eine 2900XT kaufen.
 
Weil jeder Chip mit 32 Bit angebunden ist und es ein 512 Bit Speicherinterface ist.
512/ 32 = 16 Chips...Somit bestätigt sich wirklich die möglichkeit mit 1024mb für die Xt!

Auch im 3dCenter nachzulesen.

Hab ich doch schon seit ewigkeiten gesagt das es möglich ist ne XT mit 1GB Speicher zu bauen, und es wird bestimmt auch welche davon geben. Auch wenn die Karten dann vllt etwas teurer sein werden.

Die Frage,die ich mich schon eine ganze Zeit stelle,ist ob ein 500W Netzteil ausreichend ist?!

Mit Sicherheit ja, ... zumindest für eine Karte.
woher willst du das wissen? ich glaub nämlich das die Architektur auch nochmals verbessert wird. Weil man wie man sehen kann den Chip jetzt zwanghaft und überstürzt auf den Markt wirft....

So wie doch gesagt wurde, wird der R650 ein reiner DIE Shrink auf 65nm und eventuell mit höherem Takt.
Ich denke mal wenn dann werden solche Optimierungen dazukommen welche das Splitten der Opterationen für bessere Auslastung der Shader ermöglichen.
An der Architektur an sich wird sich nichts weiter ändern, so ne einfache Erhöhung der Shader ist ja auch nicht ohne weiteres mehr möglich, also so wie es beispielsweise bei X1800 zu X1900 der Fall war mit den Shadereinheiten.

Viel interessanter als die Gesamtwerte sind jedoch die Punkte der reinen Grafikkartentest. Im SM2.0-Score liegt die 8800 Ultra mit 5688 zu 5421 vorn. Den HDR/SM3-Score entscheidet die "unnkown" HD2900 XT mit 6009 zu 5645 für sich.

Ich frage mich warum nur bei den Einzellwerten wie du sagst nur unter 6000 Punkte drin sind!
Dural hat doch hier vor kurzen mit seiner GTX über 6000 bei SM2 und SM3 geschafft, am Ende waren es dann auch 14080 Punkte und das bei nur nem C2D mit 4,4GHz.
Die Jungs hier in deinem Beispiel benchen wieder mit Quadcore und haben deutlich höheren CPU Score, aber trotz höherer Taktraten deutlich weniger SM2 und SM3 Punkte, find ich irgendwie komisch? Oda was is da los?
 
So wie doch gesagt wurde, wird der R650 ein reiner DIE Shrink auf 65nm und eventuell mit höherem Takt.
Ich denke mal wenn dann werden solche Optimierungen dazukommen welche das Splitten der Opterationen für bessere Auslastung der Shader ermöglichen.
An der Architektur an sich wird sich nichts weiter ändern, so ne einfache Erhöhung der Shader ist ja auch nicht ohne weiteres mehr möglich, also so wie es beispielsweise bei X1800 zu X1900 der Fall war mit den Shadereinheiten.

Es war eben nciht so beim Wechsel R520 zu R580. Die beiden Chips wurden getrennt nebeneinander entwickelt, d.h. Als der R520 stark verzögert erschien, war der R580 schon in Aussicht und im Zeitplan.
Es wurde also nicht der R520 genommen und nach RV530 prinzip mit mehr Shadern pro Pipe ausgestattet, sonder ein soclher Chip von Grund auf entwickelt.
 
Also von Grund auf eigenständig und ohne zutun des anderen Teams entwickelt wurden X1800 und X1900 mit Sicherheit nicht. Dafür gibt es zu viele Punkte die gleich sind.

Es mag vllt sein das ne X1900 nicht auf ne fertige X1800 aufsetzt, sondern irgendwo zwischen NULL und ner fertigen X1800, aber der Grundgedanke ist bei beiden Versionen gleich!

Beim R600 gibts aber ne potente Architektur, die nur um in aktuellen Anwendungen richtig zu Punkten arg viel Takt braucht, aber dafür in kommenden Anwendungen, wenn Vec2 und größer Anweisungen genutzt werden könnten sehr schnell nen Vorteil gegenüber NVs Produkt zu bekommen kann!
Durch die Architektur lässt sich eben mal nicht so einfach irgendwo noch was hinzufügen wo es dem vorhergehenden Modell gefehlt hat!
Ich denke mal ATI weis warum sie gerade zu der Architiktur gegriffen haben, vllt ist es wirklich so das kommende Titel auf Vec großer gleich 2 Anweisungen setzen und dann wäre ne R600 im Vorteil

Auch wenn ATI mit dem R600 mal nen Griff ins Klo erlangt und der R650 nur ne Verschlimmbesserung wird dann kann es mit der nächsten Gen wieder ganz anders aussehen.
Bei CB im 8800GTX Artikel steht was von Entwickelt seit 2002, ...
2002 hat mit 100%iger Sicherheit noch keiner von uns gedacht das es 2006 ne 8800GTX gibt, da waren alle erstaunt über ne GF3 oder 4 oder was da gerade aktuell war! Auch Konkurent ATI wusste wohl nicht im Ansatz, was da im ofen Schmort, somit ist es wohl immer Recht viel Glück für ATI gewesen das die Produkte am Ende irgendwie immer fast gleich auf lagen. Wenns halt mit einer Gen. mal nicht klappt, siehe GF FX oder halt wohl derzeit der R600 dann ist es halt so, dafür wird die Nachfolge Gen. bestimmt um so besser!
 
Zuletzt bearbeitet:
Naja wäre ja eigentlich ein gutes Ergibniss , endlich mal etwas mit einer Durchschnitts Cpu... Das Ergebniss würde mir reichen für nen Schwenk.. wenn der Idle Verbrauch noch passt bzw nicht höher als bei Nvidia ist.
 
Neja abwarten was in Games raus kommt, wie wir ja alle Wissen ist 3DMark nicht sonderlich aussagekräftig was Gameleistung angeht!
 
Dann frag ich mich warum sich der Rest mit seinen G80 Karten immer an ihren 3D Mark Ergebnissen so aufgeilen... :)

Im Augenblick ist das was verglichen wird und das Ergebniss schaut mal nicht schlecht aus...
 
die preisangabe zur XL ist im link quatsch
die haben einfach umgerechnet ohne steuer und europa-spezial-zuschlag zu beachten

gruß klasse
 
scheiß auf bensches aus dem netz.....
ich will nen vorOrt test!
Hardwareluxx / Chip / Pcgames Hardware /
irgendwas... die müßten doch am 14. eine schon bekommen oder??

grüße
 
Zuletzt bearbeitet:
@darklogic
die haben schon ziemlich sicher jeder eine R600XT zur hand und die benches sind bestimmt auch schon fertig
sollte nicht noch ein neuer treiber bis zum release kommen, brauchen sie die benches nur öffentlich machen
sie dürfen es eben nicht und zum NDA zählt auch sowas wie release-termine

gruß klasse
 
Hört mall bitte auf die Score schönzureden.10000 3dmark 06 punkte sind schlecht!!!!!!!!!

Egal wenn ich die Karte habe werde ich seh auf 1000/1100 laufen lassen und schlage so jede Karte die es aufdenn Markt gibt.;)

Dann gibts 1600/1200 24aa 16 af Flüssig Action weil Bandbreite ja da ist.:shoot:

Ah ne Braucht ja füllrate oder?
 
Zuletzt bearbeitet:
Hört mall bitte auf die Score schönzureden.10000 3dmark 06 punkte sind schlecht!!!!!!!!!

Egal wenn ich die Karte habe werde ich seh auf 1000/1100 laufen lassen und schlage so jede Karte die es aufdenn Markt gibt.;)

Dann gibts 1600/1200 24aa 16 af Flüssig Action weil Bandbreite ja da ist.:shoot:

Ah ne Braucht ja füllrate oder?

OMG:wall: Deine Bandbreite wird dir nicht viel bringen bei solchen Einstellungen. Hast du schon mal aktuelle Spiele gespielt wie Stalker,G3,Oblivion usw? Nein,also sei ruhig. Und es gibt keinen 24xAA Modus !
 
OMG:wall: Deine Bandbreite wird dir nicht viel bringen bei solchen Einstellungen. Hast du schon mal aktuelle Spiele gespielt wie Stalker,G3,Oblivion usw? Nein,also sei ruhig. Und es gibt keinen 24xAA Modus !

Ach spammer ist wieder da.:lol: Ich weis erstens das man bei G3 garkein AA aktivieren kann.zweitens weist du genau so wenig wie ich wie gut die neue Ati Karte mit AA performt.

Und zu guter letzt::shot: Es wird ein 24 AA Modus geben inlusive :shot: Blur :shot: Deswegen kann man auch hoffentlich mit guter performance Rechnen.
 
OMG:wall: Deine Bandbreite wird dir nicht viel bringen bei solchen Einstellungen. Hast du schon mal aktuelle Spiele gespielt wie Stalker,G3,Oblivion usw? Nein,also sei ruhig. Und es gibt keinen 24xAA Modus !

Wird es bei ATI geben 24xAA.

BTW: Fudzilla ist aufgefallen dass das ASUS P35 in Taiwan im Handel ist ^^ In Deutschland kann man es schon seit über einer Woche kaufen, siehe www.ocworkbase.com wo es Webwilli hat.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh