ATi R600/RV6xx *Infothread* (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
er war trotzdem kein glanzstück in Nvidias geschichte und was DX9 anging war er gegen den R300 machtlos.
 
Du meinst wohl NV30, denn der NV35 aka FX5900/U war kein derartiges Debakel...


Nein das war absichtlich gewählt, da der Nv35 noch einigermaßen gegen den R300 bestehen konnte und weil er schon ein Refresh war. Wie es ausssieht hat man noch sehr viel am R600 gearbeitet, deswegen hab ich den NV35-Vergleich herangezogen.

mfg Nakai
 

hmm..

GTX -> 128
GTS -> 96
R600 -> 320

Ich vermute mal das die GTX/GTS durch den wesentlich schnelleren Takt
wiederum aufhohlt - aber nach den Zahlen zu urteilen sollte der R600 doch wesentlich mehr Rohleistung mitbringen...?!

Liegt es am Ende daran das die Rohleistung eventuell noch gar nicht benützt wird? Ansonsten muss ja irgendwo noch ein Flaschenhals vorhanden sein oder?

Jungs nicht falsch verstehen - ich versuch hier nicht auf biegen und brechen eine Entschuldigung für die "unerwartet normale" Leistung zu suchen - mich interessiert einfach die Technik dahinter.

Gruß

Simon
 
@Sephirot

Tja da hat sich Nvidia verrechnet, für mich ist die FX Serie trotzdem meine absolute Lieblingsserie von Nvidia. Hatte mit ner FX5950 Ultra sogar FarCry durchgezockt und es lief sogar recht gut.

@Nakai,

nur dass eben der NV35 eher dem R580 gleicht, schnell nachgeschoben, Vorgänger ein verspäteter Chip. R600=R580=NV30, das passt.

Ewig lange nicht erschienen, gehyped ohne Ende, am Ende Ernüchterung, wobei man die XTX erst abwarten sollte ;)
 
Tja da hat sich Nvidia verrechnet, für mich ist die FX Serie trotzdem meine absolute Lieblingsserie von Nvidia. Hatte mit ner FX5950 Ultra sogar FarCry durchgezockt und es lief sogar recht gut.

Stimmt, ich war mit dem normalen 5900U auch sehr zufrieden und mit den ersten treibern gab ein astreines AF.
 
@SimonSambuca:

GTX: 128 US oder 160 SP
XT: 64 US oder 320 SP
 
Oo
also nach Nakai, jemanden dem ich mehr glaube was das innere angeht, liegst du falsch
 
hmm..

GTX -> 128
GTS -> 96
R600 -> 320

Ich vermute mal das die GTX/GTS durch den wesentlich schnelleren Takt
wiederum aufhohlt - aber nach den Zahlen zu urteilen sollte der R600 doch wesentlich mehr Rohleistung mitbringen...?!

Liegt es am Ende daran das die Rohleistung eventuell noch gar nicht benützt wird? Ansonsten muss ja irgendwo noch ein Flaschenhals vorhanden sein oder?

Jungs nicht falsch verstehen - ich versuch hier nicht auf biegen und brechen eine Entschuldigung für die "unerwartet normale" Leistung zu suchen - mich interessiert einfach die Technik dahinter.

Gruß

Simon


vec5 und gtx skalar prozzesoren arbeiten ganz unterschiedlich.
die 320 einheiten sind eine theorethische zahl bei voller auslastung. nur wenn das programm sauberst programmiert ist können die 64 einheiten 5 operationen gleichzeitig abarbieten.
da wird der r600 "abrocken"
würden man einzeln unabhängige werte haben sähe das verhältnis genau umgekehrt aus.
64 x 750mhz gegen 128 x1350 mhz.alles in allem sehr unterschiedliche ansätze.
 
Zuletzt bearbeitet:
außerdem ist die XT gegen die GTS angetreten und nicht gegen die GTX

gruß klasse

ich glaube fast, weil sie unbedingt einen sig gegen eine g80 haben wolten und die GTX hätte die XT ein paar mal übertumpft, nehme ich einmal an!
bin mal gespannt, wie laut sie wird und wieviel strom sie frisst
 
Die macht sich doch schon ganz gut! Weiß garnicht was hier wieder gemeckert wird.:)
 
finde die leistung auch sehr gut, nv hatte über dies ja auch schon 6monate zeit zur treiber optimierung..die sie leider nicht vernünftig genutzt haben ..seufs1
 
ich würde einfach mal den ganzen Tests die man hier so größtenteils im inet findet kein Glauben schenken weil man nicht zu 100% weiss wie viel davon nun fake und wie viel nun wahr ist. Man kann schon ein bisschen erahnen wie die XT und die XTX sich so im groben verhalten werden, aber mehr auch nicht. Da hilf einfach nur abwarten und ganz ruhig bleiben. ;)


bei den cpu`s legt amd imho auch eher drauf.hängt sicher auch davon ab wie wichtig einem die marktanteile oder eine generell starke präsenz am markt ist.
kurze hohe gewinne ein zu fahren ist vielleicht auch nicht immer der goldene weg;)
ich denke das die gtx einfach zu einer "besseren" zeit gekommen ist.
es gab viele spiele die nicht mehr flüssig auf großen lcd`s liefen + weihnachten + winter aufrüstzeit.momentan sind sicher viele mit einer gtx eingedeckt und glücklich sicher auch viele die von ati gekommen sind, weil sie nicht mehr abwarten konnten.
die ocer und co jetzt wieder ins boot zu holen, die die foren hier am leben halten dürfte ein nicht zu unterschätzender faktor sein.weil wir die jenigen sind die man in der familie zu rat zieht oder denen man sagt stell mir mal nen rechner zusammen....ein produkt über das nicht geredet wird ist "tod2...
sicher war nVidia zur richtigen Zeit da und hat seine Kunden mit der 8800er beliefert und dabei noch ein bisschen verdient. Aber wenn der R600, denke da besonders an die XT so schön günstig wird, dann könnte es schon ein bisschen schwer werden für nVidia die gewonnen Marktanteile bzw. die Kunden zu halten. Oder die bringen den G90 schneller raus als erwartet, was sehr unwahrscheinlich ist. Aber den großen brocken machen die nicht mit den Leuten wie uns, die anderen aus der Familie und dem Freundeskreis ein PC mit einer nV oder AMD/ATI Karte zusammenstellen. Das meisste Geld wird mit den Mainstream Karten gemacht...

und in Bezug auf den Vorlauf den nVidia bis jetzt hatte: ich bin davon überzeugt, wenn nVidia mehr Zeit und Geld ind die Entwicklung des G80 gesteckt hätte, dann wäre er zwar später herausgekommen, aber dafür hätt er noch mehr Leistung gehabt. Auch in Sachen Treiber wäre da mehr drin gewesen. Von daher ist es schon okay was ATI da getan hat.
 
Zuletzt bearbeitet:
Oo
also nach Nakai, jemanden dem ich mehr glaube was das innere angeht, liegst du falsch

Der R600 hat nur 64 Unified Shader, jedoch fettere als der G80. Der G80 hat 128 kleine Shader, welche aber gut auslastbar sind, zudem sind sie höher getaktet.

So kann man das ungefähr sehen.

mfg Nakai
 
so muss mal wieder Losposten!

hab nochmal über das Shader verhältniss nachgedacht, 320 vs. 96 ( 2900xt / 8800GTS ) was wenn die ATI karten in DX9 gerade so mithalten mit den Top karten, aber wenn dann DX10 da ist ( für das diese ja auch entwickelt wurden ) und alle 320 Shader voll ausgelastet sind, kann es nicht doch sein, das dann die ATI karten voll abgehen, und die NVidia aufgrund der wenigen DX10 Shader dann voll abloosen ?
Nur mal so ein gedanke von mir !


so hatte ich auch schon gedacht, wurde aber dafür zerissen !
 
Der R600 hat 64 5D-Shader, d.h.: 5 x 64 = 320.
Diese 320 kann man nicht als Shader sehen, sondern eher als die Zahl der ausführbaren Instruktionen. Wenn es nur 64 Vec5-Shader sind, dann kann der R600 pro Takt nur 64 skalare Befehle durchführen, der G80 kann 128 ist aber noch höher getaktet. Klingt ziemlich schwach, jedoch bei Vec2-Ops, kann der der R600 immernoch 64 durchführen, ebenso der G80, welcher immernoch höher getaktet ist.
Ab Vec3-Ops sollte der R600 dem G80 deutlich überlegen sein. Hier kann der R600 mit den spekulativen 64 Vec5-Shader auch 64 Vec3 Befehle durchführen, der G80 schafft hier nur 48, ist aber immernoch höher getaktet. usw.

Man sieht es, der R600 konnte mit nur 64 Vec5-Shader niemals den G80 schlagen, daher werden diese Vec5-Shader noch gesplittet. Erste Spekus meinten 4+1, theoretisch wäre auch 2+2+1 oder 3+1+1. Der R600 wird mindestens in 2 Co-Issues pro Takt durchführen können, ich sehe sogar 3 als möglich.
Nehmen wir mal den Fall der Splittung von 3+2 und 4+1. Bei skalaren Ops liegt der R600 mit 128 Befehlen relativ gleichauf mit dem G80, welcher immernoch höher getaktet ist. Bei Vec2 wird dann der G80 in die Knie gezwungen. Dieser kann nur 64 durchführen, der R600 dagegen 128.
Bei Vec3 wäre der R600 wieder gleich auf. Wenn es nun zu Vec3 und Vec2 kommt, könnte sich der R600 theoretisch zu 3+2 splitten und 64 Vec3+Vec2-Ops durchführen, der G80 nur 25,6 pro Takt.
Für Vec4 splittet sich der R600 zu 4+1 und kann noch eine skalare Op durchführen. Hier wieder das gleiche, der R600 ist schneller.


Nur das Problem ist, dass Ops die höher als Skalare sind noch nicht so oft benutzt werden. Sicherlich sind Vertex und Geoberechnungen 4D und da kann der R600 punkten.

mfg Nakai
 
@nakai

aber es ist nich sicher das es 64vec5 shader sind oder doch?

ich mein damit würden die sich dann ja selber ins fleisch schneiden, du sagst ja selber heutzutage liegt man mit 128skalaren shadern besser......und bis spiele kommen wo der r600 seine vec5 shader ausnützen kann, behaupte ich mal, dauert es noch eine weile, oder liege ich da falsch?

ist es überhaupt sicher das die shader beim r600 nicht eventuell auch höher getaktet sind, wie beim g80?
 
@hardwarekenner

erkennste deinen eigenen Namen nich mehr oder riecht das nach Doppelacc ;)

Gibt es irgendwo mehr Infos zum Releasedatum der HD2900XTX? fudzilla sagt ja, evtl. Mai oder auch bisschen verspätet?
 
Nach einigen Leuten im 3DC sind Vec2-Ops im kommen, Vec3 und Vec4 werden auch schon benutzt. Ein Vec5-Shader kann Befehle Befehle bis zu Vec5 in einem Takt erledigen, jedoch werden nie nur Vec5-Ops benutzt, sondern mit anderen Operationen gemischt. Deswegen splittet man, um die Auslastung zu verbessern.

mfg Nakai

€: Vll wollte Harwarekenner nur seinen Beitrag nochmal hervorholen um seine Idee nochmal allen zu zeigen?
 
Zuletzt bearbeitet:
Bisher deutet vieles darauf hin, dass die HD 2900 XTX gleichzeitig mit der HD 2900 XT gelaunched wird. Jedoch in geringen Stückzahlen.

Na toll, was nutzt das bitte? ATI will sich wohl nicht einreden lassen, dass sie nicht einen wirklichen Hardlaunch hinkriegen:wall: ...

Die XTX wird dann am Anfang ziemlich überteuert sein, da sehr geringe Stückzahlen^^, oder doch nicht?

Dann werden sich wohl hier einige um die XTX schlagen werden:shot: .......
 
Genauso mit der Geforce 8800Ultra.

mfg Nakai

Welcher Freak bitte kauft sich schon eine 8800Ultra für ca.
1000$ ?:wall: .

Da kann man selber versuchen zu übertakten, oder gleich auf SLI zu setzen.....^^

Sollte die XTX nicht angeblich 499$ kosten?
 
Danke nakai für diese gute beschreibung :bigok:

Welcher Freak bitte kauft sich schon eine 8800Ultra für ca.
1000$ ? .

das sind doch nur gerüchte :rolleyes:
 
Danke nakai für diese gute beschreibung :bigok:



das sind doch nur gerüchte :rolleyes:

naja, hatte Dell nicht mal ein PC mit 8800Ultra als Angebot?
So sind die Spezifikationen schon eher sicherer als die vom XT/XTX^^ xD

Aber elbst wenn die nicht 1000$ kostet, sondern "nur" 600$+
Die ist das Geld nicht wert und dient nur dem Kampf um die Performancekrone´.
 
Dell hatte auch mal eine 6800 GTO im angebot. und das war auch keine richtige kartem genauso wie es von Medion eigene Karten bezeichnugen gab.

Die von dell angegegben daten waren eher eine leicht übertaktete GTX als das sie den namen Ultra verdienen würde.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh