ATi R600/RV6xx *Infothread* (Part 3)

Status
Für weitere Antworten geschlossen.
mal ne frage, is die nda für die japaner nicht schon früher beendet? ^^ weil di ehaben doch vor uns den 14.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
kann sein, aber ati hat seinen sitz in kanada (oder?) und von daher wärs auch möglich dass diese zeitzone gemeint ist ^^
 
mal ne frage, is die nda für die japaner nicht schon früher beendet? ^^ weil di ehaben doch vor uns den 14.


Gilt für alle gleich normalerweise. Aber meistens hat die ein oder andere asiatische Seite ihr review schon ein paar Stunden vorher online. Ansonsten müsste wie immer das NDA 15:00 Uhr fallen nach unserer Zeit.
 
Nur das der G80 in Dx10 so schwer abloost. Kein Wunder das alle DX10-Spielenetwickler auf ATI umschwenken.


mfg Nakai

quelle ? denn meines wissens nach, werden die meisten dx10 spiele momentan alle mit g80 programmiert (zumindest die bald erscheinenden : lost planet , crysis etc.)
 
Wenn die ersten vollwertigen DX10 Spiele kommen, dann sind wir bestimmt schon 1-2 Graka Generationen weiter und deswegen ist es derzeit wohl ziemlich uninteressant, wie die Karten bei DX10 performen oder sehe ich das falsch?
 
NDA endet wohl montag um 15.00uhr unserer zeit, so wurde das vor ein paar tagen mal verbreitet.
na klar werden die seiten nicht alle exakt um 15.00uhr ihre test online stellen, aber in dem zeitbereich herum wird es sich bewegen.

gruß klasse

EDIT:
quelle ? denn meines wissens nach, werden die meisten dx10 spiele momentan alle mit g80 programmiert (zumindest die bald erscheinenden : lost planet , crysis etc.)
na klar mit dem G80, da es die stärkste karte ist und sie DX10 schon kann
trotzdem werden diese spiele auch auf weiteren karten gut laufen, die entwicklungskosten sollen ja schließlich wieder rein kommen

gruß klasse
 
Zuletzt bearbeitet:
@Nakai

DU sagst es wirklich so wie es ist.:)
Der R600 ist ein viel besserer Chip als er momenatn vermuten lässt. Auch der G80 ist gut, aber er ist nicht ein "reiner" D3D10 Chip, im Gegensatz zum R600. Etwas schlecht formuliert, aber der R600 ist mehr ein D3D10 Chip als für DX9 gedacht.
Wundere mich nur warum ATI so massive Probleme mit den Treibern hat, ein Grund der Verschiebung sollten ja uch Problem mit den Treibern gewesen sein,-.. und nun erneut dies.:wall: :o
Hoffen wir mal dass der eine oder andere sein Review morgen "umschreibt" bzw. gar nachbencht, oder einigen schon der 8.38 Treiber zugesendet worden ist, um die Unterschiede deutich machen zu können.
Fakt wird sein dass der R600 bei kommenden D3D10 Games die Nase vorne wird haben, und da könnten die prophezeiten 40-60% durchaus stimmen.
Denn dieser Chip ist für die Zukunft gebaut, und weniger für jetzt.
Aber man behaltet ja eine Graka diese Größenordnung in der Regel 2 Jahre, oder mehr.
Das wollte ich nur mal gesagt haben.
 
NDA endet wohl montag um 15.00uhr unserer zeit, so wurde das vor ein paar tagen mal verbreitet.
na klar werden die seiten nicht alle exakt um 15.00uhr ihre test online stellen, aber in dem zeitbereich herum wird es sich bewegen.

gruß klasse

hmmm Habt ihr schon Deutsche Shops gefunden wo die karten zu Guten Preisen Bestellbar sind ? auser Conrad :hmm:
 
quelle ? denn meines wissens nach, werden die meisten dx10 spiele momentan alle mit g80 programmiert (zumindest die bald erscheinenden : lost planet , crysis etc.)

Zu mindestens Crysis wird auch auf dem R600 programmiert.
Worauf man sich aber freuen kann sind erste Vergleich zwischen G80 und R600 mit Lost Planet DX10. Da nVidia an der Entwicklung beteiligt war sollte das Spiel auf dem G80 schneller laufen. Wenn der R600 aber gleich schnell oder sogar schneller wäre wüssten wir woher der Wind weht :eek:
 
komisch komisch was amd/ati da verzapft, eine karte auf GTS niveau, allerdings mit dem Stromverbrauch der fast die GTX übertrumpft oder es sogar tut.

nene das der R600 ist ein schuss in den Ofen.

Man kann nur auf die nächste Generation hoffen wo dann vielleicht die synerieeffekte mit AMD greifen und hoffentlich endlich der name "ATI" verschwindet.

In den 10 Jahren wo ich nun Professionell mit Computern arbeite hat es ATI noch nie geschafft gute Treiber für alternative Plattformen (linux z.B.) zu bauen.

Unf fals jemand mit Fanboy kommt.. ich nehm das was das schnellste und stromsparenste ist.

Mein Persönlicher Favorit wäre immernoch Matrox. Auf den nächsten Hammer von denen warte ich noch. Wünscht mir wieder son Brett wie damals der G400 MAX...
 
Leider wird es von der Awafab morgen kein Review geben. Sie haben sich, auf Grund der großen Unterschiede zwischen den letzten Treibern. entschieden min. den 8.38er abzuwarten. Die wollen einfach kein Review erstellen das nach 2 Tagen seine Gültigkeit verloren hat.
 
Leider wird es von der Awafab morgen kein Review geben. Sie haben sich, auf Grund der großen Unterschiede zwischen den letzten Treibern. entschieden min. den 8.38er abzuwarten. Die wollen einfach kein Review erstellen das nach 2 Tagen seine Gültigkeit verloren hat.


Schade aber vorbildlich, es zeugt von der Qualität der Seite!
 
wieso er hat doch recht. Die Shader sind beim R600 auf D3D10 ausgelegt, was beim G80 nicht so der Fall ist. Deswegen kann man auch sagen, das der R600 ehr ein D3D10 ist als D3D9.

Und dann natürlich die Frage, ist es denn gut, dass ne jetzige Graka nur in DX10 richtig schnell ist? Ich denke nicht....

Und aufm Papier ist das Meiste eher unwichtig...das werden wir ja dann alles sehen :)
 
Zuletzt bearbeitet:
Sehe ich auch so, und Nakai hat schon recht.
Und wenn der R600 nicht sooo schnell in DX9 ist reicht die Leistung aber dicke bis 1680x1050.
O.K: ca.40Watt mehr als die GTX ist nich wenig aber wer zockt den 24/7
:)
 
Die Shader sind beim R600 auf D3D10 ausgelegt, was beim G80 nicht so der Fall ist

was auch total quatsch ist.

Haben sie auch nötig, nachdem sie sich lächerlich gemacht haben als sie w0mbats livepoints-scherz für voll genommen haben

lächerlich würde ich nicht sagen. Eher vorsichtig.
 
Zuletzt bearbeitet:
Und dann natürlich die Frage, ist das denn gut, das ne jetzige Graka nur in DX10 richtig schnell ist? Ich denke nicht....

Und aufm Papier ist das Meiste eher unwichtig...das werden wir ja dann alles sehen :)

ja sicher ist das fragwürdig, da gegen sage ich ja auch nichts.
Ich finde es ja selber ein bisschen schlecht für ATI, das sie nicht richtig mithalten können.

Aber eigentlich ist die Karte ja garnicht so schlecht. Sie reicht völlig aus um alle aktuellen Spiele auf High End (AA/AF) flüssig zu spielen und das reicht doch völlig aus. Es ist doch egal wieviel Frames man hat, solange die Karte alles in High End (AA/AF), ohne Framedrops, flüssig darstellen kann.

Aber ich glaube den meisten kommt es ehr auf den typischen Schwanzvergleich an, um zu sagen ich hab so und soviel Frames mehr.
Hinzugefügter Post:
was auch total quatsch ist.

das ist kein Quatsch. Die Shaderunits sind anderes angeordnet als sonst, um sie auf D3D10 zu optimieren.
 
Zuletzt bearbeitet:
@Lord_Bender: Das hätte ich gern mal genauer erklärt. Wie ordnest du Shader-Units für eine DX-Version an?

Und Awafab, eine Seite mit Qualität? Sorry, aber wenn ich die Reviews lese, wird mir aufgrund von Rechtschreibung und Grammatik regelmäßig schlecht. Sowas kann und darf nicht sein. Auf mich wirkt das Ganze nicht wie eine professionelle Hardwareseite, sondern wie ein Hobbyverein - aber das ist sicher nur meine Meinung.
 
es handelt sich einfach um 2 verschiene ansätze. zu sagen das sehr effiziente G80 kein richtiger DX10 chip sei, ist schwachsinn
 
@Lord_Bender: Das hätte ich gern mal genauer erklärt. Wie ordnest du Shader-Units für eine DX-Version an?

Der R600 hat sehr große Shader(5D), ideal für Vertex und Geometrieberechnungen.
Der G80 hat 128 1D-Shader. Er berechnet immer für 8 solcher Shader(Vec8) eine Komponente, also es können immer 8 gleiche Berechnungen am Stück durchgeführt werden.
Also es werden 8 Vec3-Berechnungen in 3 Takten pro Vec8-Shaderblock ausgespuckt.
Insgesamt macht das, wenn man jetzt von 128 Vec3-Berechnungen ausgeht, in 3 Takten 128 Vec3-Ergebnisse.
Der R600 schafft in 3 Takten 192 solcher Berechnungen.
Der G80 ist aber höher getaktet.

Nehmen wir jetzt Vec5 oder 4+1-Shader.
Der G80 kann in 5 Takten 128 solcher Berechnungen ausspucken, der R600 sogar 320.

Umso komplexer die Berechnungen werden, desto stärker ist der R600. Jedoch fehlt dem R600 einiges, nämlich Füllrate...

Dx10-Wert!

Der R600 ist nach den DX10-Werten immer etwa 80% oder mehr schneller als der G80...^^

mfg Nakai
 
@Supermax2003 Andere Frage: Was ist daran nucht gut???


Haben sie auch nötig, nachdem sie sich lächerlich gemacht haben als sie w0mbats livepoints-scherz für voll genommen haben ;)



gar nix von mitbekommen..

Und die Community dort ist einfach klasse.. nunja, ich hör wohl lieber auf zu schwärmen :xmas:
 
Wer einen solch offensichtlichen Scherz nicht erkennt und auch noch nutzt um einen user zu denunzieren macht sich mehr als lächerlich
Fehler können immer passieren.

Der R600 ist nach den DX10-Werten immer etwa 80% oder mehr schneller als der G80...^^

aber wie du schon sagst, es fehlt füllrate und das nicht zu knapp
 
@Nakai: Das weiß ich alles selber, und das solltest du auch mitbekommen haben. Das hat aber wenig mit "Anordnung" der Shader zu tun, sondern mit dem Aufbau. Sollte Lord_Bender das gemeint haben, dann okay.

Ich warte jetzt ähnlich wie w0mbat vor allem auf nVidias DX10-Versuch nächste Woche.
 
Die Füllrate wird durch die nur 16 bi TMUs begrenzt(richtig?), ist das noch Gerücht oder schon bestätigt?

@Lord Also mit Usern die nicht so hohes Verständnis haben wie du(oder einfach nicht so belesen sind) muss man doch keine Haare spalten oder?

Fehler können immer passieren.
Nein, in dieser Form auf keinen Fall!
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh