Ati R520 (2)

Status
Für weitere Antworten geschlossen.
sind eigentlich 2 6800GT im SLI in jedem fall schneller als eine X850XT-PE oder evtl 7800GT ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ja logisch !

Klicke mal auf meine Signatur ... die Benchmarkwerte sind noch vom 6800GT @ Sli System.

Allerdings brauchst Du da auch wiederum nicht so genau drauf schauen , weil SLI hat eigentlich mit Benchmarks @ 1024x768 und wenig bis kein Filtern ala 3D Murks und AM3 keinen Sinn , da limitierst Du die CPU und siehst die stärke vom Sli System nur wenig.

Sli macht nur Sinn wenn man ein BEDEUTEND ausgeglicheneres Spielgefühl haben will (Slowdownes nicht vorhanden) , und auf Bildqualität im perfekten Sinne setzt.
Und natürlich HDR & PS 3.0 ohne Verzicht auf irgendetwas nutzen will.

Sli ist nicht dazu da die Frames in den Spitzenbereich zu treiben , sondern die Mindestframes hochzuhalten , nen gutes Bild zu haben , die neuesten Features zu nutzen.

Wer Sli sinnvoll nutzt , limitiert auch nicht InGame die CPU , so wie es gerne von Anti-Usern dargestellt wird.

Wer Sli nutzt kann sich heutzutage eigentlich nur selber freuen , das P/L Verhälltnis ist natürlich nicht gegeben , aber Vorsicht Suchtgefahr , wers hatte und länger drauf gezocct hat , geht kein Stück mehr zurück ;o)

Gruss Koyote008
 
mindfaq schrieb:
@sklave_gottes:
Der SM3-Modus vieler Spiele ist nur langsamer, da hier meist sehr aufwendige Effekte realisiert werden, die im SM2.0 Modus überhaupt nicht vorhanden sind.

Wenn man in beiden Modi die gleichen Effekte hätte, könnte SM3 sogar deutlich schneller sein.

Das nur mal zur allgemeinen Ansicht, dass Shadermodel 3 immer viel Leistung braucht.

Ansonsten hast du natürlich Recht. HDR-Rendering mit einer 6600GT macht keinen Spaß.
Öhm welche Effekte meinst Du? Es gibt von der optischen Seite keine verbesserungen! Effekte sind in SC:CT einfacher mit SM3.0 zu realisieren sind als mit SM2.0, mehr nicht.....man bekommt die gleichen Effekte auch mit PS2.0, ist halt nicht so leicht zu programmieren.....Eigenschaften wie eine größere Programmlänge und Sprungverzweigungen vereinfachen die Shaderentwicklung und kann sich positiv auf die Leistung auswirken. Also kurz, PS3.0 bringt eher Performance....


Also das neue HDR Update von HL2/CSS gefällt:love:
Die HDR Effekte sehen auf einer Nvidia wiederum um einiges besser aus wie auf einer "alten" ATI....
 
Zuletzt bearbeitet:
@ Tectrex

Jo mir gefällt das HDR bei der HL2 Reihe auch total , ich werde gierig weiter schnüffeln in den Maps.

Boah ich bin verliebt in den Scheiss ;o)

Greetz Koyote008
 
Dito, ich versteh auch net wie manche HDR einfach abtun. Jedes Game Video und jeder Screenshot von HDR Games hat mich immer umgehauen. Und mittlerweile unterstützen das echt viele Games .. e.g. FEAR, FC, HL², Brothers in arms 2, NFS:MW und viele künftige Titel.

Was mich nur mal interessiert: 16bit pro Farbkanal = 64 bit .. wieso denn das? Hat jede GPU nur vier Farbkanäle oder wie kommt das? Das ab 16bit HDR als echtes HDR bezeichnet wird wusste ich, allerdings net das mit den 4 Farbkanälen. :hmm:

Ist eigentlich bekannt ob der ATi Chip in der xBox360 HDR 32bit unterstützt? Wär ja klasse wenn der R520 auch 32bit unterstützt. :love:

Ich hab mal bei der BIA2 Demo mit meiner 98Pro das HDR angeschaltet, ich hab fast nix davon gemerkt und die Performance stieg aber nur ein paar fps nach unten.

Also dass SM3 gegenüber SM2 die Performance eher verbessert ist eigentlich logisch, trotzdem berichten viele GF6 User dass die Performance e.g. bei SCCT mit SM3 viel schlechter ist aber es auch viel besser aussieht. Das liegt eben wiederrum daran, dass man mit SM3 viel mehr machen kann und somit wieder viel mehr Effekte berechnet werden müssen.
 
Zuletzt bearbeitet:
m_tree schrieb:
Also dass SM3 gegenüber SM2 die Performance eher verbessert ist eigentlich logisch, trotzdem berichten viele GF6 User dass die Performance e.g. bei SCCT mit SM3 viel schlechter ist aber es auch viel besser aussieht. Das liegt eben wiederrum daran, dass man mit SM3 viel mehr machen kann und somit wieder viel mehr Effekte berechnet werden müssen.
Das kann man auch bei FarCry mit HDR und ner 66gt sehen. Die Framerate geht schon ganz schön runter, aber dafür siehts halt auch dann hammer aus! :love:
 
hayato schrieb:
Das kann man auch bei FarCry mit HDR und ner 66gt sehen. Die Framerate geht schon ganz schön runter, aber dafür siehts halt auch dann hammer aus! :love:
Es ging nicht um HDR, sondern um SM3. HDR ist kein Shader und kann daher nicht beeinflussen wie effektiv oder wieviele Effekte berechnet werden, sondern HDR zieht halt durchweg Performance.
 
m_tree schrieb:
Also dass SM3 gegenüber SM2 die Performance eher verbessert ist eigentlich logisch, trotzdem berichten viele GF6 User dass die Performance e.g. bei SCCT mit SM3 viel schlechter ist aber es auch viel besser aussieht. Das liegt eben wiederrum daran, dass man mit SM3 viel mehr machen kann und somit wieder viel mehr Effekte berechnet werden müssen.
Wurde in der aktl. PCGH getestet, es gibt ohne HDR keine Unterschiede gegenüber SM2.0, das einzigste was festgestellt wurde, das die Lichteffekte auch ohne HDR etwas heller sind, aber nur mimimal....ich kenne auch einige, die behaupteten, das es neue Effekte gibt, nach nen Bildvergleich sahen sie das anders...

Edit:
RV515 aka x1300
http://www.coolaler.com/ipb/index.php?showtopic=67545&st=0
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3510943#post3510943

@Koyote008

Mir gehts genau so, kann garnicht genug davon bekommen:love:
Auch mit "nur" einer GT, läuft es mit HDR sehr gut...
 
Zuletzt bearbeitet:
Ich finde es schon beeindruckend wie gut sich einige mit den Fähigkeiten der Chips auskennen.

Ich schaue nur obs schnell ist und gut aussieht.

Was mich viel mehr interressiert ist der Aspeckt der nötigen Konkurenz.

Wenn es nur noch Intel ohne AMD und Nvidia ohne Ati geben würde müßten wir alles schlucken was die anbieten.

Ich kaufe z.B. nur AMDs wegen der Übermacht von Intel und weil AMD in Deutschland mehr Arbeitsplätze bietet.

Jetzt kommt noch hinzu, daß Intel ja wohl mafiamäßig Druck auf verschiedene Firmen ausgeübt hat keine AMD Chips zu kaufen.

Sowas unterstütze ich gar nicht und die Prozesse sind ja nun zum Glück am laufen.

Ich mache mir nur ein wenig Gedanken, ob das mit Ati nochwas wird.

Ich war eigentlich früher eher Atikäufer, doch von den letzten 4 Grakas waren zwangsweise 3 von Nvidia, da es einfach zum entsprechenden Zeitpunkt keine Alternativen von Ati gab.

Ati hat bei der PCI-AGP-Bridge ja schon arge Probleme gehabt und nun kommen die mit dem neuen Chip nicht zu rande.

Die genannten Daten (wenn sie denn stimmen) sind auch eher enttäuschend denn ich kann mir gar nicht vorstellen, daß der höhere Takt das weniger an Pixelpipelines überhaupt ausgleichen kann.

Wenn man noch die Boarderscheinungen von Nvidia miteinbezieht befürchte ich Nvidia ist momentan ganz schön im Vorteil.

Nicht das ich das denen nicht gönnen würde, aber es sollte wie oben geschrieben immer mehr als einen starken Anbieter geben.

Was meint ihr - kann Ati das noch aufholen, was Nvidia vorgelegt hat ?

DerHeimatlose
 
hm...wo sich der R515 wohl leistungsmäßig wiederfindet?
dürfte wohl so ein paar prozent über den x300ern liegen..

EDIT:gar net mal schlecht...das ding schafft:
ca. 2800 3D Marks 05
ca. 6300 3D Marks 03
ca. 19000 3D Marks 01

wurde mit nem 3000+@2,7GHZ venice erreicht! das 03er ergebnis ist besser als das meiner 9800pro!!!bei dem prozzi aber kein wunder!
leistungsmäßig dürfte die x1300pro wohl etwas über einer 9500pro bzw so gut wie eine 9700 non pro!
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
hayato schrieb:
:hmm: Etwas viel für ne 4P karte oder?

Mhm, denke ich auch - aber der Kern (allgemein) soll ja so super mit hohen Taktraten arbeiten und auch mit weniger Pipes ordenltich Leistung bringen.

Was für eine Version (Pro/LE) der X1300 das ist weiß man ja auch noch nicht. Aber ich tippe mal auf die Pro.

Oberteufel schrieb:
hab mich ja während des schreibens meines beitrages korrigiert!
aber besser als eine 9800pro OC ist er nicht ganz!!
der venice lief ja mit 2,7GHZ
und mein winni@2,5 schafft ja scho nen höheres 01er ergebnis!

Undank ist der Welten lohn ;) - hast Dir aber etwas Zeit gelassen mit dem Edit. Von daher hab ich mir vor dem Edit angmaßt das mal zu kommentieren.
 
Zuletzt bearbeitet:
Wenns schon gepostet wurde sry.
In addition to DirectX 9 Shader Model 3.0 support, the new GPUs are expected to support H.264 video decoding and feature a unified shader architecture. They are likely to clock "around 50 per cent higher than products manufactured on older processes", according to the joint statement with TSMC. ®
http://www.theregister.co.uk/2005/09/23/ati_r520_launch_date/
 
Zuletzt bearbeitet:
wenn man jetzt weiss wie stark die x1300pro ist,kann man ja auch auf die leistung eines R530 mutmaßen.... bin gespannt
 
hayato schrieb:
Das kann man auch bei FarCry mit HDR und ner 66gt sehen. Die Framerate geht schon ganz schön runter, aber dafür siehts halt auch dann hammer aus! :love:

Gehen ganz schön runter? Bei höchster HDR-Stufe hab ich selbst mit 2x6600GT nur noch 20 FPS gehabt...:heul:

Teilweise find ich es interessant, wie sich hier manche zerfleischen - ist sogar manchmal heftiger als zwischen VW- und Opel-Tunern. :rolleyes:
Seid doch lieber kritische Konsumenten, die darauf achten, das Beste für ihr Geld zu bekommen - egal von welcher Firma. Seid doch froh, wenn andere die Unzulänglichkeiten oder Fehler mancher Produkte aufdecken ohne gleich auszuflippen. Die Aussage :"Das kann gar nicht schlecht sein, das kommt schließlich von XY und die haben schon dieses und jenes tolle Produkt gebaut und das war auch ganz toll!" sind in meinen Augen blinder Kadavergehorsam einem Unternehmen gegenüber, dem ihr (entschuldigt den Ausdruck) scheißegal seid.
 
mindfaq schrieb:
Ein Bild besteht aber nicht ausschließlich aus Polygonkanten...
Supersampling macht das Bild viel ruhiger und unterdrückt Contentflimmern zu einem gewissen Teil.
Zusammengefasst verbessert es den Gesamteindruck eines Bildes erheblich.

Klar, die Performance ist nicht die beste, aber zumindest Half-Life 2 lässt sich mit einer GTX noch prima in 8xS spielen.
NV könnte einen schnelleren Modus oberhalb von 4xMS gut gebrauchen, da hast du ja Recht.
Aber du kannst nicht abstreiten, dass die Bildqualität im gesamten durch Supersampling stark zunimmt...

Das ist alles richtig was du da schreibst. Nur kostet SSAA auch extrem viel Leistung, aber trotzdem finde ich es toll.

ATI kann SSAA auch unterstützen, nur sie machens nicht. Unter Mac OS bieten sie den Modi an, warum nicht unter Windows? Keine Ahnung.
 
Der R530 wird vermutlich so schnell sein, wie 6800 GT/Ultra und bei Quali Einstellungen vielleicht sogar schneller!
 
Alleine von der Logik her, muss der R520 schneller sein, das erwartet man einfach, ales Andere wäre eine Entäuschung.

Wenn der R520 langsamer als der G70 sein sollte, was ich nicht glaube, dann kann man in der Tat mal ATI fragen, was sie solange gemacht haben.

Und wie effizient der R520 arbeitet, das wissen wir (bis auf Insider) eben auch noch nicht.

Und Pipeline ist nicht gleich Pipeline....
 
Große Unterschiede wird es eh nicht geben, endweder etwas langsamer oder etwas schneller.
Am ende ist es doch egal welche Karte man nimmt, das eine Game läuft auf der ATI besser andere wiederum auf der NVidia...
Ich denke mal, das wenn jemand zb ATI bevorzugt, sich auch die ATI nimmt wenn sie etwas langsamer ist, das gleiche gilt auch andersrum...
Edit:
Der Counter ist ja auch cool, stellt man seine Systemuhr zb auf den 04.Oktober ein zeigt der Counter auch nur noch ein paar Stunden an:haha:
 
Zuletzt bearbeitet:
@ Kimble

Deine Aussage ist voll zu unterstützen , und es wird auch so eintreten denke ich zumindest. 4 Monate ist ne lange Zeit , da muss man sich Leistungstechnisch einen kleinen Vorteil verschaffen , und von den Filter-Modi Möglichkeiten , mindestens gleich auf liegen. Mal Layout , Kühlung etc. weggelassen.

Die XT mit Dualslot Kühllösung , und die XL mit diesen riesigen PCB , ist ein Nachteil und A-Typisch für Ati.

@ Heimatloser

Ich glaube sorgen machen brauchste Dir noch nicht , zwar denke ich persönlich wenn man im High-End Bereich einmal versagt , kostet es schon Image , allerdings muss das schon 2x mal hintereinander passieren bis es sich in den "Mittelklassen" Bereich reinzieht der Käufergunst , im High-End Bereich fährt man Entwicklungstechnisch viel "Kohle" rein , aber weniger Verlust beim Umsatz.

Desweiteren siehst Du ja , das viele sich von Ihrem Glauben leiten lassen , bessere Bilder sehen wo keine sind , auf Features verzichten , abwohl diese wesentlich effektiver sind als beim gleichen Filtermodus , minimale Unterschiede zu haben ... etc.

Desweiteren denke und hoffe ich das ATi mit dem R520 doch Ende des Jahres , die beste Karte raushaut , so ist Nvidia einigermassen angehalten den G71 oder am liebsten den G80 rauszuschieben 1. HJ 2006.


Greetz Koyote008
 
also meine Meinung ist das ATI NV in Grund und Boden stampfen wird, warum verheimlicht ATI den sonst Benchmarkwerte
 
Jim Clark schrieb:
Gehen ganz schön runter? Bei höchster HDR-Stufe hab ich selbst mit 2x6600GT nur noch 20 FPS gehabt...:heul:
SLI bringt dir da auch nix, schon garnet mit 2*66GT. Im Idealfall hast du da 20% Leistungszuwachs. Da wirds mit ner 68GT oder halt 78GT schon ganz anders aussehen.

@Phillip
Es gibt keinen G70 mit 32 Pixelpipelines und 12 Vertexpipes. Der G70 hat insgesamt 32 Pipes, 8VPs und 24PPs. Der G70 auf der 78GT ist nur um 4 PPs und 1VP "kastriert" worden. Es müsste also schon ein anderer Chip, d.h. Refresh des G70 her, wenn 32PPs und 10 oder 12 VPs verbaut werden sollen. Und NV meinte ja, dass die geplante Ultra Variante, die wahrscheinlich diese Dimensionen hätte, gecancelt wurde.

Also wenn es wirklich stimmt, dass man mittlerweile mit 4 Pipes die gleiche Leistung wie mit 8 vor 2 Jahren (R350/360) erzielt, hat ATi aber schon nen ganzschönen Schritt nach vorn gemacht. Ich geh davon aus, dass die bisherigen Benchmarks des R520 wirklich nicht ernst zu nehmen sind, aus den bekannten Gründen. Bin gespannt wie's wird, wobei ich weiterhin plane den G70 @78GT zu kaufen, allein wegen dem guten Preis.

steni1975 schrieb:
also meine Meinung ist das ATI NV in Grund und Boden stampfen wird, warum verheimlicht ATI den sonst Benchmarkwerte
schonmal drüber nachgedacht, dass mit dem R520 einiges schief gelaufen ist - e.g. der geringe Ausbeute mit 24 Pipes usw. - und ATi deswegen keine große Klappe hatte bzw. es sich garnet erlauben könne, über die schlechte Ausbeute und Leistung schon im Vorfeld zu berichten?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh