ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
Meinst du, dass es auch bei Oblivon oder dem kommenden Crytek klappt? Da wird eher ein Next-Gen-Gespann herhalten müssen. Hmm... vllt. reichen da auch 2 x1950. Der Next-Gen-Gespann würde sogar den 3007WFP antreiben...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Nightspider
welche Graka/s hast du?

so ein fetter monitor macht sicher eine rießen atmosphäre, und wenn man super grakas hat die die spiele flüssig laufen lassen, dann sieht die grafik gleich gefühlsmäßig 10x besser aus.

Röhren Monitore und TFTs haben verschiedene nanchteile und vorteile, man muss nur selber wissen was man will.
 
Zuletzt bearbeitet:
eLw00d schrieb:
Sooo krass ist die Auflösung garnicht. Ne GX2 performt da noch ganz ordentlich.

Sind 3mio Pixel. Bei 4mio bekam meine GX2 Probleme.

btw: @ trice: Schau mal in deinen Such-thread und sag mal was dich an settings interessiert.

Also mich interesiert was den deutlichen efekt an AF ist? aa habt ihr ja nun bewiesen das es echt viel schöner ausieht! aber wo sieht man den unterschied bei AF?

auch ab auflösungen ab 1280

wäre net..

;)

mfg
 
Trice1001 schrieb:
Also mich interesiert was den deutlichen efekt an AF ist? aa habt ihr ja nun bewiesen das es echt viel schöner ausieht! aber wo sieht man den unterschied bei AF?

auch ab auflösungen ab 1280

wäre net..

;)

mfg
Ich verstehe die Fragen nicht so ganz:d aber bei AA werden die Kanten deutlich besser geglättet und bei AF fast gar nicht (liegt an den unterschiedlichen techniken, soll aber beides die kanten glätten)
 
Zuletzt bearbeitet:
also wirklich :)
mal n bild ohne AA und ohne AF
und danach mal ein bild ohne AA mit Full AF :)
 
Bud Spencer schrieb:
Und stell dir mal vor, du musst jedes Jahr neue Quad-Sli-Hardware kaufen, damit alles weiterhin läuft. Vllt. hat man Glück und kriegt einen vom :xmas:, aber so viel Glück hat nicht jeder ;)

Um den Wertverlust zu minimieren muss man zwangsläufig aufrüsten - so hat man immer das schnellste bei geringem Aufpreis, wenn man zu lange wartet hat man ein Fettes gespann das von einer neuen Karte weggebügelt wird.
 
Trice1001 schrieb:
Also mich interesiert was den deutlichen efekt an AF ist? aa habt ihr ja nun bewiesen das es echt viel schöner ausieht! aber wo sieht man den unterschied bei AF?

auch ab auflösungen ab 1280

wäre net..

;)

mfg

UND SAGT NICHT; ICH SOLL KEINE BILDER POSTEN ! *PRUST* :fresse:

>>>>>>>Nur zur Information<<<< Das war in den Bildern, bei AA immer transparentes AA.
Normalerweise werden die Zäune, bei Half Life 2 nicht mitgeglättet bei AA aber bei transp.AA werden sie geglättet !

AF macht die Texturen auf Entfernung schärfer.
Normalerweise tritt ein Verlust bei größeren Entfernungen auf aber mit AF kaum !

Hier Vergleichsshow: ^^

Gasse_1280_kein_AF

Gasse_1280_4AF

Gasse_1280_16AF


Straße_1280_kein_AF

Straße_1280_4AF

Straße_1280_16AF

Straße_2048_16AF

Straße_1920*1080__16AF_Widescreen


Und für die WIDSCREEN-FANS's:

Panorama_1920-1080_kein_AF

Panorama_1920-1080_16AF


Liebe Grüße, Spinne.
 
Zuletzt bearbeitet:
Anarchy schrieb:
Um den Wertverlust zu minimieren muss man zwangsläufig aufrüsten - so hat man immer das schnellste bei geringem Aufpreis, wenn man zu lange wartet hat man ein Fettes gespann das von einer neuen Karte weggebügelt wird.

Ja, habe ich mal gemacht. Man muss aber in Kauf nehmen, dass man jedes Halbjahr, wohl eher 3/4 Jahr, immer "etwas", ~ 200 Euro, raufzahlt.
 
Zuletzt bearbeitet:
bei 4 AF und 16 AF ist kein unterschied bei den oberen bildern
 
Das stimme ich zu. Da muss man sich mal fragen, ob 16xAA überhaupt was nützt außer Performance zu fressen.
Die 2000er Auflösungen sind imo viel schöner. Man, da verpasse ich was.
 
Zuletzt bearbeitet:
Okay danke für deine Mühe aber da sieht man ja mal KEIN unterschied!

Bud Spencer schrieb:
Das stimme ich zu. Da muss man sich mal fragen, ob 16xAA überhaupt was nützt außer Performance zu fressen.
Die 2000er Auflösungen sind imo viel schöner. Man, da verpasse ich was.


Und das wäre das Nächste was ich Gefragt hätte ;)
 
Zuletzt bearbeitet:
wenn ich 0 und 16AF vergleich kann ich auch drauf verzichten! da geht mir keiner von AB
 
Trice1001 schrieb:
Okay danke für deine Mühe aber da sieht man ja mal KEIN unterschied!


Und das wäre das Nächste was ich Gefragt hätte ;)

Siehst du da keinen Unterschied von "Kein_AF" zu "16_af" oder so ?
Schau mal auf die Texturen, auf dem Boden !!!
Die Bodentexturen, in der Ferne sind bei "kein_AF" total unscharf !

Ja von 16 zu 4 fachem AF ist sogut wie kein Unterschied, ich sehe nur minimalistische...

Trice, Ati Karten haben da noch besseres AF. Vielleicht kann dir da jemand anderes weiterhelfen...
Ich habe eine Nvidia_GeForce 7600 GT und warte auf den G80 =)
 
Mit der 7600er kannst du aber sicherlich nicht flüssig spielen, wenn du Auflösungen über 1600 x 1200 nimmst, oder?
Hmm... Bei HL2 würd es aber vllt. noch gehen, weil die Engine einfach nur geil ist, relativ wenig performancefressend, super Grafik.

Du mit deiner G80 :d Die R600er ist besser ;) Unified Shader wird vieles verändern...
 
Zuletzt bearbeitet:
Bud Spencer schrieb:
Mit der 7600er kannst du aber sicherlich nicht flüssig spielen, wenn du Auflösungen über 1600 x 1200 nimmst, oder?
Hmm... Bei HL2 würd es aber vllt. noch gehen, weil die Engine einfach nur geil ist, relativ wenig performancefressend, super Grafik.

2048*1600 ; 16 AF ; und KEIN_AA

läuft absolut flüssig (60- (>)100fps), mit leichtem transp.AA gehts auch noch. !

Damit es jeder sieht:


Und schaut mal auf die Treppe links !!! Am Ende der Treppe sind die Texturen fast verschwunden !!!
 
Zuletzt bearbeitet:
Bud Spencer schrieb:
Du mit deiner G80 :d Die R600er ist besser ;)

Logischer schluss da der R600 später kommt ;)
muss aber nicht unbedingt sein,
die x1800XT war auch nicht wirklich der bringer obwohl sie 5 monate später kahm...
außerdem wird der R600 schonmal 3 nachteile haben
1. teurer in der fertigung = teurere preise
2. 100 mio transistoren mehr als G80 (600mio) also sehr sehr heiß mehr als 100% mehr als bei der 7900GTX !!!
3. sehr hoher strom verbauch und wie die dass mit der 150W grenze machen sollen frage ich mich immer noch :hmm:

edit:
G80 500 mio transistoren
R600 600 mio transistoren
 
Zuletzt bearbeitet:
Ich dachte Grafikchips wäre immer schon 2-3 Jahre vorm Release in der Entwicklung aber beim G80 wären das ja fast 4 Jahre :eek:

Hoffentlich geh der extrem'st ab :teufel:

Aber ehrlich gesagt, wäre ich schon froh, bei 50% Mehrleistung zur 7900GTX.

Mal ne ganz andere Frage:

Glaubt ihr der Kühler der GTX wurde nochmal überarbeitet ?

-Wenn ja: Wie ?
 
Nightspider schrieb:
Ich dachte Grafikchips wäre immer schon 2-3 Jahre vorm Release in der Entwicklung aber beim G80 wären das ja fast 4 Jahre :eek:

Hoffentlich geh der extrem'st ab :teufel:

Aber ehrlich gesagt, wäre ich schon froh, bei 50% Mehrleistung zur 7900GTX.

Mal ne ganz andere Frage:

Glaubt ihr der Kühler der GTX wurde nochmal überarbeitet ?

-Wenn ja: Wie ?

könnte sein dass er ähnlich kommt nur mit kupfer heat pipes und kupfer lamellen

edit:
Mit der kommenden G80 Generation, seit 2002 entwickelt, wird es also definitiv keine Unified Shader geben, erst beim darauffolgenden Modell. Bislang hat die Entwicklung stolze 250 Millionen Doller veranschlagt. Nvidia hofft noch in diesem Jahr den G80 in den Handel zu bringen.

echt hammer :eek:


edit 2 :

Die Kollegen von hardspell.com berichten über angeblich Pläne von Seitens ATi, dass für die kommende R600 Core ein Redesign des Kühlerdesigns erfolgen muss. Ein sehr leistungsfähiges Kühlerdesign ist zu erwarten, dass auch in der Größe, alle vorherigen sicher übertrumpfen wird. Aller Ansicht nach, wird der R600 der heisseste Core Chip überhaupt in der bisherigen Produktpalette werden.

Im Gegensatz zu den Radeon Radiatoren stellen die nVidia G70 und G71 effizientere Kühlungskonzepte dar, vor allem in Punkto Lautstärke.

Nähere Details hoffentlich in Kürze dazu. Auch wenn es bislang nur Gerüchte sind, überraschen sie kaum. Bislang stellte jede neue Core Einheit über die Jahre hinweg das Kühlungsdesign an neue Herausforderungen.
 
Zuletzt bearbeitet:
Der R600 ist seit dem R420 in Entwicklung.
Das Design beim G80 ist nicht wirklich anders als das Design des G70.

Der G80 wird höchstens 50% schneller sein als der G70 in DX9-Anwendungen.
Beim R600 erwarte ich ein kleinere Steigerung.

Ich seh es schon vor mich kommen.
Der R600 ist zwar schneller in D3D10-Anwendungen wie der G80, aber beim Release gibt es noch kaum D3D10-Anwendungen.
Folglich wird der G80 total gehyped.

Wieso ich daraufkomme?
Reinher von den Daten hat der G80 keine Schnitte gegen den R600.
Das Problem sind die USCs und ich weiß nicht wie diese skalieren im Bezug auf DX9.

Wer einen kühleren Chip will, wird wohl beim G80 fündig.
Aber falls er noch in 90Nm hergestellt ist, verbraucht er mehr als 40% mehr Strom...mal sehen wie sich das Entwickelt.

mfg Nakai
 
Momentan ist noch gar nicht klar wie heiß der R600er wird.
Aber vermutlich ist er mit Intels Quadcore zu vergleichen, der ja auch etwa genausoviele Transistoren hat und auf 65nm erschaffen wird.

Also, ich weiß nicht. Die Karten werden bestimmt einen entsprechenden Kühler verpasst bekommen, s. doch x1950. Über die Hitze würde ich mir nur Gedanken machen, wenn ich übertakte. Da würde ich aber bei solchen Karten gleich einen Wasserkühler nehmen.
 
Nakai schrieb:
Ich seh es schon vor mich kommen.
Der R600 ist zwar schneller in D3D10-Anwendungen wie der G80, aber beim Release gibt es noch kaum D3D10-Anwendungen.
Folglich wird der G80 total gehyped.

Wieso ich daraufkomme?
Reinher von den Daten hat der G80 keine Schnitte gegen den R600.
Das Problem sind die USCs und ich weiß nicht wie diese skalieren im Bezug auf DX9.

Wer einen kühleren Chip will, wird wohl beim G80 fündig.
Aber falls er noch in 90Nm hergestellt ist, verbraucht er mehr als 40% mehr Strom...mal sehen wie sich das Entwickelt.

mfg Nakai


also erstens, von den architekturen wird der G80 wohl bei DX 10 wohl langsamer werden, gebe ich dir recht.
könnte dann aber auch bedeuten dass der G80 in DX 9 gleich auf oder sogar schneller sein wird als der R600.

so nun zu deiner voll pro aussage...
schau dir mal die 9700pro und den fx5800 ultra an,
die NV hat ein kleineren herstellungs verfahren und ist dennoch viel heißer !
selbe spiel bei der 7800GTX in 110nm und dem R520 in 90nm. ati,s karte wurde deutlich heißer bei keiner deutlichen mehrleistung !
Intels erster prescot in 90nm und deutlich heißer als erwartet :lol:

also beim besten willen ich glaube du hast ein bischen zu wenig know how um sonen mist hier abzulassen, tut mir echt leid
mfg Night
 
Nakai schrieb:
wird höchstens 50% schneller sein als der G70 in DX9-Anwendungen.
Beim R600 erwarte ich ein kleinere Steigerung.

Folglich wird der G80 total gehyped.

Wieso ich daraufkomme?
Reinher von den Daten hat der G80 keine Schnitte gegen den R600.
Das Problem sind die USCs und ich weiß nicht wie diese skalieren im Bezug auf DX9.

Wer einen kühleren Chip will, wird wohl beim G80 fündig.
Aber falls er noch in 90Nm hergestellt ist, verbraucht er mehr als 40% mehr Strom...mal sehen wie sich das Entwickelt.

mfg Nakai

Ich muss Night<eye> zustimmen.

Rede bitte keinen Unsinn. Bisher wird der G80 gar nicht gehyped. Der R600 ebensowenig!
Wir spekulieren nur und hoffen auf das beste.

Du sagst der G80 ist 50% schneller als der G70 ?
Naja. Der G71 is schon 40-50 % schneller und war nichtmal ein richtiger Refresh.

Und an den Daten festzumachen, das der G80 keine "Schnitte" gegen den R600 hat, is auch dämlich. Noch steht nichts fest und der R600 kann genausogut nach hinten losgehen !
Bei G80 ist dies eher unwahrscheinlich, da er stark verwand mit dem G71 sein wird.
 
Naja, ob der R600 nach hinten losgehen kann ist völlig ausgeschlossen, außer sie werden mit der Entwicklung nicht fertig und überlassen den Markt der G80.

ATI konnte viel Erfahrung mit US-Architekturen beim XBox 360 sammeln und der ist ja wohl alles Andere als billig, gar besser als die PS3 Graka. Der R600 ist eine Weiterentwicklung für den PC-Markt. Glaub nicht, dass dieser versagen wird.

Ich möchte den G80 nicht schlecht reden. Sicherlich ist es auch ein sehr schneller Chip.
 
Nightspider schrieb:
[...]
Du sagst der G80 ist 50% schneller als der G70 ?
Naja. Der G71 is schon 40-50 % schneller und war nichtmal ein richtiger Refresh.
[..]


Woher hast du daß denn? Eine X1950 XTX ist etwa 40% schneller als eine 7800GTX (G70). Wie soll dann bitteschön eine 7900GTX (G71) - die ja selber 10% langsamer als die X1950 XTX ist - 40-50% schneller als die 7800GTX sein?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh