R580 & G71 *Sammelthread*

Status
Für weitere Antworten geschlossen.
WICHTIG!
Bitte benimmt euch hier in diesem Thread! Sobald ich Geflame oder Spam von irgendwelchen Usern bemerke, wird ein Moderator verständigt!

Bald wird es wohl so sein. ATI plant am 24. Januar seinen neuen Refreshchip R580 vom R520 vorzustellen. Die Karten sollen Radeon X1900XT, Radeon X1900XTX und Radeon X1900XT Crossfire lauten.
Die Karten sollen, wie nVidia es mit der Einführung des G70 gezeigt hat, sofort verfügbar sein. Dies wäre natürlich ein besonderer Anreizpunkt, da ATI bestimmt nicht nochmal so eine Debatte mit der Einführung des R520 aka X1800 erleben möchte.

Zu den Details der Karte: Der Chip soll, wie der R520, in 90nm gefertigt werden und 16 Pipelines aufweisen .. Nun allerdings mit 48 Shader Prozessoren! Der R520 (X1800) verfügt nur über 16 Shader Prozessoren! Aber sollte man diesen Details Glauben schenken? Der R520 (X1800) sollte kurz vor der Vorstellung auch 32 Shader Prozessoren aufweisen ... Der R580 soll natürlich höhere Taktraten aufweisen, wodurch ein erheblich höherer Leistungszusatz zu erwarten ist.
Der R580 soll auch die gleichen Features aufweisen, wie der R520 .. SM3.0, Avivo etc..

Die Karte soll das gleiche Layout haben, wie der R520, somit können die Hersteller (wie Sapphire, Powercolor etc.) den selben Kühlkörper wie auf dem R520 verwenden. Der Speichercontroller soll zumindest auch unverändert bleiben.

Hier soll ein Sammelthread entstehen .. Wenn die Graka wirklich Ende Januar/Anfang Februar verfügbar ist, können wir uns auf was gefasst machen ;)

Edit 14.01.2006:

Ab heute kann man auch über den G71 von nVidia diskutieren! Der R580 wird warscheinlich Ende Januar/Anfang Februar erscheinen. Der G71 von nVidia wird warscheinlich erst bei der Cebit 2006 in Hannover vorgestellt. (9-15 März 2006)
Edit 19.01.2006:

Am 24. Januar 2006 werden die neuen Karten mit hoher Warscheinlichkeit vorgestellt werden und sofort verfügbar sein!
Edit 19.01.2006 #2:
Sapphire Radeon X1900 Serie Spezifikationen nun veröffentlicht! News HWLUXX: http://www.hardwareluxx.de/story.php?id=3486
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So, mal wieder ne konkrete Frage: Ich habe das Be Quiet! P6 520 Watt. Das hat ne dual Rail 12 Volt Leitung. Jede hat 20 A. Darunter steht eine Gesamtleistung von 33 A. Ich habe zwar nicht vor mir in absehbarer Zeit zwei Grafikkarten einzubauen, aber als günstige Aufrüstoption in zwei Jahren oder so käme das schon für mich in Betracht. Laut der Computerbase Meldung brauchen zwei Karten 38 A. Wenn ich dann auch noch irgendwann einen dieser Overclockingwunder Opteron 165 (Dualcore) drin habe wird das warscheinlich eng oder?
 
Zuletzt bearbeitet:
Wenn die Stromaufnahme wie bei der X1800'er Serie bleibt bzw. sogar noch erhöht wird, wird es mit 2 X1900 sehr eng, wenn jetzt schon recht gute NT's bei der X1800XT auf der 12V Schiene schlapp machen.
Aber ich würde abwarten und schauen was bei raus kommt. Kann ja auch ganz anders kommen...
 
Ich hab mir das Ding nämlich vor kurzem gekauft und mein 10€ 400 Watt NT rausgenommen. Ich war der Meinung damit hätte ich erstmal ausgesorgt...
Hat jemand von euch schon mal Probleme gehabt wegen zu geringer Leistung des (Marken) Netzteils. Z.B. mit ner x1800xt und Dualcore Prozessor?
Kann mir das nämlich eigentlich nicht so vorstellen...

Wenn ATI da sagt, man müsste so viel haben, gehen die sicher auch davon aus, dass deren Mindestwerte auch für Billignetzteile hinkommen müssen, wo draufsteht, dass sie 450 Watt und 30 A schaffen würden:hmm:
 
Zuletzt bearbeitet:
ErzBischoff schrieb:
Der r520 hat also 16 pixelshader und 16 alu´s
der r580 soll 48 pixelshader und 48 alu´s haben.

lol..

48 Pixel-Shader-Einheiten und daher 3 ALU's pro Pipeline soll er haben.
Wers noch immer nicht hat:

Pixel Pipelines: 16 (4 Quadpipes die pro Quad 2x2 Pixel pro Takt berechnen)
ALU's Pro: 3 (für arithmetische Rechnungen im PS / wie Farben etc.)

Das wird multipliziert, ergibt dann 48 Pixel-Shader-Einheiten.

Die MAD-Leistung (Multiply-Add) dürfte aber interessanter sein.
Da schafften die bisherigen Karten auch nur eine MAD4 pro Takt. (ati)

Ich will ne ATI Karte mit 2 MAD4 pro Takt (so wie G70) 6 Quadpipes und übertriebene MUL - Kraft (wie NV40).

Rein rechnerisch reicht ein R520 6 Quadpipes aus um einiges an Vorsprung zur Konkurrenz zu haben.
Ironischerweise verfügt der R520 über mehr ProTakt Leistung, was jedoch durch die wenigen Pipelines zunichte gemacht wird.
 
Natürlich nicht, was willst Du damit erreichen? Freischalten kannst Du beim R520 nichts. Der R520 ist nicht mit dem R580 zu vergleichen, auch wenn das PCB gleich ist, sind das zwei verschiedene Chips ;)
 
steni1975 schrieb:
da war wohl meine x1800xt ein fehlkauf :grrr: hätte ich doch lieber auf den R580 gewartet


Und wenn Du Dir eine R580, kauft ärgerst Du Dich, da eine neue schon wieder angekündigt wird.

Jetzt mal ehrlich. Ich wäre froh, wenn ich eine X1800XT hätte.
 
steni1975 schrieb:
da war wohl meine x1800xt ein fehlkauf :grrr: hätte ich doch lieber auf den R580 gewartet
Dass der R580 nur kurze Zeit später folgen wird, war relativ sicher. Dazu hatte der R520 ja reichlich Verspätung, auf R580 hatten die Probleme keine Auswirkung.
 
mapel110 schrieb:
Dass der R580 nur kurze Zeit später folgen wird, war relativ sicher. Dazu hatte der R520 ja reichlich Verspätung, auf R580 hatten die Probleme keine Auswirkung.

Stimmt eigentlich. Nun ja es wird wohl bald eine x1800xt hier im Marktplatz verkauft :bigok:
 
ich werf mal eine vermutung in den raum ( bin übermüdet kann also sein das ich total verbackenen müll schreibe :d )

Ich habe mal die ganzen Gerüchte in meinem Kopf gesammelt und kam zu eine Vermutung.

2006
- Windows Vista mit DX10
- Neuer 3D MARK nicht im 2 jahrestakt
- neue Kartengerüchte obwohl die alten Serien noch nicht allzu alt

könnte es nicht sein das durch das neue Windows was ja ein neues DirectX haben soll ( WGF aka PS 4.0 ) und die anderen "komischen" sachen die bald erscheinenden Karten dafür gebaut werden ?? Gerüchte zu PS4 gibt es ja bei der Nvidia schon

klar das keiner der beiden sagen würde eh wir haben bald DX10 Karten aber kauft ruhig unsere highend DX9 karten noch wir brauchen das geld :d

es soll ja auch nen DX9.0e oder so kommen das könnte ja dann für die neuen karten sein mit PS4.0 zum überbrücken auf Win XP und dann halt bei Vista DX10

hdrR also echtes HDR könnte auch so ne sache sein

irgendwie verwirrt mic der GPU Markt :d oder es liegt an zu wenig schlaf
kann mir einer sagen ob ich total irre bin oder ob ich evtl recht haben könnte ??
 
Mal zur Streitfrage "Für wen sind solche Grafikkarten überhaupt" ...

Ich Spiele BF² in 1680 x 1050 und muss mit meiner übertakteten X800XT schon alle details auf mittel/niedrig stellen, damit ichs überhaupt flüssig spielen kann!
 
@DaReal: Dann mach doch ne geringere Auflösung, dann läufts auch mit höheren Details besser, was wesentlich mehr zur Bildqualität beiträgt. Was sind das überhaupt für komische Zahlen?? Was hast du für nen Monitor? Nen 24"Widescreen-TFT oder wie?

Ich persönlich habe nun 2 Gainward 7800GT´s drin, die jeweils auf 475/1150MHz laufen und ich habe auch "nur" nen 19"er, der 1280x1024 schafft. Ich sitz aber auch nur etwa 50-60cm davon entfernt, also reicht das massig. Die Entfernung wär bei nem Röhrenmonitor zb. Augenspasti und n größerer Monitor würde mich nur dazu zwingen, meinen Kopf ständig zu bewegen, um das gesamte Bild im Auge zu behalten -> Nackenspasti. Und ich habe deshalb 2GTs, weil sie momentan das beste P/L-Verhältnis haben und ich auch in nem halben Jahr noch jedes Game auf meinem Monitor in Maximum-Einstellungen spielen will, was momentan mehr als funktioniert.
 
is nen 20" Widescreen von dell (siehe meine Sig) ...

Wozu ne andere Auflösung spielen? Dann habe ich ja von allem noch weniger. Was nützt mir ne vermatschte tolle Grafik? Da spiel ich lieber low-details mit nativer Auflösung!

Also wenn die X1900 preislich im Rahmen liegt wäre ich schon gewollt "aufzusteigen" :fresse:

Übrigends: der eine Zoll macht den Kohl nicht fett (vonwegen Nackenspasti) ... im Gegeteil, die höhere Auflösung und dazu Widesreen (nicht so'n "Highscreen" wie du hast, is ja nichtmal 4:3 :fresse: ) machen deutlich was aus beim zocken!
 
Naja, für dich vielleicht, aber für einen normalen Zocker, der normale Augen hat, macht das keinen unterschied. Mein Kumpel hat nen 24"-16:9-Monitor und da zocke ich ab und zu PC dran. Ich persönlich hasse alles, was irgendwie mit Widescreen zu tun hat außer Kino. Das Bild wird bei denen nur unnötig in die Breite gezogen. N 19"er reicht vollkommen, wenn man nicht gerade mehr als n Meter davon entfernt sitzt. An deiner Stelle würd ich lieber eine Auflösungsstufe runter gehen und dafür AA reinhauen. Ansonsten halt neue GraKa.
 
Wieso in die BREITE GEZOGEN? Du siehst nur breiter, aber es ist nix ver- oder gezogen!! Sitze auch knapp 50-60 cm davor ... und beim Zocken macht es schon nen unterschied weil man quasi mehr sieht .. oder wie erklärst du dir das ich die meisten Sniper mit meiner kleinen G36E wegballer? ...

1280 x 1024 -> 1,310 MPixel
1680 x 1050 -> 1,764 MPixel

Man sieht einfach mehr. Ich bin lieber für extrem hohe Auflösungen als für AA.
 
DaReal schrieb:
oder wie erklärst du dir das ich die meisten Sniper mit meiner kleinen G36E wegballer? ...

das schaff ich auch auf ner 17" Röhre bei 1024x786, mid Details, nix AA oder AF auf ner 9800pro

nun aber BTT.. das is kein Röhre vs TFT / kleine vs größe Auflösung Thread hier.. sondern n R580 Sammelthread
 
DaReal schrieb:
Wieso in die BREITE GEZOGEN? Du siehst nur breiter, aber es ist nix ver- oder gezogen!! Sitze auch knapp 50-60 cm davor ... und beim Zocken macht es schon nen unterschied weil man quasi mehr sieht .. oder wie erklärst du dir das ich die meisten Sniper mit meiner kleinen G36E wegballer? ...

1280 x 1024 -> 1,310 MPixel
1680 x 1050 -> 1,764 MPixel

Man sieht einfach mehr. Ich bin lieber für extrem hohe Auflösungen als für AA.

Also BF2 unterstützt definitiv kein Widescreen. Da wird jeder Kreis zu einer Ellipse. Es wird auch nicht mehr Bildmaterial angezeigt als bei einer 5/4 oder 4/3 Auflösung.

Es gibt aber genug andere Games, die von Haus aus schon WS-Support mitbringen, bzw. die sich einfach auf WS tweaken lassen, um "mehr" Bild zu sehen.

lg
 
doch man kann die auflösung forcen

und ich bin auch eine widescreen zocker;)

1400x900

macht spass!
 
DaReal schrieb:
Übrigends: der eine Zoll macht den Kohl nicht fett (vonwegen Nackenspasti) ... im Gegeteil, die höhere Auflösung und dazu Widesreen (nicht so'n "Highscreen" wie du hast, is ja nichtmal 4:3 :fresse: ) machen deutlich was aus beim zocken!

Mal so nebenbei...ich glaub ich hab mit meinem CRT ein besseres Spielerlebnis als du obwohl ich "nur" mit 1280x1204 zocke, da bei mir einfach alles schärfer ist und die Farben viel echter wirken, genauso hab ich keine schlieren und dabei bestimmt nur ein drittel gezahlt und kann auch mit allen details alles flüssig zocken...ich würde mir echt mal Gedanken machen ob ich mit meinem Moni protze oder mit dem was ich drauß machen kann :rolleyes:
 
Mal so nebenbei...ich glaub ich hab mit meinem CRT ein besseres Spielerlebnis als du obwohl ich "nur" mit 1280x1204 zocke, da bei mir einfach alles schärfer ist und die Farben viel echter wirken, genauso hab ich keine schlieren

hattest du schonmal einen guten tft?
 
http://home.nyc.rr.com/bc201/forum_images/screen006.jpg
nen Widescreen-shot von BF2 .. okay, HUD is verzerrt da schlecht implementiert jedoch die WLET und der Charakter sind nochrmal ;)

Hauptsache ne X1900 wird BF2 in 1680 x 1050 bei max. Details möglich machen :fresse:

hotracer schrieb:
Mal so nebenbei...ich glaub ich hab mit meinem CRT ein besseres Spielerlebnis als du obwohl ich "nur" mit 1280x1204 zocke, da bei mir einfach alles schärfer ist und die Farben viel echter wirken, genauso hab ich keine schlieren und dabei bestimmt nur ein drittel gezahlt und kann auch mit allen details alles flüssig zocken...ich würde mir echt mal Gedanken machen ob ich mit meinem Moni protze oder mit dem was ich drauß machen kann :rolleyes:
Typisch CRT looser :fresse:
Schonmal nen ordentlichen TFT gehabt? ... Ich denke mal mit schärfe wird bei dir nix, da kannst du noch so viel Pfeffer draufstreuen, mein TFT wird immernoch schärfer sein :haha:
Fabren sind auch vom feinsten und Schlieren bemerke ich auch keine mehr ... mein alter Samsung hat noch geschliert.

Außerdem ist widescreen mehr dem menschlichen sehen nachempfunden .. die augen hat man ja nenebeinander nid übernander :fresse:
 
Zuletzt bearbeitet:
Lol, Viewsonic .. so nen schrott ... :fresse:

Hab quasi meinen dritten TFT und bereuhe es seit anfang an nicht. Die Schärfe übertrifft keine Röhre! Die Farbwiedergabe ist heutzutage auch auf CRT Niveau und Schlieren kann man sich auch Einbilden! Es gab auch mal anfangs ne schlechte Serie des 2005FPW ;)

Nu aber BACK TO THE TOPIC kinder !
 
DaReal schrieb:
Mal zur Streitfrage "Für wen sind solche Grafikkarten überhaupt" ...

Ich Spiele BF² in 1680 x 1050 und muss mit meiner übertakteten X800XT schon alle details auf mittel/niedrig stellen, damit ichs überhaupt flüssig spielen kann!

da batlefield 2 kein 16:10 unterstützt, hast du ein ekelhaft gestrecktes bild. ein widescreen Monitor ist super, doch von allen bespielen hast du das falsche gewählt!

hotracer schrieb:
Zufälliger Weise hab ich einen 20'' Widescreen TFT von DELL in Action sehen dürfen auch schon unzähliger andere TFT's und bis die an die Farbtreue und Bildschärfer einer sehr guten Röhre rankommen wird es schon noch eine Zeit dauern ;)
Wenn ich keine Vergleiche hätte würde ich soetwas nicht behaupten, du hattest bestimmt auch schon meinen Monitor oder?

du hast natürlich recht, die farben sind besser und reaktionszeit auch. keine frage...aber ein gutes digital angeschlossenes S-PVA Panel ist ein tick schärfer bei nativer auflösung.
 
Zuletzt bearbeitet:
Wann gibts endlich mal Tests zur X1900? Möchte mir die vielleicht kaufen wenn sie mindestens so schnell wie ne GTX 512 wird....ne 7900 wird wahrscheinlich schneller aber auch wesentlich teurer :(
 
Wird es sicherlich bald geben. Ich denke www.computerbase.de werden mal wieder die schnellsten sein, die ein Review online veröffentlichen. Wenn die X1900 Serie Ende Januar erscheinen soll, wird es sicherlich nicht mehr lange dauern :)

@all
BTT plz! Über TFTs und CRTs könnt ihr wo anders diskutieren!
 
Hi erstmal.

Also, ich habe mir den Thread durchgelesen... die Meinungen um den r580 und dessen Leistung scheinen sich ja munter zu teilen.
Als ATI-Jünger bin auch ich der Ansicht, dass man die ersten Benchmarks abwarten sollte. Aber dennoch ist es noch immer eine Glaubensfrage, ob ATI oder Nvidia.
Der G71 soll mit sehr hohem Takt und 32 Pipes kommen... das Teil wird ganz schön knallen und den r580 wohl so versenken, wie die 7800GTX 512 die X1800XT 512. Also einen leichten aber sichbaren Vorsprung haben.
Dennoch; nach meiner X800 XT kam eine 7800GTX.... und ich kann sagen; nie wieder Nvidia. Der G70 ist zwar schnell, aber bis auf Transparent AA hat ATI die Nase bei der Bildqualität sehr weit vorn.
Daher bleibt es eine Frage des Geschmacks. Die neuen Karten werden ganz schön Power haben. Und dann entscheidet eben nicht der Hersteller, sondern der Geschmack. Bei mir wird es immer wieder ATI sein. Die Radeon-Karten überzeugen mit fast perfekter Bildqualität und der Catalyst ist ein klasse Treiber.
Für die G70-Chips spricht, dass sie die schnellsten Karten derzeit sind. Mehr nicht.
Also warte ich auf den r580. Und solange der die 7800 GTX 512 alle machen kann (wovon ich mal ausgehe), ist mir der Unterschied zum G71 egal. Ich verzichte lieber auf ein paar FPS und habe eine bessere Bildqualität. Vorausgesetzt, dass die Preise moderat bleiben. Denn auch da leistet sich Nvidia entschieden zu viel.

Bye bye, Nvidia :shot:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh