R580 & G71 *Sammelthread*

Status
Für weitere Antworten geschlossen.
WICHTIG!
Bitte benimmt euch hier in diesem Thread! Sobald ich Geflame oder Spam von irgendwelchen Usern bemerke, wird ein Moderator verständigt!

Bald wird es wohl so sein. ATI plant am 24. Januar seinen neuen Refreshchip R580 vom R520 vorzustellen. Die Karten sollen Radeon X1900XT, Radeon X1900XTX und Radeon X1900XT Crossfire lauten.
Die Karten sollen, wie nVidia es mit der Einführung des G70 gezeigt hat, sofort verfügbar sein. Dies wäre natürlich ein besonderer Anreizpunkt, da ATI bestimmt nicht nochmal so eine Debatte mit der Einführung des R520 aka X1800 erleben möchte.

Zu den Details der Karte: Der Chip soll, wie der R520, in 90nm gefertigt werden und 16 Pipelines aufweisen .. Nun allerdings mit 48 Shader Prozessoren! Der R520 (X1800) verfügt nur über 16 Shader Prozessoren! Aber sollte man diesen Details Glauben schenken? Der R520 (X1800) sollte kurz vor der Vorstellung auch 32 Shader Prozessoren aufweisen ... Der R580 soll natürlich höhere Taktraten aufweisen, wodurch ein erheblich höherer Leistungszusatz zu erwarten ist.
Der R580 soll auch die gleichen Features aufweisen, wie der R520 .. SM3.0, Avivo etc..

Die Karte soll das gleiche Layout haben, wie der R520, somit können die Hersteller (wie Sapphire, Powercolor etc.) den selben Kühlkörper wie auf dem R520 verwenden. Der Speichercontroller soll zumindest auch unverändert bleiben.

Hier soll ein Sammelthread entstehen .. Wenn die Graka wirklich Ende Januar/Anfang Februar verfügbar ist, können wir uns auf was gefasst machen ;)

Edit 14.01.2006:

Ab heute kann man auch über den G71 von nVidia diskutieren! Der R580 wird warscheinlich Ende Januar/Anfang Februar erscheinen. Der G71 von nVidia wird warscheinlich erst bei der Cebit 2006 in Hannover vorgestellt. (9-15 März 2006)
Edit 19.01.2006:

Am 24. Januar 2006 werden die neuen Karten mit hoher Warscheinlichkeit vorgestellt werden und sofort verfügbar sein!
Edit 19.01.2006 #2:
Sapphire Radeon X1900 Serie Spezifikationen nun veröffentlicht! News HWLUXX: http://www.hardwareluxx.de/story.php?id=3486
 
Zuletzt bearbeitet:
Tommy du stellst doch auch behauptungen rein und zwar das sie sicher ned viel schneller sein werden als die X800er, naja das ist doch auch nicht besser wie wenn man sagt sie wird doppelt so schnell!

Also das Thema hier würde ich zumachen erst wenn die grakas kommen wieder aufmachen das bringt doch nix.


Mikro 10 aber die 3D Mark werte wie ich finde bringen schon was sie sagen schon einiges über die Leistung der karten im Schnitt bei "allen" Spielen. Natürlich nur als ungefärer richtwert das ist ja dann wieder von Spiel zu Spiel unterschiedlich.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
mirko10 schrieb:
Wen interessieren 3dmark Werte? Als ob man das spielen könnte. Wie wäre es mit sowas?:

Fear 1600x1200/4xAA/16xAF

7800 GTX 512 FPS: 36
X1800 XT FPS: 39
X1900 XTX FPS: 49

Habe ich mir aus dem 3dcenter Thread geklaut.

Kein schlechter Fear wert,aber auch nicht überragend.Mall gucken was da noch mit ein Dual Core Prozessor geht.Mich würde ein Ao3 Bench intressieren.*seufz*
PS:Anscheinend setzt Ati diesmall mehr auf Rohperformance.Kein wunder da ist Nvidia meißtens immer schneller.Was aber eigentlich keinen intressieren müsste weil wer spielt schon ohne AA-AF...
 
Zuletzt bearbeitet:
http://www.beyond3d.com/forum/showpost.php?p=666810&postcount=471
Also ich finde die Werte schon beachtlich. Vor allem war F.E.A.R. vorher ne NV Domäne.
Wenn man bedenkt, dass die 9800xt damals 'n Furz schneller war als die 9800 Pro oder die x850xt auch nicht viel besser war als die anderen. Vor allem waren die Refreshchips früher blos schneller getaktet. Jetzt haben sie was an der Architektur geändert. Der Speichercontroller der R5xx Karten ist sehr leistungsfähig. Die können damit bestimmt mehr Leistung aus dem Speicher hohlen als NV mit gleichen Taktraten.
 
Selbst mit diesen High-End Grakas wirds ab UT2007 oder so schon sehr schwer mit vollem AA und AF! 2-4AA und 4-8AF sollte wahrscheinlich bis 1280*1024 immernoch sehr gut gehn aber mal sehen....
Ich will sofort Tests zu der X1900 und der 7900 sehn, und zwar DICKE Vergleichstests zwischen denen + zu der GTX 512 :asthanos:
 
Tommy du stellst doch auch behauptungen rein und zwar das sie sicher ned viel schneller sein werden als die X800er, naja das ist doch auch nicht besser wie wenn man sagt sie wird doppelt so schnell!

nein so ists nicht ich vermute es auf grund von früheren refresht serien mehr nicht... :)
 
mir reicht eigentlich sogar noch meine 9800XXL(r360/128MB)... kann damit alles prima spiele. letztens hab ich Farcry mal mit maximalen details angefangen und hab keine ruckler bemerkt(nur mit dem fernglas).

ich kauf mir erst dann ne neue karte (denk ich mal), wenn ich PCIe hab. und auf PCIe werd ich erst umsteigen wenn meine 9800 nicht mehr nackommt...

ausser ich komm schnell an viel geld, dann passiert das früher :d.

@3Dmark:
meine 9800 schafft 6600PKT im 03er und ne 7800GTX schafft... 18000?
aber deshalb hat sie in den games doch nicht 3x soviele frames... hat in CSS genau so ihre 150fps, da reichen mir meine 90 locker aus.

aber was is nun mit dem X1700, weiss wer was drüber?
 
In neuen Spielen kann die GTX 512 oder die neue 7900 locker 3-4mal so schnell wie deine 9800 sein. Die 6800Ultra ist ja schon doppelt so schnell wie ne 9800. Und Far Cry ist schon 1 1/2 Jahre alt auch wenns noch gut aussieht. Die neue Generation kommt 2006, ich denke zuerst mit Elder Scrolls oder? ^^
 
ohja Elder Scrolls 4 wird schon geil ;). im märz is denk ich soweit...

ja aber solang die FPS nicht unter 50 oder 40 sinken (konstant) reichts doch aus, oder?

also für mich schon. aber wenn ich das geld hätte würd ich auch von meiner 9800 weg. von dem her... wers hat, hats schön ;)
 
Klar reicht aus wenn sie net unter 40-50 sinken. Mit ner 9800 kannst du aber max Details vergessen, AA und AF sowieso und auch 1280*1024 wird wohl nicht mehr gehen bzw. schlecht gehen. Also für Elder Scrolls z.B. mit hohen Details musses ne 7800 oder x1800 mindestens sein, denk ich mal. Ist eh so bei ner neuen Generation ^^ So wie das aussieht....einfach geil :)
 
sklave_gottes schrieb:
falsch!Der r580(x1900xt) baut auf dem r530(x1600xt) auf.Nicht auf dem r520!

Ganz so einfach kann man das nicht sagen, da der r580 unter anderem den Speicherkontroller des r520 übernimmt. Überhaupt ist die X1000-Serie scheinbar dergestalt modular aufgebaut, daß bestimmte Komponenten auch für die nächste Generation noch übernommen werden können, als da wären die AVIVO-Sektion und wie schon gesagt, eben der Speichercontroller, welcher auch noch mit der nächsten Generation Speicher zurechtkommt.
 
wenn der r580 auf dem X1600 aufbauen würde dann hätte er doch 24PixelPipes, oder?
weil der r520 hatte 8 physische mit 2 *weiss nicht wie das heisst*
der r530V(??) hatte 4 physische mit 3 *weiss nicht wie das heisst*
aber da ich mich damit nicht auskenne, könnte es durchaus sein, dass ich da oben nur scheisse geschireben hab...

zum letzten mal:
gibts infos über X1500 und X1700?
naja ich nehme mal an nicht.

edit: ganz vergessen ^^
Klar reicht aus wenn sie net unter 40-50 sinken. Mit ner 9800 kannst du aber max Details vergessen, AA und AF sowieso und auch 1280*1024 wird wohl nicht mehr gehen bzw. schlecht gehen. Also für Elder Scrolls z.B. mit hohen Details musses ne 7800 oder x1800 mindestens sein, denk ich mal. Ist eh so bei ner neuen Generation ^^ So wie das aussieht....einfach geil

ich kann FarCry mit maximalen details so spielen, dass ich keine ruckler bemerke. auf 1280*1024(alles andre is bei meinem TFT verzerrt). AA maximal und AF auch(aber nicht max). ich weiss jetz nicht wieviele fps ich hab aber ich merke kein ruckeln.
nur wenn ich mit dem fernglas zoome sinken die fps in den "roten" bereich, aber damit kann ich leben(muss ich leben).
dass man für ES4 ne 7800 braucht halt ich für übertrieben. ich denk X800XT und 6800GT reichen da noch aus.
 
Zuletzt bearbeitet:
Ja ich mein ja auch die Games die noch kommen, nicht die Games die vor über nem Jahr erschienen sind.....
Für Elder Scrolls mit max Details reicht ne 6800gt net davon bin ich überzeugt ^^ Vor allem wenn einmal Soft Shadowing reingekloppt wird, wirds unmöglich zu daddeln.....
 
ich finde das voll heftig wie schnell das geht,
damals war die geforce 2 schon heftig,
die Geforce 3 war nicht lange die aktuelle top karte von NV schnell war die geforce 4 serie da,
dann 2003 kahm die fx5800Ultra auf den markt
dann wars lange ruig mit 9700 pro und 9800pro die kaum viel schneller war als die 9700pro,
najo aber was seid dem passiert ist ist echt gewaltig und bestätigt etwas was mir mal jemand sagte,

*um so moderner die technik wird um so schneller geht der Fortschritt*
seid der X800 und geforce 6800 entwickelt sich alles sehr schnell im gegensatz zur vergangenheit,
die 7800 war schnell da und jetzt steht nach paar monaten wieder nen refresh an der tür und 6 monate später soll wieder das neue flagschiff kommen,
aber wenn man vergleicht kommt eigentlich genau im 12 monate abstand eine neue grafik karten generation auf den markt, mal ein paar monate mehr mal ein paar monate weniger, aber wie schnell die refreshes kommen ist echt gewaltig.
weiter so high tech ist die zukunft :)
 
Nighteye was du wieder schreibst ist echt lustig;)

Wieso gehts Heute alles so schnell? War das damals nicht auch so?

Es war damals auch so. Ob nun 1999 oder 2003 oder 2005, immer das Selbe.
Obwohl es 2004 so aussah als ob die 2 Großen zur Vernunft gekommen sind und NV erst 1 Jahr nach Vortstellung des NV40, den G70 vorstellte.

Man rechnete doch schon im Herbst mit Refreshed, vllt gecancelt duch die schlechte Verfügbarkeit der beiden Topkarten.

Die Industrie war schon immer so.

Das Jahr 2003, welches du als nicht schlimm ansiehst, war übrigens eins der schlimmsten Jahre. 2004 hingegen war ruhig :rolleyes:

P.S.: Seit nicht seid ^^.
 
Zuletzt bearbeitet:
Sehe den tieferen Sinn nicht....die X1900 wird unmöglich die GTX 512 und die 7900 überholen....ich sehe nur ne Chance wenn die Karte max 600 oder naja 650Euro kostet.....
Und wies dann bei den ganz neuen Flagschiffen aussieht (mitte-ende2006) weiß ich natürlich nicht. Geht nur um jetzt ^^
 
Supermax2003 schrieb:
Sehe den tieferen Sinn nicht....die X1900 wird unmöglich die GTX 512 und die 7900 überholen....ich sehe nur ne Chance wenn die Karte max 600 oder naja 650Euro kostet.....
Und wies dann bei den ganz neuen Flagschiffen aussieht (mitte-ende2006) weiß ich natürlich nicht. Geht nur um jetzt ^^

:wayne:

sorry aber.. sorry, aber so langsam reicht es !

Keiner hat die Karte..Du auch nicht... das die 7900 vielleicht besser sein wird, sehen wir dann...wenn es mehr über die Karte zu sehen gibt!
 
Die Shaderleistung soll auf dem Blatt Papier 3mal höher sein, als die der X1800er

Heißt im Klartext: Die 7800 GTX 512MB wird wie eine lahme Krücke gegen die X1900XT(X) in shaderlastigen Spielen aussehen :) (also FEAR, FarCry etc)
 
Zuletzt bearbeitet:
kimble schrieb:
Die Shaderleistung soll auf dem Blatt Papier 3mal höher sein, als die der X1800er

Heißt im Klartext: Die 7800 GTX 512MB wird wie eine lahme Krücke gegen die X1900XT(X) in shaderlastigen Spielen aussehen :) (also FEAR, FarCry etc)
3 mal höhere shader leistung bedeutet nicht 3 mal höhere pixelfüllrate,
wenn ich mich irre lass ich mich eines besseres belehren aber die fps werden wohl bei keinem spiel um 40-50% ansteigen das wird mit so einer kleinen veränderung am chip nicht drin sein sonnst würde Nvidia ja das gleiche machen oder nicht ?
 
Zuletzt bearbeitet:
Irgendwie verstehe ich das nicht ganz!
Also die X1900xt(XTX) wird 48 Pixelprozessoren haben, aber nur 16 Pipes, und einen Takt von 695Mhz (XTX) oder 625Mhz (Xt)!
Der G71 wird wahrschienlich einen Takt von 750mhz und/oder 32Pipes haben.
Wieviele Pixelprozessoren hat dann die G71?
Was bringen die Pixelprozessoren?

mfg Nakai
 
Night<eye> schrieb:
3 mal höhere shader leistung bedeutet nicht 3 mal höhere pixelfüllrate,
wenn ich mich irre lass ich mich eines besseres belehren aber die fps werden wohl bei keinem spiel um 40-50% ansteigen das wird mit so einer kleinen veränderung am chip nicht drin sein sonnst würde Nvidia ja das gleiche machen oder nicht ?

Auf einer 7800 sind schon 48 Alus drauff.;) bei neueren games die Shaderlastig sind kanns schonmall ein anstieg von über 50 % geben.In Zukunft werden die Spiele mehr Shaderlastig werden,da wird man dann denn Unterschied zwischen R520 und R580 sehen und merken.;) :asthanos:

Ati ist zurzeit was Shader Leistung angeht Faktor 0,5 (R520).Mit denn R580 ist Ati gegenüber denn G70 Faktor 1,5.Der R580 wird ein Shadermonster da gibts nichts dran zurütteln.*Hust*wenn ich irgend wo falsch liege nicht hauen *hust*.Nivida konnte die überlegende Pixel Shader Performance nicht wirklich ausspielen.Bei ATi sollen die 48 Alus besser entlastet werden.
 
Zuletzt bearbeitet:
Di Canio schrieb:
Auf einer 7800 sind schon 48 Alus drauff.;) bei neueren games die Shaderlastig sind kanns schonmall ein anstieg von über 50 % geben.In Zukunft werden die Spiele mehr Shaderlastig werden,da wird man dann denn Unterschied zwischen R520 und R580 sehen und merken.;) :asthanos:

Ati ist zurzeit was Shader Leistung angeht Faktor 0,5 (R520).Mit denn R580 ist Ati gegenüber denn G70 Faktor 1,5.Der R580 wird ein Shadermonster da gibts nichts dran zurütteln.*Hust*wenn ich irgend wo falsch liege nicht hauen *hust*.Nivida konnte die überlegende Pixel Shader Performance nicht wirklich ausspielen.Bei ATi sollen die 48 Alus besser entlastet werden.

okay gut zu wissen.
was ich nicht verstehe
NV hat 24 pipes
ATI 16 pipes
und dennoch kann ATI die höhere pixelfüllrate erreichen obwohl die takt unterschiede nicht so gewaltig sind,
hmm bin wohl nicht mehr auf dem aktuellen stand der gpu technik :)

http://www.computerbase.de/artikel/...005/test_nvidia_geforce_7800_gtx_512/drucken/
 
Zuletzt bearbeitet:
Supermax2003 schrieb:
Naja der G71 KANN mit 750/1900 getaktet sein und 32Pipelines haben, oder eins von beidem. Das werden wir hoffentlich bald sehen.....mit ATI hab ich momentan abgeschlossen aber wenn die X1900 doch so schneller oder schneller als die GTX 512 sein sollte und max 650euro kostet, kann man sichs überlegen....ABER die 7900 wird eh schneller.....:d Ich Tier:banana:

Schade, dass es keine Altersbegrenzung gibt beim Kauf einer Graka. Denn mit 10Jahren schon ne HighEnd Graka, hmm das geht doch nicht:shake:


Max0505 schrieb:
boah das gleiche gelabere gabs doch letztes jahr im mai/juni auch schon um den R520!

und was is draus geworden? :lol:

Ja und die damals den R520 am meisten gehyped haben, schimpfen jetzt auf ATI und den Chip, armes Deutschland:rolleyes:

Night<eye> schrieb:
Richtig.
wobei es hier nur um nen refresh geht und ATI die 90nm produktion im Griff hat daher würde ich nicht zu wenig erwarten,
ich bin gespannt

Weder ATI noch NV fertigen ihre Chips. Beide lassen bei TSMC fertigen......
Und TSMC hat durch ATI einiges dazugelernt. Ich denke NV schafft es ohne Probs auf 90nm ;)
 
thade2001 schrieb:
Weder ATI noch NV fertigen ihre Chips. Beide lassen bei TSMC fertigen......
Und TSMC hat durch ATI einiges dazugelernt. Ich denke NV schafft es ohne Probs auf 90nm ;)

jo das mit TSMC weiss ich wollte nur nicht ins detail gehen und hab schnell ati und NV geschrieben, dann wissen auch neulinge was ich meine :wink:
 
Nakai schrieb:
Irgendwie verstehe ich das nicht ganz!
Also die X1900xt(XTX) wird 48 Pixelprozessoren haben, aber nur 16 Pipes, und einen Takt von 695Mhz (XTX) oder 625Mhz (Xt)!
Der G71 wird wahrschienlich einen Takt von 750mhz und/oder 32Pipes haben.
Wieviele Pixelprozessoren hat dann die G71?
Was bringen die Pixelprozessoren?

mfg Nakai

Dass glaubst du doch selber nicht, dass die G71 mit 750mhz getaktet wird!

Das ist unmöglich, bei sovielen Transistoren.
 
nV hat ja dem anschein nach leichte probleme mit ihren G71, evtl. werden auch die taktraten dadurch noch ein wenig gesenkt. denke mal der G71 wird sich um 650MHz einpendeln. aber 32pipes und dann noch 750MHz, das wäre wohl doch etwas zuviel, außer man treibt die spannung ins unendliche ;)

so nebenbei supermax2003, mehr pixelpipes heißen nicht gleich mehr leistung siehe X1800 vs 7800, es gehört mehr dazu als nur die planke rohleistung.
wie architektur, ALU-anzahl usw.

es bleibt mir nach wie vor, schleiherhaft wie du schon wissen willst das der G71 schneller wird als die X1900. oder bist du ein doppelagent der bei ATI und nVidia arbeitet.

gruß wursty ;)
 
Zuletzt bearbeitet:
Wer macht mich wieder sichtbar an weil ich denke, Nvidia ist bis zum nä richtigen High-End Ship die NR.1? Ein ATI Besitzer natürlich:rolleyes:
Wie gesagt bin ich zur X1900 genauso hingezogen WENN sie ne 7900 angreifen kann. Also mal abwarten.....

@Max0505: CSS ist auch allgemein nicht sehr Hardwarehungrig (zumindestens ab x800 und 6800 läuft das butterweich) und ist über ein Jahr alt. Und die 7800GT wird sicher nicht 2Jahre maximale Details ruckelfrei darstellen können ^^ Das wäre schön.....ich rede aber nicht von vollem AA und AF und 1600*1200 oder höher. Natürlich müssen die Spiele auch gut optimiert werden. HL2 Lost Coast läuft selbst mit allen Einstellungen besser, als Fear wenn man nur Soft Shadowing einstellt....da schwimmt die Performance dann nur so dahin.

Wie gut packen eigentlich die GTX 512 und die X1800 Soft Shadowing momentan? Mit meiner 6800GT ist das durchgehend ruckelig ^^
 
Supermax2003 schrieb:
CSS ist auch allgemein nicht sehr Hardwarehungrig (zumindestens ab x800 und 6800 läuft das butterweich)

Die Source Engine ist vor allem CPU Fresser pur. Als ich noch nen P4 hatte, hatte ich bei vielen Mitspielern immer derbe Framedrops. Mit dem P-M performt Source schon sehr viel besser. Hab auch meistens über 100FPS, mit 1280*1024 4AA/16Af.


Also bei Source zählt primär die CPU nicht die Graka.
 
x1900

Zitat oliverM84:
Hmmm, naja, die 7800 macht mit 110nm ja schon 600MHz, ... mit 90nm wird schon noch einiges drin sein!


750Mhz sind durchaus denkbar,jedoch gepaart mit 32Pipes ein wenig hoch,aber ich lasse mich gerne überraschen.
Die x1900XTX erreicht 11680Punkte im 3DMark05 laut xtremesystems,das sind 2000Punkte mehr als ne 7800GTX 512MB:bigok: !


mfg
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh