ATI R600 [Spekulations Thread] (Part 3)

Status
Für weitere Antworten geschlossen.
gab es nicht irgendeine norm, die die länge von pci karten limitiert.
mir war so, dass hier mal gelesen zu haben...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja wenigstens haben sie die DVI Anschlüsse mit in die Länge einbezogen :fresse:
Wenn ich den lustigen Spoiler abflexe passt die Karten sogar in mein STACKER :lol:

OK Witz lass nach
Also auf dem Bild ist die Workstation Version zu sehen.
 
@Nakai

Kann es hinkommen das die X2800 XT und XL mit jeweils 23cm Länge kommen, bei der XT ein DUAL Slot Kühler verbaut ist, bei der XL sogar nur ein Single Slot Kühler.
Nur die XTX kommt anfangs mit den 30-34 cm daher, und bei breiter Verfügbarkeit unter 30cm, da anfangs die "alten" PCB´s eingesetzt werden.

PS:die XL soll doch die GTS konkurrieren, bzw. übertrumpfen, nicht wahr!!:haha:
 
1. is der Pfeil falsch .. der muss bei 34 cm bis ans ende des Spoilers!!

2. wäre die Karte allein somit 21,5 cm lang ...

3. die Kühllösung scheint so gewählt worden zu sein, dass der Lüfter kalte Luft von hinter der Karte ansaugen kann, außerdem dient der "dünne kanal" zwischen Lüfter und Kühler als Vorkammer um den Luftstrom besser leiten zu können


@nakai: stimmt das mit den 90W GPU ?
 
@ Hübi

Ich nehm dich beim Wort, wehe ich finde die in deiner Sig :)

Grüße
Sascha

Es sei denn ich kann sehr günstig eine schießen :bigok:
Habe es mit aber fest vorgenommen... Seit der 9700Pro hab ich jede Generation mitgemacht. Das nervt.


bye Hübie
 
Weiss net ob das hier schon gepostet wurde:

The sequential portion of rumors about the future graphic adapters AMD/ATI appeared in the Chinese network. According some data , AMD/ATI will release the long-awaited R600 on 8 or 9 March. In this case the name will be replaced for the graphic adapters with new generation : family radeon x2000. R600 will be released in two versions: Radeon X2800XTX Radeon X2800XT.

For X2800XTX operating frequency for GPU will be 750 MHz, and GDDR 4- memory - 2,2 GHz. the slower X2800XT graphic processor will operate at frequency 600 MHz, and GDDR 3- memory - 1,8 GHz. Radeon X2800XTX will be released in the modifications with memory volume 1 Gb and 512 mb. All adapters use a 512- bit memory interface.

It was communicated also that AMD/ATI was possible to obtain working model GPU (R680), working at frequency 1 GHz (stepping a15). If this information is accurate, then we will see this chip in graphic adapters AMD/ATI in the second generation (after R600) . Source assumes that the devices on the base of these GPU will be released in the fourth quarter of this year (although they are planned to the third quarter). Possible to name these adapters - Radeon x2850.

For more plz visit http://xtreview.com/addcomment-id-1348-view-Radeon-X2800XTX-and-X2800XT.html
 

Anhänge

  • ATI-X2000-a-nvidia-GF8.JPG
    ATI-X2000-a-nvidia-GF8.JPG
    77,2 KB · Aufrufe: 112
Zuletzt bearbeitet:
1. is der Pfeil falsch .. der muss bei 34 cm bis ans ende des Spoilers!!

2. wäre die Karte allein somit 21,5 cm lang ...

3. die Kühllösung scheint so gewählt worden zu sein, dass der Lüfter kalte Luft von hinter der Karte ansaugen kann, außerdem dient der "dünne kanal" zwischen Lüfter und Kühler als Vorkammer um den Luftstrom besser leiten zu können


@nakai: stimmt das mit den 90W GPU ?

zustimm!
ev. handelt es sich hier um eine art XTX mit sehr hohem takt.die anderen karten kommen dann mit einer kleienren kühlung daher.später kann mann dann den kühler der xtx version auch gegen einen kleineren tauschen, sofern der fertigungsprozes optimiert wird.
zumindest hätten diejenigen die ein zu kleines case haben so die option über einen wasserkühler die karte doch zu verbauen.
trotzdem sieht mir das design des lüfters recht übertrieben aus.
als würden man mit macht die längste karte (monster) auf den markt bringen wollen.fraglich ob das nicht ein faik ist!?
Hinzugefügter Post:
Weiss net ob das hier schon gepostet wurde:

The sequential portion of rumors about the future graphic adapters AMD/ATI appeared in the Chinese network. According some data , AMD/ATI will release the long-awaited R600 on 8 or 9 March. In this case the name will be replaced for the graphic adapters with new generation : family radeon x2000. R600 will be released in two versions: Radeon X2800XTX Radeon X2800XT.

For X2800XTX operating frequency for GPU will be 750 MHz, and GDDR 4- memory - 2,2 GHz. the slower X2800XT graphic processor will operate at frequency 600 MHz, and GDDR 3- memory - 1,8 GHz. Radeon X2800XTX will be released in the modifications with memory volume 1 Gb and 512 mb. All adapters use a 512- bit memory interface.

It was communicated also that AMD/ATI was possible to obtain working model GPU (R680), working at frequency 1 GHz (stepping a15). If this information is accurate, then we will see this chip in graphic adapters AMD/ATI in the second generation (after R600) . Source assumes that the devices on the base of these GPU will be released in the fourth quarter of this year (although they are planned to the third quarter). Possible to name these adapters - Radeon x2850.

For more plz visit http://xtreview.com/addcomment-id-1348-view-Radeon-X2800XTX-and-X2800XT.html

die XTX2 wäre nach der tabelle für mich sinnfrei gleiche leistung wie die 2800xtx!?
 
Zuletzt bearbeitet:
Weiss net ob das hier schon gepostet wurde:

The sequential portion of rumors about the future graphic adapters AMD/ATI appeared in the Chinese network. According some data , AMD/ATI will release the long-awaited R600 on 8 or 9 March. In this case the name will be replaced for the graphic adapters with new generation : family radeon x2000. R600 will be released in two versions: Radeon X2800XTX Radeon X2800XT.

For X2800XTX operating frequency for GPU will be 750 MHz, and GDDR 4- memory - 2,2 GHz. the slower X2800XT graphic processor will operate at frequency 600 MHz, and GDDR 3- memory - 1,8 GHz. Radeon X2800XTX will be released in the modifications with memory volume 1 Gb and 512 mb. All adapters use a 512- bit memory interface.

It was communicated also that AMD/ATI was possible to obtain working model GPU (R680), working at frequency 1 GHz (stepping a15). If this information is accurate, then we will see this chip in graphic adapters AMD/ATI in the second generation (after R600) . Source assumes that the devices on the base of these GPU will be released in the fourth quarter of this year (although they are planned to the third quarter). Possible to name these adapters - Radeon x2850.

For more plz visit [url*]http://xtreview.com/addcomment-id-1348-view-Radeon-X2800XTX-and-X2800XT.html[/url]

Jo das ist sind die listen die ich hier und im 8600er Sammelthread gepostet hatte vor ein paar nur zusammen gefügt und Grafisch dargestellt.
 
Was mich interessiert ist wie der Markt die Hochpreiskarten annimmt.
nVidia hat den Markt bis dahin recht leer gefischt, zumal die Margen bei denen schon eingefahren sind und die Preise drastisch gefallen.

Wenn dann die Kühllösung nicht überzeugt und die Karte lauter ist und 20% teurer, wird die Mehrleistung vermutlich kein Mensch interessieren, es sein denn er kühlt die karte alternativ und hat die Kohlen wirklich locker sitzen !!

ATI ist schon etwas unter Druck, bin gespannt.

Grüße
Sascha
 
trotzdem sieht mir das design des lüfters recht übertrieben aus.
als würden man mit macht die längste karte (monster) auf den markt bringen wollen.fraglich ob das nicht ein faik ist!?
Ich denke mal eher das ist gegen vergangene Kritik, dass die Karten unter Vollast immer erbärmlich laut wurden. Da hat man sich wohl gedacht: 'Wenn die nen leiseren Kühler wollen dann kriegen die ihn auch!'
Also ich denke mal eher, dass das nur zum wohle des Kunden sein wird! Die volle Länge müsste eigentlich eh jedes vernünftige ATX-Case bieten, nur da es in der Vergangenheit kaum PCI-Karten mit der vollen Länge im Endkundenbereich gibt/gab wurden die Tower halt nicht mehr darauf ausgelegt. Welcher Tower hat heute noch nen Halter für die Enden der Karte?
 
mir ist die kartenlänge egal, hauptsache "leise".
für leute welche mit wasser kühlen, spielt ja eh nur die länge des PCB eine rolle.
und so wie es derzeit ausschaut, ist das PCB kürzer als das von einer 8800 gtx karte.
 
Ich könnte mir allerdings vorstellen, dass der R600 zwar schneller, als die 8800 GTX, jedoch wesentlich teurer sein wird. von daher werde ich wohl auf die Nvidia umsteigen. Ich habe noch einen X2 4800+ (2600 Mhz), der mir dem R 600 wohl etwas überfordert sein wird. Und 600€ für ne Grafikkarte gebe ich nicht aus. Lieber die X1900 XT jetzt noch für 200€ verkaufen und eine 8800 GTX kaufen bevor sie noch mehr Wert verliert.


mfg

Ruffnax
 
Ich könnte mir allerdings vorstellen, dass der R600 zwar schneller, als die 8800 GTX, jedoch wesentlich teurer sein wird. von daher werde ich wohl auf die Nvidia umsteigen. Ich habe noch einen X2 4800+ (2600 Mhz), der mir dem R 600 wohl etwas überfordert sein wird. Und 600€ für ne Grafikkarte gebe ich nicht aus. Lieber die X1900 XT jetzt noch für 200€ verkaufen und eine 8800 GTX kaufen bevor sie noch mehr Wert verliert.


mfg

Ruffnax

vor diesem Problem stehe ich auch........:(
 
Der R600 ist ja schon sehr reizvoll, aber wie gesagt. Was mit der alten Grafikkarte machen. Solange sie noch Wert besitzt, ist es nicht so schmerzvoll jetzt eine 8800GTX zu kaufen. Tja...
 
So ein Quatsch.
Mit einem x2 4800+ könnt ihr ohne bedenken eine 8800 GTX/GTS sowie den neuen R600 nutzen.

Natürlich hat der C2D aufgrund der Architektur ein paar Punkte mehr aber wirklich groß ist der Unterschied nicht.

Bei Games ist immernoch die Grafikkarte der wichtigste Faktor.
 
Das ist schon klar, aber das Problem ist nur, dass die X1900 XT/X bis zur Vorstellung des R600 im März zuviel an Wert verloren haben wird. Außerdem steht ja ein direkter Release noch nicht fest. Mir wird das dann zu viel Geld auf einmal. Und die X1900XT in die Ecke zu stellen, wo sie gerade einmal 4 Monate alt ist, tut schon ein bisschen weh.
 
So ein Quatsch.
Mit einem x2 4800+ könnt ihr ohne bedenken eine 8800 GTX/GTS sowie den neuen R600 nutzen.

Natürlich hat der C2D aufgrund der Architektur ein paar Punkte mehr aber wirklich groß ist der Unterschied nicht.

Bei Games ist immernoch die Grafikkarte der wichtigste Faktor.

singed :)
 
Das ist schon klar, aber das Problem ist nur, dass die X1900 XT/X bis zur Vorstellung des R600 im März zuviel an Wert verloren haben wird. Außerdem steht ja ein direkter Release noch nicht fest. Mir wird das dann zu viel Geld auf einmal. Und die X1900XT in die Ecke zu stellen, wo sie gerade einmal 4 Monate alt ist, tut schon ein bisschen weh.

Da hast du Recht.

Du musst dir ja auch nicht sofort den R600 holen.
Ich hole mir immer erst dann eine neue Grafikkarte wenn es anfängt zu ruckeln und nicht mehr flüssig ist. Und mit einer X1900XT wirste da ja keine Probleme haben, denke ich? Ausser halt bei ein paar exotischen Sachen auf 1600x1200.

Warte am besten noch 3-5 Monate. Bis dahin dürften dann auch schon vernünftige Treiber für den R600 da sein und der Preis etwas gefallen sein.

Und wie schon oben erwähnt, bei einem x2 4800+ würde ich mir bei kommenden Grafikkarten für dieses Jahr überhaupt gar keine Sorgen machen.
 
Ne das mache ich auch nicht! Ich bin doch nicht bedeppert und kaufe mir einen Core 2 dann noch das Motherboard und die Ram! Schließlich noch die Grafikkarte und ich bin locker 1000€ los. Das ist unnötig. Mal schauen, denn ich bin schon scharf auf einen neue Grafikkarte. Wobei ich auch nicht sagen kann, dass ein Spiel ruckelt. Wenns eine Vernunftsache sein soll, dann müßte ich wirklich noch etwas warten. Vielleicht kaufe ich im Februar aber eine 8800 GTX. Die X1900XT ist meine 1. ATI und ich bin mehr als zufrieden. Von daher überlege ich schon auf den R600 zu warten.
 
Naja ein bisschen Sorgen sollte man scho haben. Habe neulich wieder Farcry 1.4 mit allem drum und dran gezockt. Also 1280*1024 mit HDR+AA, 4AA 16AF, alles andere auf High und so. Da merkte ich scho ziemlich die Grenzen der Karte, da der minimal Fps auf 30 herabfällt und bei Gothic oder Oblivion will ich das gar nich wissen :eek:
 
Naja, ich betrachte das Ganze ein wenig gelasen ... mir juckts zwar auch in den Fingern zwecks Aufrüsten aber ich will da erstmal gucken, wer das Beste für MICH bietet.

Ich zocke ja fast nur Battlefield 2 von daher rbauche ich ne Karte, die sich da sehr gut behaupten kann.
Meine x1900xt macht das leider nicht sehr gut mit @ 1680 x 1050 ... man möchte ja schon @ max Details spielen um einfach die Atmosphäre zu haben ;)
 
Naja, ich betrachte das Ganze ein wenig gelasen ... mir juckts zwar auch in den Fingern zwecks Aufrüsten aber ich will da erstmal gucken, wer das Beste für MICH bietet.

Ich zocke ja fast nur Battlefield 2 von daher rbauche ich ne Karte, die sich da sehr gut behaupten kann.
Meine x1900xt macht das leider nicht sehr gut mit @ 1680 x 1050 ... man möchte ja schon @ max Details spielen um einfach die Atmosphäre zu haben ;)

Deine X1900 XT schafft BF2 @max nicht? Das schafft schon eine 7800GTX512.
 
Deine X1900 XT schafft BF2 @max nicht? Das schafft schon eine 7800GTX512.

Generell gehts ... aber wenn ich auf 64er Servern zocke dann bricht die teilweise EXTREM ein, am schlimmsten, wenn noch Artillery dazu kommt oder viele Effekte ...

Zocke @ 1680 x 1050 @ max settings / ohne AA/AF !! (Karte @ 650/800 MHz)
 
die 8800gtx bringt mit nem 4800er@2.6 knapp 10K bei 3d06.
Somit bleibt entweder diese oder R600.......
wobei ich ati bevorzugen würde, aber das dauert noch soooo lang....
und die x1900* werden immer billiger.
Länger warten heißt mehr drauflegen.
 
hey leute, ich weiss nich ob ich da nur falsch denke oder ob ihr alle die fähigkeiten von grakas überschätzt, aber meiner erfahrung nach liegt sowas fast nie an der graka nur wenn sie schon richtig alt ist...
bei ner graka kommts doch in erster linie darauf an das man bestimmte effekte und funktionen überhaupt nutzen/darstellen kann, aber die performance is nur geringfügig von der graka abhängig...



kleiner vergleich (mit der selben css cfg) :

Fall 1. Opteron 170 @ 2,5 ghz mit 2 gig gskill ddr500 und x1900xt -----> Counterstrike Source video settings alles auf sternchen (grösstenteils maximum) brachte im game maximal 310 fps...

Fall 2. C2D E6600 @ default mit 2gig gskill ddr800 und der selben x1900xt
----> Counterstrike Source video settings alles auf sternchen (maximum)
gleich mal auf nem publicserver auf d2 754 fps




das is auch der grund warum ich mir auf keinenfall in nächster zeit so ne high end karte kaufe, bis es mal n paar intressante Direct x 10 games gibt vergeht noch ne zeit, bis dahin gibts viel mehr auswahl an Dx10 grakas mit gutem P/L (was man auch erst dann wissen wird), davor brauch ich einfach keine und das is doch bei den meisten hier so...
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh