ATI R600 [Spekulations Thread] (Part 3)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
dann will ich hier zumindest nochmal anmerken das man flagships angaben mit höchster vorsichtig geniessen sollte ;) aber das sieht man wohl selbst, denke ich
 
@Remorfer

Anmachereien, off topics und Fangelaber wird es in solchen Threads immer geben.

Nur neue News zum R600 wird es auch nicht nur geben. Wir wollen ja auch was dazu sagen und unsere Infos aus dem Thread ziehen.

Mfg

Pistolenstern
 
Zuletzt bearbeitet:
@Pistol Star,

solange über die News diskutiert wird, soll mir das Recht sein, aber es artet immer aus in Nv vs Ati und wie schlecht es AMD/ATI geht.... Das braucht man hier nicht..... Ich habe selber ne Nvidia-Karte drin.... aber neue Technologie interessiert mich immer.... Die Kunden sind bei Konkurrenz immer die Gewinner....
Lass uns also hoffen, die R600 wird gut.....
Und jetzt BTT, oder ich muss auch noch meine eigenen Posts löschen ;)

Greetz,

RM
 
@ FlagShip

ich hoffe du liest meine frage noch :d

hast du die "oem karte" oder bereits die "retail karte"?

ich glaube du hast die retail..

- kannst du etwas über die lautstärke des lüfters sagen?
- wie heiß wird die karte unter volllast laut ATi CCC?
- hast du crossfire ausprobiert?

ich weiß nicht wie weit ATi schon mit dem Treiber ist, vielleicht funktioniert crossfire und die temperaturauslesung noch nicht. aber fragen kostet nichts :d

kann mir sehr gut vorstellen das FlagShip solche karten in der firma hat, warum auch nicht?

bin mir sicher das die jungs von crytek also die macher von crysis :d auch bereits solche karten haben... ohne direct 3d 10 karten, kann man keine spiele darauf optimieren...
 
@starkpc.com
es sieht so aus als hätte FlagShip ne OEM!
zumindest sieht sein Avatar bzw. das Bild so aus wie das ATI Logo was auf dem grauen OEM Lüfter drauf ist, ...
Zumindest machts mächtig den Eindruck, kann aber auch sein das die Retail Karten auch so dunke Graue Plastik Lüfterhalterung haben!
 
Zuletzt bearbeitet:
EDIT.: wer is nakai?

bzw. auf welchen seiten hat er gepostet? würd ich zu gern mal lesen^^

Das bin ich.:d

Ich will dich wirklich nicht anmachen, ich hätte gern auch einen R600 in den Händen. Da mein Beitrag wohl gelöscht wurde, fällt er wohl unter das NDA.

Was willst du eigentlich wissen?:xmas:
Weißt was, du bekommst ne PN von mir...

mfg Nakai
 
@flagship

Hoffentlich schaust du doch wieder mal in diesen "geziemten" Tread rein und liest meine Fragen^^:

-Kannst du etwas zum Preis der X2 XTX sagen?! wird die über 1000Euro kosten??!
-Und zieht der R600 besonders in hoher Quali dem G80 davon?!
 
PS. diesen Post kannst ja dann wohl auch wieder löschen!

Mal eine Frage an dich:
Warum machst du das nicht selber?
Diese Forenversion erlaubt den Usern selbst ihre Posts zu löschen.

-Kannst du etwas zum Preis der X2 XTX sagen?! wird die über 1000Euro kosten??!
-Und zieht der R600 besonders in hoher Quali dem G80 davon?!

-Also ich erwarte die X2 XTX nicht mit einem so hohem Preis, denn ich denke nicht, dass sie demnächst erscheint. Dafür wäre der Stromverbrauch eindeutig zu hoch.

-Der R600 sollte das eigentlich schon, er soll ja nicht bandbreitenlimitiert sein.
Nur in AF könnte der G80 besser dran sein, aber zu den TMUs im R600 hab ich nicht genug Infos.

mfg Nakai
 
@Nakai
Danke für die Antworten ;)

Wird die X2 XTX wohl mit PCI-e 2 kommen - sonst müsste man ja ca. 3 oder 4 PCI-E Stromanschlüsse anbringen, was ich ein "bisschen" übertrieben finde :P
 
Ich weis nur eins, die Dual GPU R600 rockt alles und jeden weg. SLI G80 Good Bye Bye.... Die performance ist extremer als sie bei der GX2 von NV war. Da es nicht 2 GT like NV sondern in dem fall zum vergleich 2 GTX also eben vollwertige XTX sind...


Ich könnte mir schon vorstellen das es eine "X2 XTX" gibt oder geben wird aber was ich nicht glaube ist, das sie zwei vollwertige XTX Chips haben soll/wird.
Ich denke eher da wird ein wenig an den SU´s gespart und ein wenig der Takt runtergeschraubt und noch so Kleinigkeiten und dann könnte das klappen.
Denn zwei vollwertige XTX Chips mit schätzungsweise 130W - max. 180W x2 ist doch schon sehr extrem.
 
Nunja, da sich verdammt viele User per pm melden und mich bitten so kommentare zu ignorieren und mehr infos preis zu geben...

Will ich mal nicht so sein...

die X2 XTX wird bisher wohl ca 100€ über der single chip karte angesiedelt werden, aber da ist man sich bisher nicht einig, über das genauere desgin der karte darf ich aber leider nichts sagen. Also ob GX2 Style mit 2 PCB´s oder Monster Wakü in der Tasche etc. sie wird kein Heizofen, das sei gewiss. Die 240W TDP beziehn sich auf die Kühlleisung der Kühlung nicht auf der verbratenen Verbrauch der Karte selbst. Daher kann sein, das man sehr stark oc spielraum hat oder die karte wirklich 240watt braucht.

SPOILER: Alle dies nicht wissen wollen weg gucken... Die X2 XTX wird 2 Vollwertige XTX´en beinhalten, aber mit reduziertem takt. Wie stark der reduziert wird, ist aber bisher auch mir nicht klar, da wird noch berechnet was man den IC´s auf dauer abverlangen will und wird.

Aber die Gerüchte zur 240W+ Maschine kann ich definitv dementieren.
 
Zuletzt bearbeitet:
Mal eine Frage an dich:
Warum machst du das nicht selber?
Diese Forenversion erlaubt den Usern selbst ihre Posts zu löschen.



-Also ich erwarte die X2 XTX nicht mit einem so hohem Preis, denn ich denke nicht, dass sie demnächst erscheint. Dafür wäre der Stromverbrauch eindeutig zu hoch.

-Der R600 sollte das eigentlich schon, er soll ja nicht bandbreitenlimitiert sein.
Nur in AF könnte der G80 besser dran sein, aber zu den TMUs im R600 hab ich nicht genug Infos.

mfg Nakai


So Post ist weg, man kann ja net alles Wissen, und so wusst ich halt net das es geht :(

Neja egal

Zur DualKarte!
Warum sollte denn der Stromverbrauch zu hoch sein???
Wenn man ein Crossfire mit 2 Karten Betreiben kann, dann ist auch eine DualKarte möglich!
Zumindest theoretisch!

Ob das Sinnvoll ist oder nicht, darüber lässt sich streiten, ...
 
Die X2 Karte hat doch bloß zwei R600 mit 96 Shader Units und 256Bit Speicherinterface pro Chip inkl. 1024MB GDDR4 Speicher, denn 2 Vollwertige R600 sind mit Sicherheit schwerer umzusetzen.
Wenn das stimmt sollte diese Karte nicht mehr verbrauchen, wie 2* X1950 XTX.
Oder wie siehst du das Flagship?
 
Zuletzt bearbeitet:
das mit den nur 96 shadern ist nicht richtig, es soll wohl 2 x2 varianten geben, welche anzahl an shadern und takt die "kleine" haben wird ist noch nicht klar, aber sie soll die Gemini ersetzten(dual X2 1650XT) wird aber wohl ca von der leistung in dem segment von 2 x1950pro oder evtl auch xt liegen, ist aber auch noch nicht klar.

Ps.: hab mal nach oben angefragt, was ich an Specs weitergeben darf. Also das was schon 100% sicher ist.

Ich meld mich sobald ich ne verfügung dazu bekommen habe.
 
So Post ist weg, man kann ja net alles Wissen, und so wusst ich halt net das es geht

Ja okay, war von mir wohl etwas zu hart gesagt, sry.;)

das mit den nur 96 shadern ist nicht richtig, es soll wohl 2 x2 varianten geben, welche anzahl an shadern und takt die "kleine" haben wird ist noch nicht klar, aber sie soll die Gemini ersetzten(dual X2 1650XT) wird aber wohl ca von der leistung in dem segment von 2 x1950pro oder evtl auch xt liegen, ist aber auch noch nicht klar.

Ansonsten wäre die Karte kaum schneller als die XTX-Version.

Aber die Gerüchte zur 240W+ Maschine kann ich definitv dementieren.

Geht ja auch schlecht, wenn die Stromversorgung max 225 Watt liefert. Ich schätze wie immer 180 Watt, aber es kann auch gerne weniger werden.



mfg Nakai
 
Also, was ich definitv wohl bestätigen kann ist, das die XTX in GDDR4 um einiges(nicht 1-2%) schneller ist als die aktuelle GTX und soweit ich beurteilen kann, in der performance mit der 8900GTX mit 160SU mithalten wird, da die ATI ein besseres Management hat, wieviel % das genau sind, werd ich erst auf NDA ende sagen können.

Was ich bisher weis und sagen darf, es soll als erstes die XTX mit GDDR4 und 1gb Vram kommen, mit einer sehr kurzen warte zeit auf die GDDR3 Variante die es mit 768 und 512Vram geben wird/soll.

Ich weis nur eins, die Dual GPU R600 rockt alles und jeden weg. SLI G80 Good Bye Bye.... Die performance ist extremer als sie bei der GX2 von NV war. Da es nicht 2 GT like NV sondern in dem fall zum vergleich 2 GTX also eben vollwertige XTX sind... Genaue Eckdaten habe ich, also Takt, Speicher, SU, Management, PWM´s. Nur noch nicht erlaubt der weitergabe. Ich kann nur versprechen, das ich wenn ich den darf. Euch informieren werde ;)

Hoffe das war bisher ein wenig licht im dunkeln. Mehr kann ich nicht sagen, zumindest nicht das ich wüsste. Ihr könnt ja sachen fragen von denen ihr glaubt ob sie NDA "unsicher" sind. Werd schauen ob ich alles beantworten kann. Pics vom System kommen wohl erst auf mitte nächste woche, hab einiges um die ohren.

Gruß

FlagShip Entertainment(Hellgate: London ROxXxX)


woher weist du das sie probleme haben das marktreif zu bekommen? sie sind lediglich nur nicht zufrieden mit dem ergebnis, überlegt doch mal so, vor amd war ati halt ati, aber amd denkt auf stromspar funktionen hin, siehe CnQ oder jetzt das neue PowerManagement der neuen "K8L" wie doch genannt werden.

Die Karte wo ich hier habe ist marktreif, nur amd will sie nicht veröffentlich bis
A genug produziert sind,
B Kinderkrankheiten behoben sind und
C sie mit der TDP des Chips zufrieden sind, da wird grade extrem optimiert, was optimiert wird, fällt wieder und die NDA.

Es wird eine DUAL G80 als auch R600 geben, warum sollte es nicht machbar sein, 500watt mit 20db zu kühlen?
siehe zb die TOXIC von Sapphire, sind zwar billig waküs, reichen aber für die Karte dicke aus, evtl ne modifizierte Tidewater drauf und du hast genug kühl power für 2-3 Kerne, ohne Overclocking, da Hersteller sowieso keine garantie für OC übernehmen, sollte das ja nicht deren problem sein, ob die Karte mit dual chip sich gut ocen lässt.

OC´er greifen zur single und packen da ne singlestage drauf um die mit von mir aus 1ghz+ zu betreiben. einer der ne X2 XTX hat, wird wohl kein oc mehr brauchen die nächsten 9-18 monate. Klar, jeder wirds versuchen, aber brauchen und wollen sind 2 unterschiedliche Dinge ;)

Wie kann man eigentlich nur so viel blödsinn erfinden.... aber hey eine 500Watt Grafikarte ist ja locker möglich, Kühlung kein problem einfach ne WaKü drauf. Strom Verbrauch easy möglich, man bekommt zur Karte ja ein neues 2000Watt Netzteil dazu :lol: und die Karte hat so viel Leistung wie zwei 8900GTX mit 160SU, alles klar...

Mit diesen Aussagen hast du dich gerade selber Verraten :wall:
 
@Dural
was willst du denn mit 500W?
Die 240W sind die TDP Angabe für den Kühler und das wurde bestimmt hier schon 1000 mal gesagt!

Die Karte wird sich wohl in etwa im Stromverbauch leicht über der GTX einfinden!
Und wenn es Leute gibt die zwei der GTX verbauen, dann könnten die Leute auch ne Dual Karte einsetzen!

Wenn du das nicht glauben willst, dann lass es doch sein und verbreite hier nicht so einen Mist!

Wie sich der R600 gegen ne G80 platziert wissen wir noch nicht, außer die jenigen die ne Karte haben.
Und wenn dich das anpisst das es schon Leute gibt die über nähere Infos verfügen, diese aber wegen NDA nicht sagen dürfen dann bemühe dich doch auch um so eine Stelle!
Aber lass deine beknackten Kommentare stecken, ...

Wir sollten uns wohl eher Glücklich schätzen das es überhaupt Leute hier gibt, die uns über Infos versorgen!
Ob ihr diese Infos nun glaubt oder net, ist ja jedem selbst überlassen, aber es ist totaler Bockmist jede Info doppelt und dreifach mit irgendwelchen Unterstellungen zu Kommentieren, ...

So ich habe fertig, ...
 
Zuletzt bearbeitet:
Okay , man darf mich schon später lauthals auslachen .....

aber ich glaube nicht zu einem frühen Zeitpunkt an eine R600 -
Dualkarte ala XTX2

* vor allem nicht als 2x vollwertige XTX
* und für nur 100€ mehr als die XTX

+ wie FlagShip vermuten lässt

Diese Informationen zusammen vertragen sich überhauptnicht.

Immer wenn es eigentlich schlechter steht um den R600 - branden
kurz danach Euphoriewellen auf - wie ach so toll er nun doch wird.

Erst beim 2800-er Modell .... nun bei der 2900-er Reihe .... ich hoffe
nicht im Mai spekulieren wir über die 3000-er Reihe und XT3 Karte.


Greetz Koyote008
 
Zuletzt bearbeitet:
@Dural: Nicht er hat sich verraten, sondern du. Man weiß jetzt nämlich daß du keine Ahnung hast. Ich weiß wie das ist wenn man Infos hat, diese aber nicht weitergeben soll.
 
Okay , man darf mich schon später lauthals auslachen .....

aber ich glaube nicht zu einem frühen Zeitpunkt an eine R600 -
Dualkarte ala XTX2

* vor allem nicht als 2x vollwertige XTX
* und für nur 100€ mehr als die XTX

+ wie FlagShip vermuten lässt

Diese Informationen zusammen vertragen sich überhauptnicht.

Immer wenn es eigentlich schlechter steht um den R600 - branden
kurz danach Euphoriewellen auf - wie ach so toll er nun doch wird.

Erst beim 2800-er Modell .... nun bei der 2900-er Reihe .... ich hoffe
nicht im Mai spekulieren wir über die 3000-er Reihe und XT3 Karte.


Greetz Koyote008


Flagship hat ja gesagt, sie käme erst "später"...können auch 2-3 Monate sein...wer weiss.

Und ich denke zwei runtergetaktete XTX, wie flagship meinte, bringt man bis da hin schon zusammen auf ~250 Watt runter - meine Meinung

mfg Fallen
 
@Dural: Nicht er hat sich verraten, sondern du. Man weiß jetzt nämlich daß du keine Ahnung hast. Ich weiß wie das ist wenn man Infos hat, diese aber nicht weitergeben soll.

Etwas wahres gesagt...:bigok:

Okay , man darf mich schon später lauthals auslachen .....

aber ich glaube nicht zu einem frühen Zeitpunkt an eine R600 -
Dualkarte ala XTX2

* vor allem nicht als 2x vollwertige XTX
* und für nur 100€ mehr als die XTX

+ wie FlagShip vermuten lässt

Ich stimme dir da zu. Jetzt wäre es viel zu früh, aber ich lass mich gerne überraschen.
Ich würde eher noch auf den 65Nm-Shrink warten.
Oder wenn beide Hersteller mitziehen sollten, wäre das sogar so früh möglich.

mfg Nakai
 
Flagship hat ja gesagt, sie käme erst "später"...können auch 2-3 Monate sein...wer weiss.

Und ich denke zwei runtergetaktete XTX, wie flagship meinte, bringt man bis da hin schon zusammen auf ~250 Watt runter - meine Meinung

mfg Fallen


Ja .... später ... ... spekulativ 2-3 Monate .... würde auch Preis
relativieren ... aber nur zum Releasepreis der XTX .... das ist
ein falscher Ansatz.

Eine XTX2 müsste alle Register ziehen ... wahrscheinlich ein Shrink auf
65nm ... GDDR4 ... und eher ein beschnittener Chip statt einen
schlechter getakteten "XTX"-ler ....

letzteres wenn man an den Preis denkt .... und für nur 100€ mehr
zu einer XTX .... geht eigentlich doch nicht.

Genauso die Aussage eine XTX mit 768MB bei 512Si .... ich habe nicht
voll die Peilung ... das geht doch technisch garned ??

Greetz Koyote008
 
Leute ich habe eine Wahnsinnsneuigkeit!

Ich habe soeben die BITBOYS GPU in die Finger bekommen.
Ja kein Scheiss! Das Teil kommt nun doch noch!

Specs kann ich euch leider keine geben da ich eine NDA unterschrieben habe aber die Karte ist final und wird noch im Sommer erscheinen.

Es handelt sich um eine 65 nanometer DX 10 GPU mit 256 unified Shadern!!!
Die Karte verbrät übrigens nur 95W unter Last!

Weitere specs folgen später!

:lol:


Edit: Damit dies nicht zu offtopic ist hier noch was über den R600.
Neuesten Gerüchten zufolge hat der R600 nun doch 160 Shader!!! Er wird den G80 ganz grausam vernichten!
Das ist Fakt!!!!!!!


Euch ist schon klar das Flagship die NDA schon gebrochen hätte nur dadurch,daß er preisgibt solch eine Karte zu besitzen.
 
Zuletzt bearbeitet:
Etwas wahres gesagt...:bigok:



Ich stimme dir da zu. Jetzt wäre es viel zu früh, aber ich lass mich gerne überraschen.
Ich würde eher noch auf den 65Nm-Shrink warten.
Oder wenn beide Hersteller mitziehen sollten, wäre das sogar so früh möglich.

mfg Nakai

Ich sehe in einer Dual Karte nicht so das Problem und vom Stromverbrauch schon gar net!
Mich stellt nur die Frage wie die Karte aussehen wird, denke sie wird entweder länger bzw. Full-Size :eek: oder sie wird ne Doppelkarte!
Wobei ich denke das ne längere Karte besser zu Kühlen ist als ne Doppelkarte!
Denn da ist der Abstand ja bekanntlich ziemlich gering!

Aber nochmal was anderes
Gab doch damals Infos das das Top Modell in FullSize only kommen soll!
Glaube von CB waren die Infos!
Das wurde immer Abgestritten von vielen, mit dem Argument das se OEM sein soll!
Aber ich glaube das net so richtig, ne Karte mit FullSize PCB bietet auch deutlich mehr Platz für nen längeren Kühlblock!

die XTX wird aber mit kurzen und langen PCB kommen!
Würde ja bedeuten das es noch was über der XTX geben muss, also halt ne Dual GPU Karte.
Was meint ihr denn dazu?
 
Leute ich habe eine Wahnsinnsneuigkeit!

Ich habe soeben die BITBOYS GPU in die Finger bekommen.
Ja kein Scheiss! Das Teil kommt nun doch noch!

Specs kann ich euch leider keine geben da ich eine NDA unterschrieben habe aber die Karte ist final und wird noch im Sommer erscheinen.

Es handelt sich um eine 65 nanometer DX 10 GPU mit 256 unified Shadern!!!
Die Karte verbrät übrigens nur 95W unter Last!

Weitere specs folgen später!

:lol:


Gehört dann aber nicht in diesen Thread .... musst Du wohl einen
neuen aufmachen ;)

Greetz Koyote008
 
letzteres wenn man an den Preis denkt .... und für nur 100€ mehr
zu einer XTX .... geht eigentlich doch nicht.
ich denke das ein preis "100Euro über XTX" nicht viel aussagt

wenn eine dual kommen sollte, dann kommt sie später und nicht gleich
also ist die XTX dann im preis gefallen und es tut sich ein spielraum nach oben auf

vielleicht kommt so eine dual-karte ja, wenn die XTX 400-450euro kostet und die dual dann 650-700euro
damit liegt sie dann 100euro über der XTX bei einführung

gruß klasse
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh