Pistol Star
Semiprofi
@Remorfer
Das ist ja auch OK so
Das ist ja auch OK so
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
EDIT.: wer is nakai?
bzw. auf welchen seiten hat er gepostet? würd ich zu gern mal lesen^^
PS. diesen Post kannst ja dann wohl auch wieder löschen!
-Kannst du etwas zum Preis der X2 XTX sagen?! wird die über 1000Euro kosten??!
-Und zieht der R600 besonders in hoher Quali dem G80 davon?!
Ich weis nur eins, die Dual GPU R600 rockt alles und jeden weg. SLI G80 Good Bye Bye.... Die performance ist extremer als sie bei der GX2 von NV war. Da es nicht 2 GT like NV sondern in dem fall zum vergleich 2 GTX also eben vollwertige XTX sind...
Mal eine Frage an dich:
Warum machst du das nicht selber?
Diese Forenversion erlaubt den Usern selbst ihre Posts zu löschen.
-Also ich erwarte die X2 XTX nicht mit einem so hohem Preis, denn ich denke nicht, dass sie demnächst erscheint. Dafür wäre der Stromverbrauch eindeutig zu hoch.
-Der R600 sollte das eigentlich schon, er soll ja nicht bandbreitenlimitiert sein.
Nur in AF könnte der G80 besser dran sein, aber zu den TMUs im R600 hab ich nicht genug Infos.
mfg Nakai
So Post ist weg, man kann ja net alles Wissen, und so wusst ich halt net das es geht
das mit den nur 96 shadern ist nicht richtig, es soll wohl 2 x2 varianten geben, welche anzahl an shadern und takt die "kleine" haben wird ist noch nicht klar, aber sie soll die Gemini ersetzten(dual X2 1650XT) wird aber wohl ca von der leistung in dem segment von 2 x1950pro oder evtl auch xt liegen, ist aber auch noch nicht klar.
Aber die Gerüchte zur 240W+ Maschine kann ich definitv dementieren.
Also, was ich definitv wohl bestätigen kann ist, das die XTX in GDDR4 um einiges(nicht 1-2%) schneller ist als die aktuelle GTX und soweit ich beurteilen kann, in der performance mit der 8900GTX mit 160SU mithalten wird, da die ATI ein besseres Management hat, wieviel % das genau sind, werd ich erst auf NDA ende sagen können.
Was ich bisher weis und sagen darf, es soll als erstes die XTX mit GDDR4 und 1gb Vram kommen, mit einer sehr kurzen warte zeit auf die GDDR3 Variante die es mit 768 und 512Vram geben wird/soll.
Ich weis nur eins, die Dual GPU R600 rockt alles und jeden weg. SLI G80 Good Bye Bye.... Die performance ist extremer als sie bei der GX2 von NV war. Da es nicht 2 GT like NV sondern in dem fall zum vergleich 2 GTX also eben vollwertige XTX sind... Genaue Eckdaten habe ich, also Takt, Speicher, SU, Management, PWM´s. Nur noch nicht erlaubt der weitergabe. Ich kann nur versprechen, das ich wenn ich den darf. Euch informieren werde
Hoffe das war bisher ein wenig licht im dunkeln. Mehr kann ich nicht sagen, zumindest nicht das ich wüsste. Ihr könnt ja sachen fragen von denen ihr glaubt ob sie NDA "unsicher" sind. Werd schauen ob ich alles beantworten kann. Pics vom System kommen wohl erst auf mitte nächste woche, hab einiges um die ohren.
Gruß
FlagShip Entertainment(Hellgate: London ROxXxX)
woher weist du das sie probleme haben das marktreif zu bekommen? sie sind lediglich nur nicht zufrieden mit dem ergebnis, überlegt doch mal so, vor amd war ati halt ati, aber amd denkt auf stromspar funktionen hin, siehe CnQ oder jetzt das neue PowerManagement der neuen "K8L" wie doch genannt werden.
Die Karte wo ich hier habe ist marktreif, nur amd will sie nicht veröffentlich bis
A genug produziert sind,
B Kinderkrankheiten behoben sind und
C sie mit der TDP des Chips zufrieden sind, da wird grade extrem optimiert, was optimiert wird, fällt wieder und die NDA.
Es wird eine DUAL G80 als auch R600 geben, warum sollte es nicht machbar sein, 500watt mit 20db zu kühlen?
siehe zb die TOXIC von Sapphire, sind zwar billig waküs, reichen aber für die Karte dicke aus, evtl ne modifizierte Tidewater drauf und du hast genug kühl power für 2-3 Kerne, ohne Overclocking, da Hersteller sowieso keine garantie für OC übernehmen, sollte das ja nicht deren problem sein, ob die Karte mit dual chip sich gut ocen lässt.
OC´er greifen zur single und packen da ne singlestage drauf um die mit von mir aus 1ghz+ zu betreiben. einer der ne X2 XTX hat, wird wohl kein oc mehr brauchen die nächsten 9-18 monate. Klar, jeder wirds versuchen, aber brauchen und wollen sind 2 unterschiedliche Dinge
Okay , man darf mich schon später lauthals auslachen .....
aber ich glaube nicht zu einem frühen Zeitpunkt an eine R600 -
Dualkarte ala XTX2
* vor allem nicht als 2x vollwertige XTX
* und für nur 100€ mehr als die XTX
+ wie FlagShip vermuten lässt
Diese Informationen zusammen vertragen sich überhauptnicht.
Immer wenn es eigentlich schlechter steht um den R600 - branden
kurz danach Euphoriewellen auf - wie ach so toll er nun doch wird.
Erst beim 2800-er Modell .... nun bei der 2900-er Reihe .... ich hoffe
nicht im Mai spekulieren wir über die 3000-er Reihe und XT3 Karte.
Greetz Koyote008
@Dural: Nicht er hat sich verraten, sondern du. Man weiß jetzt nämlich daß du keine Ahnung hast. Ich weiß wie das ist wenn man Infos hat, diese aber nicht weitergeben soll.
Okay , man darf mich schon später lauthals auslachen .....
aber ich glaube nicht zu einem frühen Zeitpunkt an eine R600 -
Dualkarte ala XTX2
* vor allem nicht als 2x vollwertige XTX
* und für nur 100€ mehr als die XTX
+ wie FlagShip vermuten lässt
Flagship hat ja gesagt, sie käme erst "später"...können auch 2-3 Monate sein...wer weiss.
Und ich denke zwei runtergetaktete XTX, wie flagship meinte, bringt man bis da hin schon zusammen auf ~250 Watt runter - meine Meinung
mfg Fallen
Etwas wahres gesagt...
Ich stimme dir da zu. Jetzt wäre es viel zu früh, aber ich lass mich gerne überraschen.
Ich würde eher noch auf den 65Nm-Shrink warten.
Oder wenn beide Hersteller mitziehen sollten, wäre das sogar so früh möglich.
mfg Nakai
Leute ich habe eine Wahnsinnsneuigkeit!
Ich habe soeben die BITBOYS GPU in die Finger bekommen.
Ja kein Scheiss! Das Teil kommt nun doch noch!
Specs kann ich euch leider keine geben da ich eine NDA unterschrieben habe aber die Karte ist final und wird noch im Sommer erscheinen.
Es handelt sich um eine 65 nanometer DX 10 GPU mit 256 unified Shadern!!!
Die Karte verbrät übrigens nur 95W unter Last!
Weitere specs folgen später!
ich denke das ein preis "100Euro über XTX" nicht viel aussagtletzteres wenn man an den Preis denkt .... und für nur 100€ mehr
zu einer XTX .... geht eigentlich doch nicht.