ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
ja. aber wann kommen sie denn jetz endlich. die einen sagen erst im nächsten jahr. gamestar (glaub ich) sagt, dass sie schon mitte oktober kommen. ich weis jetz ehrlich gsagt nimma was ich machen soll. 7900gto bzw. x1900xt oder warten. ich weis die frage wurde schon x1000000 mal gstellt aber trotzdem. ich finde es unverschämt von nvidia bzw ati was sie da mit uns machen. ;) einfach keinen genauen releasetermin zu stellen.;)

mfg
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nochmal: :)
Am 18. Oktober macht nv eine Developers-Konferenz. Der einzige Grund für sowas ist der G80. Man geht davon aus, dass nach diesem Tag die Specs des G80 offiziell sind. Drei Wochen später gibt es so ein Treffen auch nochmal in Europa. Man geht davon aus, dass dann die neuen Karten offiziell in den Handel kommen.

Der R600 wird frühestens Ende Januar, aber realistischerweise erste Februar/März kommen.
 
ja. aber wann kommen sie denn jetz endlich. die einen sagen erst im nächsten jahr. gamestar (glaub ich) sagt, dass sie schon mitte oktober kommen. ich weis jetz ehrlich gsagt nimma was ich machen soll. 7900gto bzw. x1900xt oder warten. ich weis die frage wurde schon x1000000 mal gstellt aber trotzdem. ich finde es unverschämt von nvidia bzw ati was sie da mit uns machen. ;) einfach keinen genauen releasetermin zu stellen.;)

mfg

Ist doch klar, dass die das mit uns machen. Die werden sich davor hüten, uns auch noch dabei zu helfen, möglichst günstig umzusteigen und deren eigenen Umsatz zu verkleinern.
 
Die SLI Lösung 4x/16x , nach klingelts ? Ist demnach auch
der blanke Hohn , da ist ja der NFurz4 mit 8x/8X ja immernoch
sinnvoller.

Greetz Koyote008

wo bitte hab ich was von sli geschreiben? ich rede von single-card betrieb und nicht von der randerscheinung sli.

messbare vorteile bringt so vieles (vor allem teure sachen haben oft nen hübschen messbaren vorteil) aber nur bleibt davon nichts in der realität hängen. es ist einfach so das ein 16x in der realität keinen vorteil bringt gegenüber einem 8x slot. wie schon oben gesagt rede ich von single-card und nicht von sli! bei sli sieht die sache in manchen fällen etwas anders aus.
 
Wow, du hast die als eine Sample Karte organisiert und den Kühler in seine einzelteile zerlegt ... oder bist du nur Hellseherisch veranlagt ?

Nö, die Erkenntnis, daß zwei verschiedene Dinge (Wasserkanal vs. Kupfer/Heatpipe) nicht zur gleichen Zeit am gleichen Ort sein können, ist Physik 5. Klasse. :d Genauso wie ich ohne Windkanaltest sagen kann, daß ein LKW einen höheren Luftwiderstand hat als ein Opel Astra (größere Stirnfläche).

Natürlich kann nVidia die Nachteile einer solchen Lösung durch geschickte Konstruktion minimieren, aber die Vorstellung, daß eine solche Lösung allein die Vorteile von Wasser- und Luftkühlung in sich vereine, ist IMHO etwas zu optimistisch.

Den Kühler aufgrund von 3 pics abzuschreiben auf denen man GARNICHTS vom aufbau erkennen kann ist mal mehr als anmaßend :rolleyes:

Ad unum: Ich habe den Kühler nicht "abgeschrieben", sondern darauf hingewiesen, daß es sich um einen mit Nachteilen behafteten Kompromiss handelt.

Ad secundum: Die Begründung meiner Meinung war fundiert und basierte auf physikalischen Tatsachen, siehe oben.

Ad tertium: Ich schrieb ausdrücklich, daß dies meine MEINUNG wäre. Daß ich trotz meines IQs von über 150 ( ;-) ) nicht unfehlbar bin, weiß ich selbst. Anmaßend wäre es gewesen, meine Meinung als Tatsache darzustellen. Was ich aber nicht tat.

Diese Hybrid bauweise ist sicherlich nicht gerade kostengünstig - wenn das Teil nix taugt würde nVidia es nicht als Referenzkühler einsetzen.

Mein Gott, zur Zeit sind das alles sowieso noch Gerüchte, und es ist noch nicht mal sicher,

1.) Ob nVidia tatsächlich DIESEN Kühler verwendet, oder das Photo nur einen von vielen Prototypen darstellt.

2.) Wie genau die Funktionsweise dieses Kühlermodells ist. Wenn z.B. wie bei der Sapphire Toxic der Betrieb mit aktivierter Wasserkühlung zwingend ist, d.h. die Wasserkühlung eben nicht optional ist, sieht die Geschichte nämlich schon wieder ganz anders aus.
 
Ein messbarer Unterschied ist zu vernachlässigen. Da muß ein spür- und sichtbarer Unterschied sein, dass es sich lohnt. ;)

Leih mir bitte deine Glaskugel! :d


Aktuell bei einer 7900GTO im 3D05 sind es 3% zwischen 8x & 16x :drool:

Für 3% töten Nvidia vs. ATI Fanboys alle Argumente ;)

Geliehen wird die Glaskugel ned , darfst aber vorbeikommen und mal
reinschauen , Bier ned vergessen :bigok:

Greetz Koyote008
 
Ad unum: Ich habe den Kühler nicht "abgeschrieben", sondern darauf hingewiesen, daß es sich um einen mit Nachteilen behafteten Kompromiss handelt.
Hast Du den einen Beweis, dass die Bilder echt waren und genau diese Kühllösung auch tatsächlich zum Einsatz kommt? Ich habe auf xs gelesen. Da hatte einer schon ne (defekte) 8800GTX in den Händen und war vom Kühler vollauf begeistert. Wie auch immer das ging. :hmm:
Anmaßend wäre es gewesen, meine Meinung als Tatsache darzustellen. Was ich aber nicht tat.
..was du ja gerade tust:
...daß es sich um einen mit Nachteilen behafteten Kompromiss handelt
Da hätte sonst noch ein "könnte" hingemußt ;)
Aktuell bei einer 7900GTO im 3D05 sind es 3% zwischen 8x & 16x
Das ist praktisch vernachlässigbar. Da wirst Du mir wohl zustimmen.:)
Für 3% töten Nvidia vs. ATI Fanboys alle Argumente
Mag sein, ich aber nicht.

Geliehen wird die Glaskugel ned , darfst aber vorbeikommen und mal
reinschauen , Bier ned vergessen
Wenn ich mal an der Küste bin guck ich mal rein, ich bring auch Bier mit...und Thüringer Bratwürste. :bigok:
 
wieso bringen die nicht einfach eine lüftkühler version und eine volle wassergekühlte version raus für diejenigen die soweiso ne wakü benutzen?
 
um nochma auf den kühler zu sprechen zu kommen, hat damals eigendlich sapphire ihren flüssigmetall-heatpipe-kühler vorgestellt oder wurde die idee wieder eingestampft ?
 
Eingestampft!

Ich kann mir auch keinen hybriden Kühler vorstellen - beim besten Willen nicht...
 
Würde eingestampft..wenn da denn überhaupt was Wahres dran gewesen ist...
wieso bringen die nicht einfach eine lüftkühler version und eine volle wassergekühlte version raus für diejenigen die soweiso ne wakü benutzen?
Wenn ich raten darf, dann rate ich, das nv genau das machen wird!
 
ahh schade, denn die idee hat sich wirklich richtig gut angehört :shake:
 
rein spekulativ:

warum sollte Nvidia keine hypride Kühllösung bringen? wenn man sich heutige CPU- oder GPU-Kühlkörper für Wakü´s anschaut, haben sehr Gute auch sehr feine Strömungskanäle integriert. Denkbar wäre ein geschlossener Luftkühler mit integrierten Strömungskanälen, welche bei Nichtverwendung einer Wakü mit Gas gefüllt sind (Anschlußstutzen sind verschlossen, siehe Headpipes bei normalen CPU-Luftkühlern), sodas eine gute Wärmeableitung an den umgebenden Kühlkörper gewährleistet ist. Will man eine Wakü verwenden, werden die Anschlüsse geöffnet, das Gas kann entweichen und dafür fließt dann Wasser durch den Kühlkörper. Ein zurück auf reine Luftkühlung wäre dann aber nichtmehr möglich. Ich weiß, das das nicht ideal ist. Vlt. brauch ja auch kein Gas enthalten sein, denn das Luft schlecht die Wärme leitet ist klar, aber dafür ist ja der Kühler ringsherum da. und wenn die Strömungskanäle sehr fein sind, scheint mir das Wärmedefizit zu einem Vollkernkühler egal zu sein. Oft wird ja auch der Kompromiss Kupferkern-Alukühlkörper eingegangen, ist auch nicht gerade ideal zwei Metalle mit unterschiedlichem Wärmeausdehnungs- und Wärmeleitkoeffizienten zuverbinden.
 
Zuletzt bearbeitet:
Hast Du den einen Beweis, dass die Bilder echt waren und genau diese Kühllösung auch tatsächlich zum Einsatz kommt? Ich habe auf xs gelesen. Da hatte einer schon ne (defekte) 8800GTX in den Händen und war vom Kühler vollauf begeistert. Wie auch immer das ging. :hmm:

..was du ja gerade tust:
Da hätte sonst noch ein "könnte" hingemußt ;)

Das ist praktisch vernachlässigbar. Da wirst Du mir wohl zustimmen.:)

Mag sein, ich aber nicht.


Wenn ich mal an der Küste bin guck ich mal rein, ich bring auch Bier mit...und Thüringer Bratwürste. :bigok:


Nein 3% Leistungseinbuße ist nicht vernachlässigbar ,
ziehe mal 3% vom Etikett vom Bier ab ...
und man hat ausländisches Dünnbier ,
genausowenig akzeptabel !!!!!!

Thüringer Bratwürste , sehr geil , der Grill steht im Schuppen ;)

Greetz Koyote008
 
Hy
Ich brauch dringend eure Hilfe
Ich habe vor mit ein gamer laptop zu kaufen
würde damit sogar bis mitte november warten
doch kommen dann überhaupt auch schon neue grakas(g80) für notebooks?
oder is es besser jetzt ein notebook zu kaufen(eventuelle tipps welches?)

thx im vorraus
 
stell die frage besser hier im notebook forum.
in der regel kommen aber die mobile grakas immer ein paar monate später. in etwa mit den mittelklasse grakas für desktops. und die, so heißt es, werden von nvidia erst nach dem weihnachtsgeschäft angekündigt.

jetzt kaufen. da kam doch vor kurzem erst die 7700go heruas in einem asus 14" gamer notebook. mehr dazu im entsp. forum/thread.
 
Nein 3% Leistungseinbuße ist nicht vernachlässigbar ,

3% das is für mich schon im bereich von messfehlern. das muss man sich mal vorstellen: bei 100FPS wären es 3Frames unterschied, wenn es abfällt auf 30FPS wäre dann grad mal noch 1Frame unterschied... also 3% ost sogut wie nichts.

ziehe mal 3% vom Etikett vom Bier ab ...
und man hat ausländisches Dünnbier ,
genausowenig akzeptabel !!!!!!

hmmm wenn ich bier hab mit 5% und davon zieh ich 3% ab, hab ich immer noch 4,85%.... ;)
 
Im 3.Q kommt bereits die 2. Generation des R600 Chips.
Wird dann wieder so sein wie bei den X1xxx Karten:

1. Generation: X1800XT
2. Generation: X1900XTX

... und eigentlich gabs dann auch noch eine 3. Generation mit der X1950XTX.
 
Die X1950XTX ist nur der Lückenfüller um dem G80 wenigstens ein wenig entgegentreten zu können.
 
x1950 ist nur eine x1900 mit anderem Luftkühler und GDDR4. Leistung ist praktisch gleich, da gleiche GPU.
 
tippe eher auf ein struktur update,sprich verfeinerung des vertigungsprozzes.
die lassen sich ja so schon mächtig zeit, denke nicht das es so schnell schon eine neue architektur geben wird.
 
Das wäre dann 65nm, was allerdings kaum möglich sein wird da die Fabriken das Verfahren nur für "Simple" produkte anbieten - Bis die Hochkomplexe Monster GPUs produzieren können ist es mitte '07.

Und ATI ist schomal mit nem Shrink auffe :fresse: gerfallen -> X1800.
 
x1950 ist nur eine x1900 mit anderem Luftkühler und GDDR4. Leistung ist praktisch gleich, da gleiche GPU.

Die GPU Leistung ist gleich, dennoch zieht die X1950XTX z.T. nicht unerheblich einer anderen X1900er davon. Man schaue insbesondere auf die höheren Auflösungen, hier macht sich die Speicherbandbreite bezahlt.
 
also 65nm im jahr 2007 nur für mid range höchstens
für high end wird das jahr 2007 in 80nm seine fahrt haben
im jahr 2008 dann endlich 65nm für high end und 45nm für mid range und low end :)
dann kommt S3 wieder mit nem monster mit sau hohen takt frequenzen um geld zu sparen :)
 
Afair hat nVidia doch Computerbase geschrieben das es sich bei den erschienen Bildern um ältere Geforce Karten im Entwicklungsstand handelt.
Ich such mal, ob ichs wieder find.
/€:
Sehr geehrte Damen und Herren,

der Computer Base Site, diese Abbildungen entsprechen in keinster Weise dem Referenzdesign einer g80 GPU. Die Karte was Sie hier darstellen entspricht einem Vorserien Testmuster der 6800 Ultra vom Jahre 2004. Infos zur G80 GPU in wenigen Wochen auf Nvidia.com

mfg

Jens Neuschäfer
Pres. Nvidia.Europe
Stand bei den Kommentaren in den Computerbase-News. Keine Ahnung ob echt.
 
Zuletzt bearbeitet:
Was heißt denn: "Q107 R600 DX10 USA ... Q307 ..."?

Gibt's den R600 erst nur in den USA und erst im dritten Quartal dann bei uns?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh