ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es sieht so aus, als wenn der Aufkauf von ATI, ATI etwas ruiniert. Der RD600, der Mainboard-Chipsatz, wird Gerüchten zufolge von keinem bzw. wenigen Mainboardherstellern verbaut, da Intel seine Finger im Spiel hat. Eine Millioneninvestition geht da wohl den Bach runter. Und die derartige Verspätung der R600, wenn es nun wahr ist, wäre auch nicht gerade so gut fürs Geschäft...
 
Some people are saying that it will have 96 pipes, split as 48 DX9 pipes and 48 DX10. While this may sound like a huge number, we are told if this is the case, it is unlikely that you can use both at the same time. Think a 48 or 48 architecture. That said, I kind of doubt this rumor, it makes little sense.

Boah ist das eine einfallsreiche Spekulation, 96 Pipelines - also einen Plan von rentierbarer Wirtschaftlichkeit haben die Spekulanten zumindest nicht gehabt.
Das Gerücht ist ja noch schlimmer als bei ATI's R520 mit 32 Pipelines.

Interesannter find ich da die Spekulation über den Speicher, das wäre doch mal was neues - aber auch hier kann ich nur sagen, Spekulation also ... so take this with a pretty big grain of salt.
 
hm ich finde es nicht schlimm das ati später kommt da sie "bessere" technologie verbaut haben.
ich weis nicht wie ihr das seht aber für mich is USA eine kaufentscheidung
natürlich spielen die abwärme und die endgültige leistung auch eine rolle
mfg ping
 
Bud Spencer schrieb:
Bei 2D-Anwendungen du Schlaumeier. Word, etc. Aber hmm... ich finde den Artikel nicht. Ich meine aber soetwas mal gelesen zu haben. Es ging in diesem Artikel auch um die Diskussion, weshalb der DualCore-Gedanke noch nicht bei Grafikkarten gekommen ist... Aber auch egal, schließlich sind wir in der Gerüchteküche... Sinn würde es schon machen...

Edit:

Korrigiere, das Gespräch ist zwischen Golem.de und Ati gewesen:
http://www.golem.de/0608/47044.html

Das mit den abschaltbaren Kernen ist wohl von Gerüchten über Intel und AMD hängengeblieben. Sry für die Falschmeldung.

Mir war schon klar das du 2D Anwendungen gemeint hast. Nur was würde das bringen? Stell dir eine Ultra High End Karte vor die in 2D 20W verbraucht und in 3D 300W. Wenn du mit der Karte nicht überwiegend Office Anwendungen fährst, dann bringt es einem Gamer nichts...
Das meinte ich.

Bud Spencer schrieb:
Vor allem die vollen 64 Pipelines der R600 gabs nicht einmal ansatzweise. Die heutigen Karten haben eigentlich 16 (x3 Shader pro Pippe bei ATI) und 24 (bei NVIDIA werden irgendwie 2 Shader pro Pipe bearbeitet). Also können bei heutigen Karten insgesamt 48 Shader bearbeitet werden (in einem Takt!?). Die kommenden schaffen 64 (R600) und zwar bei vollen Pipes... Wenn das nicht einen Schub gibt...

64 Pipes zu je einem Shader sind nur ein Inquirer Gerücht.

Den G70/G71 und den R580 kann man nicht so gut vergleichen in der Hinsicht.
Die Shader sind sind Unterschiedlich organisiert.

Beide können Multiplizieren und Addieren ( MUL + ADD = MADD), der R580 kann aber auch nur eines der beiden falls nötig...
Google mal danach, ist etwas kompliziert, deshalb würde ich auf Inquirers gerüchte in der Hinsicht nicht viel geben.
Ausserdem können die Inquirer Leute nicht mal Englsich, ich kriege jedesmal Kopfschmerzen beim lesen...
 
Zuletzt bearbeitet:
werd mir wahrscheinlich auch demnächst noch ne 7900GS oder 7950GT zulegen,
erstens weil ich jetzt im Winter Zeit zum zocken hab und ich wenigstens auf R600 warten würde um zu sehen wer im endefekt besser ist ;)

und bis bezahlbare Modelle rauskommen wirds sicher noch Frühjahr07

wobei die ja jetzt mit dem Aufguss der alten Chips nur noch mal abkassieren wollen ;) vlt. ja auch deswegen die Verzögerungen ;) und wahrscheinlich auch deswegen die Verschwiegenheit über Details und Pläne über neue Produkte

@cl55amg: danke für den Hinweis, dann werd ich die Texte lieber nicht für die Verbesserung meiner EnglischKentnisse nutzen^^

@ping: Das bessere/einzigste Produkt kommt halt leider häufig aus USA ;(

und das AMD an den Verzögerungen am R600 Schuld hat halt ich erst Recht für ein Gerücht!
 
Möchte ja z.B. auch eine Karte der Next-Gen Mir ist es eigentlich auch egal, ob es jetzt ein externes Netzteil hat, wenn ich ehrlich bin. Es hat aber auch einen bitteren Nebengeschmack...
Einen bitteren Nebengeschmack hätte HDR ohne AA, oder ein lauter nerviger Lüfter, aber doch kein Netzteil. :hmm:

Also können bei heutigen Karten insgesamt 48 Shader bearbeitet werden (in einem Takt!?). Die kommenden schaffen 64 (R600) und zwar bei vollen Pipes... Wenn das nicht einen Schub gibt...
Die beiden Chips lassen aber auch schon ewig auf sich warten...

@ping: Das bessere/einzigste Produkt kommt halt leider häufig aus USA ;(
:fresse: Ich glaube er redet von Unified Shader Architecture, nicht von den Vereinigten Staaten. :fresse: Man sagt auch "einzige", nicht "einzigste." ;)
 
Zuletzt bearbeitet:
hmm ati bekommt das weinachtsgeschäft nicht mit, naja hoffe nvidia beeilt sich dennoch..
 
Das ist sehr schlecht für ATI. Das haben sie letztes Jahr auch versaut. Auch wenn uns Freaks das egal ist, aber die PCs werden Weihnachten gekauft und geschenkt, im Januar/Februar ist der Bürger traditionell eher klamm. Selbst wenn der R600 eine viel bessere Karte wird, kann nv dann nur drüber lächeln, da sie mit dem G80 soviel Gewinn eingefahren haben um sich entspannt auf den Refresh vorzubereiten.
 
jop hast schin recht bassmecke
wieso verspäten sich immer alle hersteller :(
hätte ich dass damals gewusst häte ich mir eine 7600gs als übergang gekauft... was solls nochmal 10 wochen auf verfügbarkeit in shops warten...
 
Jup und ich warte auf dem R600 da ich jetz vom Nvidia Fanboy zum Ati Fangirl rübergewechselt bin will ich auch wieder ne ati ! werde mir zwar jetz noch fürn jahr die 7900GS kaufen und wenn sie nicht mehr reicht kauf ich mir dann nächstes jahr DEN R600 Chip.

mfg Sascha
 
kauf ich mir dann nächstes jahr DEN R600 Chip
Also ich kaufe nur komplette Karten. :fresse: :d
Bei ATI mache ich mir wegen dem Treiber für Widescreen etwas Sorgen. Da gabs bisher bei manchen TFTs Probleme...und ich hab dann nen Widescreen.
 
Bis dahin habe ich auch nen Widescreen :fresse: und ja ich meine ja die ganze karte ;) inclusive chip natürlich :P hehe
 
w0mbat schrieb:
:wall:
Ähm, die X1950 XTX kostet beim billigsten Anbieter ~375€, die billigste 7950GX² kostet ~470€. Wenn nach deiner Rechnung die X1950 XTX also teurer als die 7950GX² ist kann ich dir auch nicht mehr helfen :stupid:

ich rede ja auch von der 7900GX2, les mal richtig :rolleyes:

und die ist billiger, und es gibt noch immer so viele, dass ich sogar 2 habe, eine für mich und eine für meinen Freund, hole ich am Samstag ab :wink:
 
ich glaube ich habe ein dickes prob :(
laut diesem watt verbrauchs rechner
http://www.extreme.outervision.com/psucalculator.jsp
brauch mein jetziges system schon 398W :(
mit einer X1950XTX Brauch mein system schon 515W :(
und der G80 wird sehr viel mehr strom brauchen
habe mein Liberty Enermax 500W NT erst vor 3 monaten gekauft, hab kein bock mir wieder n neues 100 euro NT zu kaufen :(
shit was mach ich jetzt ? falls ich ocen will ist selbst mit einer 7900GTX nicht mehr viel platz
mit einer 7900GTX brauch mein system 462W :(
werde ich wohl oder übel eine 7950GT kaufen müssen und hoffen das der refresh vom G80 nur noch so 130W brauch wie die 6800Ultra dann wäre der verbauch auf 443W :d

hat jemand von euch auch solche enegry probs ?
 
Erst mal abwarten, Mach mal nicht die Pferde scheu. Es gibt Leute, die haben mit 600W NTs übertaktete Quad-SLI-Systeme laufen. ;)

Edit: Nach der Messung würde mein Rechner 470W brauchen. Tatsächlich würde mein 480W Netzteil auch ein 7900GTX-SLI noch ausreichend versorgen. Also Schwachsinn. Ignoriere das. ;)
 
Zuletzt bearbeitet:
bassmecke schrieb:
Erst mal abwarten, Mach mal nicht die Pferde scheu. Es gibt Leute, die haben mit 600W NTs übertaktete Quad-SLI-Systeme laufen. ;)
naja falls ich noch ne raptor rein setze oder etwas anderes was ähnlich viel strom schluckt stehe ich da oder hab in 3d modes frezzes.... ich denk mal ich besorg mir ne 7950GT und warte auf den G80 refresh da dieser zu viel strom schluckt für mein sys :( hätte ich nie mit gerechnet, aber wenn eine x1900xtx schon zu viel schluckt und der G80 Extrem mehr schluckt komm ich sicher an die 600W und mein system ist nicht übertaktet, wollte eig noch die 2 cpu,s auf 2,5 GHZ takten....
 
externes NT wär zu ineffizient, die strom rechnung kann ich mir nicht erlauben :d
ich denke ich schaff mir demnächst eine 7950GT an und schaue dann mal in 6 monaten nach nem G80 refresh der in 80nm kommt und sparsamer ist (hoffentlich) bei der 6800Ultra kahm kein refresh, könnte beim G80 wieder der fall sein, daher mit der 7950GT würde ich auch bis zur Geforce 9 Generation aus kommen falls kein refresh kommt, und ab der geforce 9 werden die karten sparsamer weil dann die sachen eintreten die Nv und ATI jetzt in den interviews besprechen.
 
Night<eye> schrieb:
ich glaube ich habe ein dickes prob :(
laut diesem watt verbrauchs rechner
http://www.extreme.outervision.com/psucalculator.jsp
brauch mein jetziges system schon 398W :(
mit einer X1950XTX Brauch mein system schon 515W :(
und der G80 wird sehr viel mehr strom brauchen
habe mein Liberty Enermax 500W NT erst vor 3 monaten gekauft, hab kein bock mir wieder n neues 100 euro NT zu kaufen :(
shit was mach ich jetzt ? falls ich ocen will ist selbst mit einer 7900GTX nicht mehr viel platz
mit einer 7900GTX brauch mein system 462W :(
werde ich wohl oder übel eine 7950GT kaufen müssen und hoffen das der refresh vom G80 nur noch so 130W brauch wie die 6800Ultra dann wäre der verbauch auf 443W :d

hat jemand von euch auch solche enegry probs ?


Laut dem Test wegen dem Watt Verbrauch hat mein system in der Sig 418W, und ich habe nur ein 400W Netzteil, also das ist sehr ungenau :stupid:
 
Blackpitty schrieb:
Laut dem Test wegen dem Watt Verbrauch hat mein system in der Sig 418W, und ich habe nur ein 400W Netzteil, also das ist sehr ungenau :stupid:
trice hat den test auch gemacht nd er kommt auf 198w und dass finde ich sehr realistisch,
beim übertakten wird der strom verbauch bei dem programm äusserst heftig angezeigt.
 
Zuletzt bearbeitet:
am besten sollte man auf das ganze graka gedöhns scheissen und warten bis die die grafik in nem zusätzlichen cpu berechnen können durch intels quadro wären ja schonmal kerne frei ^^

und der unterschied wäre laut nem bericht von inquire sehr viel höher als mit ner externen graka cahce und so spässe das soll angeblich der graka speicher abstinken
 
Ich habe mit meiner X1900 XT insgesamt 349W, mein 480W NT reicht also noch eine Weile :)
 
die reden wohl von von einem billig 5oo Watt LC Netzteil bei diesem Watt Berechner :) Da muss man dann halt auf das nächst höhere setzen. Kauft man sich ein gutes Markennetzteil, kann man den WattRechner wohl vergessen :)
 
Wenns stimmt das der G80 ein extra Grafikkarten-Netzteil bekommen sollte
dann klappts auch mit den billig Nts´
 
also nochmal zum weihnachtsgeschäft
ich find nvidia hat mit absicht die USA net verbaut damit sie bis zum weihnachtsgeschäft ne neue graka draußen haben die eingendlich net wirklich neu is (auser d3d10 un nen bissel schneller getaktet (ddr4 ?))
ati wurde ja von anfang an auf ende des jahres anfang 07 datiert

nvidia is mal wieder nur aufs geld aus ohne im gegensatz zu ati die sich zeit lassen und alle verfügbaren technologien einbauen

mfg ping
 
Ping ? Du hast aber auch keine Ahnung oder ?

Wie schon 100000 mal in 100000000 Foren in 1000000000000 Ländern der Welt gesagt wurde::

...brauchen die Chip-Entwickler wie NVIDIA und ATI mehrere Jahre um soetwas zu entwickeln.
Glaubst du, die bauen 2-3 Jahre etwas zusamen um dann wegen dem Weihnachtsgeschäft etwas rauszunehmen, geschweige denn, dass dies gar nicht möglich ist !!??!?!?!! :wall: Nvidia testet seit 2 Quartal schon die Chips und du glaubst, die ändern etwas paar Monate vorm Release ? --> UNLOGISCH

Mensch Leute, wenn ihr keine Ahnung habt, seit ruhig und lest nur mit, danke. Fragen dürfen gestellt werden aber keine sinnlosen Vermutungen, von Leuten die sich in solchen Bereichen nicht auskennen. :kotz:

Zudem hatte die 6800Ultra nen Refresh...unzwar den G70, der genau 12 Monate nach der 6800 Ultra erschien.
Dieser hat nur mehr Shader und höheren Takt. Sonst war alles gleich !
Der G71 war ein mini-refresh des G70s.

Und wenn 2007 ein refresh kommt, dann kommt der mögliche G81 sicherlich in 65 aber mal abwarten. R600 verschiebt sich ja auch nach 2007. Vielleicht kommt 65nm erst Ende 2007, was aber auch zum Release des G80 Refreshs passen würde. Denn der G80 kommt auch erst Ende 2006.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh