ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
Nein, laut internen Quellen dürfen wir mit den selben Preisen wie bei der 8800GTX rechnen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Außer wenn du sparen kannst. ^^

Hat sich also doch bewahrheitet, dass GDDR4 zum Einsatz kommt. Zumidnest ist es höchstwahrscheinlich oder was mein ihr?!
 
Zuletzt bearbeitet:
ich freu mich schon auf den R600, aber nur, weil hoffentlich die jetzigen grakas billiger werden
:xmas:
 
GDDR4, 512Bit, DX10.1, PCIe 2, usw.
vs
GDDR3, 384Bit, DX10.0, PCIe, usw.


Hm, als schon fast wieder eine next-gen. im Vergleich zum G80 ;)
 
yo, obwohl das noch nicht soo große schritte sind, dass ich es next-gen nennen würde.

aber der r600 is immerhin nach diesen spekulationen überall einen schritt weiter als der g80...
 
Also 2140 pins sind richtig übel. Keine Ahnung, ob der R600 ein 512 Bit SI hat, wäre ja richtig Fett, nur 256 Bit kann ich mir nicht vorstellen. An der Bandbreite sollte es also nicht scheitern. 512 Bit und 1024 MB VRAM wären super. Nur vom Stromverbrauch wirds wohl erst mit 65 nm vernünftig sein.
 
Jedes SLI-System verbraucht mehr, aber die R600 ist schneller als jedes SLI System (außer der 8800er Reihe). Man muss es mal in dieser Sicht betrachten...
 
Aber eigentlich müssten das die ATI/AMD Ingeneure ja auch wissen, und es gab ja auch schon bei dem R580 den IDLE Modus, kann mir nicht vorstellen, dass man den bei einem derart komplexen chip weglassen würde. ich mein, gabs nicht eigentlich schon beim r580 dieses feature, dass Teile des Chips deaktiviert werden können?
 
Das wird es garantiert geben, sonst brennt der Kern ein Stromfeuerwerk ab, das geht gar nicht. Grade dadurch, dass AMD jetzt mit an der Quelle sitzt, werden die sicher ihr CPU-Stromspar-Knowhow einfließen lassen, was der R600 allem bisherigen Anschein nach auch dringend nötig hat.
Es sei denn, ATi lässt jetzt endgültig die Bombe platzen und fährt ab sofort die Schiene "Wer High-End will, macht sich über Strom und Hitze keinen Kopf".
 
"Wer High-End will, macht sich über Strom und Hitze keinen Kopf".

Dass es auch anders geht sieht man ja an den "neueren" CPUs. Selbst unter Last ist so ein Core 2 Duo immer noch recht kühl im Vergleich zu den älteren P4-Heizwerken - wenn man auch mal den nicht ganz unerheblichen Leistungszuwachs betrachtet.
Habe da auch die leise Hoffnung, dass da jetzt was von den CPU-Sparfunktionen abfärbt - ich bin gespannt.
 
stimmt, aber bei cpu's kommen noch andere fertigungstechniken rein, die bewirken, dass die cpu auch unter last relativ wenig strom braucht...

bei gpu's ist das noch nicht mit eingeflossen, kommt aber hoffentlich mit dem r700.

der r600 wird natürlich auch nen "stromsparenden" 2d modus haben... wie viel der bringt und wie das ganze unter vista mit der aero-glass oberfläche funktioniert, können wir noch nicht sagen...

ich hoffe nur, dass der dann viel weniger strom zieht und alles andere als warm wird, sodass man den da auch nicht unbedingt aktiv kühlen braucht.
 
GDDR4, 512Bit, DX10.1, PCIe 2, usw.
vs
GDDR3, 384Bit, DX10.0, PCIe, usw.


Hm, als schon fast wieder eine next-gen. im Vergleich zum G80 ;)

Dann hätte NVIDA aber umsonst so vliel Kohle und soviel Zeit in den
G80 investiert wenn nun wirklich die R600 kommt !

DA kann NVIDA den Takt rauf setzen wie lustig sie wollen,
letzendlich werde sie aufgrund des geringen Speicherbusses 384 bit vs 512 egal welchen Takt NVIA fährt unterliegen sein !

>noch besser wird es wenn 3D Marks 2007 jetzt bald kommt..
da sieht NVIDA mit der G80 ganz schon alt aus im Vergleich zu R600 !

p.s.

ich glaub wirklich

das AMD am 5 Dezemberg
die AMD 4x4 Version + DEN R600 rausbringt um Weihnachten noch dick Kohle zu machen !

wir werden es sehen ist nicht mehr lange hin...

AUFJEDEFALL EIN RESPEKT AN AMD/ATI R600 mit über 100 GB/S :eek: :xmas:
 
Dann hätte NVIDA aber umsonst so vliel Kohle und soviel Zeit in den
G80 investiert wenn nun wirklich die R600 kommt !

DA kann NVIDA den Takt rauf setzen wie lustig sie wollen,
letzendlich werde sie aufgrund des geringen Speicherbusses 384 bit vs 512 egal welchen Takt NVIA fährt unterliegen sein !

>noch besser wird es wenn 3D Marks 2007 jetzt bald kommt..
da sieht NVIDA mit der G80 ganz schon alt aus im Vergleich zu R600 !

man merkt, es wird weihnachten! :xmas:
die fanboy-gesänge werden lauter... ;)

es gibt weder ne karte mit dem R600, noch den penismark2007, aber die "experten" hier wissen selbstverständlich schon, dass nvidia mit mann und maus untergeht! :lol:

t.

...aber etwas gutes haben solche posts auch, sie hellen meine stimmung im tristen arbeitsalltag auf! :)
 
Zuletzt bearbeitet:
Eieiei, hier kocht die Stimmung mal wieder :)

Ich pers. bin in positiver Stimmung, ich denk es könnt schon was gutes werden. Ich hoffe sie haben aus den Fehlern gelernt die sie mit der X1000er Reihe gemacht haben, die waren ja nicht unbedingt das Gelbe vom Ei.

Mag mich gern an meine 9700 Pro erinnern, gott das war eine Meisterleistung an Ingenieurskunst. Mit der konnt ich sogar BF2 noch einigermassen flüssig zocken, wenn sie mir nicht kurz nach der Garantiezeit abgeraucht wär, hätt ich die immer noch :(

Ich wart jetzt sicher noch ab, erstmal schauen wie sich das entwickelt. Und dann kauf ich mir nen Highend Chip und hab die näxten 3 Jahre Ruhe ^^
 
...aber die "experten" hier wissen selbstverständlich schon, dass nvidia mit mann und maus untergeht! :lol:

Na ist doch klar:
G80 : 1500 Pins -> 12000 Schwanzmark Punkte
R600: 2140 Pins -> X

Wir setzen gleich und formen um und erhalten somit:
X = 12000 / 1500 * 2140
X = 17200

Also erreicht der R600 mindestens 17200 Schwanzmark Punkte und ist damit gleich vom Start weg 43% schneller. :lol:

Mist, ich muss schnell meine GTX verscherbeln bevor sie nix mehr wert ist! :lol:
 
man merkt, es wird weihnachten! :xmas:
die fanboy-gesänge werden lauter... ;)

es gibt weder ne karte mit dem R600, noch den penismark2007, aber die "experten" hier wissen selbstverständlich schon, dass nvidia mit mann und maus untergeht! :lol:

t.

...aber etwas guten haben solche posts auch, sie hellen meine stimmung im tristen arbeitsalltag auf! :)

dito :haha:


€: was ist den hier auf einmal los? :xmas:
 
Zuletzt bearbeitet:
ist doch ein Spekulationsthread @ Tanatos, nicht? Hier darf doch spekuliert werden... Muss auch überhaupt nicht der Wahrheit entsprechen...
 
ist doch ein Spekulationsthread @ Tanatos, nicht? Hier darf doch spekuliert werden... Muss auch überhaupt nicht der Wahrheit entsprechen...

es ist zwar ein speku-fred, das ist klar ;)

aber wenn du dir mal den post von myild anschaust ist es nicht verwunderlich das hier ein paar (mit mir inkl.) etwas komisch darauf reagieren. sein post platzt ja schon fast vor faktheit :hwluxx: :haha:
 
Zuletzt bearbeitet:
@coolphan: Eben, aber dann soll es wenigstens auch so rüberkommen, nicht als Fanboy-Geprolle. Sachliche Diskussionen sind schon was erstrebenswertes. :)
 
GDDR4, 512Bit, DX10.1, PCIe 2, usw.
vs
GDDR3, 384Bit, DX10.0, PCIe, usw.


Hm, als schon fast wieder eine next-gen. im Vergleich zum G80 ;)

RAM - GDDR4 ist nen gutes Stück teurer als GDDR3

SI - Um ein 512er SI auszunutzen braucht es 16 Chips (1GB) sowie nen extrem aufwendiges PCB -> nochmals viel teurer

DX - 10.1 ? Wo ist das denn bittesehr spezifiziert ? Welche möglichkeiten sind da drin die das normales DX10 nicht bietet ?

PCIe 2.0 - Ohne passendes Board nicht wirklich interesannt, um mehr Daten über den Bus zu bekommen kann man den jetzigen PCIe übertakten.



Ich sehe hier ein abartig schnelles aber auch abartig teureres gerät auf uns zukommen ... wobei das SI meiner meinung nach absoluter Overkill ist. Wenn der R600 aber auf so ein fettes SI angewiesen ist kann eine beschneidung dieses enorme Leistungsverluste bewirken bei den kleineren Modellen ...
 
RAM - GDDR4 ist nen gutes Stück teurer als GDDR3
Aber auch schneller und stromsparender

SI - Um ein 512er SI auszunutzen braucht es 16 Chips (1GB) sowie nen extrem aufwendiges PCB -> nochmals viel teurer
Jo, 16 Chips werden es wohl werden. Aber 12 Layer gegen 8 Layer sind nicht so viel teurer. Es sollte halt eine gute P/L rauskommen

DX - 10.1 ? Wo ist das denn bittesehr spezifiziert ? Welche möglichkeiten sind da drin die das normales DX10 nicht bietet ?
Keine Ahnung :)

PCIe 2.0 - Ohne passendes Board nicht wirklich interesannt, um mehr Daten über den Bus zu bekommen kann man den jetzigen PCIe übertakten.
Finde ich super. Wenn man sich mal ein PCIe 2 Mobo holt kann man auf die ganzen Kabel verzichten


Ich sehe hier ein abartig schnelles aber auch abartig teureres gerät auf uns zukommen ... wobei das SI meiner meinung nach absoluter Overkill ist. Wenn der R600 aber auf so ein fettes SI angewiesen ist kann eine beschneidung dieses enorme Leistungsverluste bewirken bei den kleineren Modellen
Ich rechnen mit den gleichen Preisen wie jetzt bei der 8800GTX
...

-.-
 
ein nVidia fanboy gibt sein comment zum R600 ab :rolleyes:
sry nimms aber nicht persönlich, nur wird es wohl in der natur des fanboy liegen :rolleyes:

auch wenn das ganze teurer sein sollte, wird ATI die preise flach halten. das die karte mit dem G80 konkurenzfähig ist. die xbox360 und PS3 macht sogar minus pro verkauf ...
 
auch wenn das ganze teurer sein sollte, wird ATI die preise flach halten. das die karte mit dem G80 konkurenzfähig ist. die xbox360 und PS3 macht sogar minus pro verkauf ...

Sorry, aber Blödsinn...

Bei Konsolen ist diese Strategie nur möglich, da die Gewinne über Spiele, Zubehör und Online-Angebote reingeholt werden. Wo sollte ATI denn bitte die Verluste für "verbilligte" Highend-HArdware wieder einfahren ;)
Für eine Grafikkarte ergeben sich nunmal keine Folgekosten, die dem Hersteller direkt nützen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh