ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
der 27.1. 2007 ist ein samstag.... ich denke nicht, dass die eine karte am wochenende released wird:hmm:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gegen PCIe 2.0 hab ich auch nix, nur is es praktisch ne Bestätigung, dass der R600 verdammt viel Strom zieht. Die Verkaufszahlen würden auch nicht so hoch sein, weil sie bestimmt nicht jeder ein neues MoBo kauft. Is jetzt mal meine Theorie.
 
Was meint ihr, wann kommen die ersten Midrange Karten mit R600 raus? Ich würde so auf den Sommer tippen, hoffe aber, dass diese dann aber keine 300W ziehen ;)
 
Gegen PCIe 2.0 hab ich auch nix, nur is es praktisch ne Bestätigung, dass der R600 verdammt viel Strom zieht. Die Verkaufszahlen würden auch nicht so hoch sein, weil sie bestimmt nicht jeder ein neues MoBo kauft. Is jetzt mal meine Theorie.

1. Ist es überhaupt keine Bestätigung. Wie kommst du darauf? Nur weil AMD nicht regelwiedrig sein will?
2. Ist PCIe 2 abwärtskompatibel.
 
Zuletzt bearbeitet:
Bloß doof wenn das Mainboard nicht mitmacht. :fresse:
Ich werd ma versuchen hier ne extra Leiterbahn in die Platine zu brennen. :drool:
 
Schade, schade. Ich will definitiv kein neues Brett haben. Bin so glücklich mit meinem AW9D-MAX. Dann wirds bei Bedarf doch eher mal eine GTS/GTX.
 
Du kannst Konsolen doch gar nicht mit PCs vergleichen. Die Optimierungsarbeiten bei Konsolen sind doch um ein vielfaches einfacher, als beim PC. Bei Konsolen gibt es keine 100.000 verschiedenen Konfigurationen, sondern immer nur eine.

das stimmt nicht ganz was du sagst, so einen unterschied gibts nicht außerdem gibts gemeinsame schnittstellen.
 
Ist doch alles abwärtskompatibel! Ich will vor ende 07 auch kein neues mb, trotzdem ne neue ati karte!
 
Aber heute hat noch keiner ein PCIe 2.0-Mobo, also isses ja egal ob es abwärtskompatibel is, weil dann eh kein Mensch mehr PCIe 1.1 benötigt wenn er nen R600 hat. (außer wenn er die Graka wieder verkauft)
 
hm? ich kann dir nicht ganz folgen...

Wenn PCIe 2.0 abwärtskompatibel ist, kannst du nen R600 auch in nen PCIe 1.1 Slot packen, musst dann daber wohl oder übel noch einen Stromstecker an die Karte anschließen.

Wenn du ein PCIe 2.0 Board hast, kannste den R600 halt ohne zusätzlichen Stromstecker benutzen.

Trotzdem kannste auch eine 8800 GTS/GTX (die für PCIe 1.1 gebaut ist) in einen PCIe 2.0 Slot packen. wirst aber höchstwahscheinlich trotzdem Stromstecker vom NT anschließen müssen.
 
hm? ich kann dir nicht ganz folgen...

Wenn PCIe 2.0 abwärtskompatibel ist, kannst du nen R600 auch in nen PCIe 1.1 Slot packen, musst dann daber wohl oder übel noch einen Stromstecker an die Karte anschließen.

Wenn du ein PCIe 2.0 Board hast, kannste den R600 halt ohne zusätzlichen Stromstecker benutzen.

Trotzdem kannste auch eine 8800 GTS/GTX (die für PCIe 1.1 gebaut ist) in einen PCIe 2.0 Slot packen. wirst aber höchstwahscheinlich trotzdem Stromstecker vom NT anschließen müssen.
Nee sicher nicht, nur umgekehrt abwärtz, also PCIe1 GraKa in PCIe2 Slot. nach der Definition des CB Artikel hat der R600 eben keine Aussenstecker mehr,also braucht man auf jedenfall ein PCIe2 MoBo. Oder lieg ich nun komplett falsch?
 
Zuletzt bearbeitet:
Nee sicher nicht, nur umgekehrt abwärtz, also PCIe1 GraKa in PCIe2 Slot. nach der Definition des CB Artikel hat der R600 eben keine Aussenstecker mehr,also braucht man auf jedenfall ein PCIe2 MoBo. Oder lieg ich nun komplett falsch?

So hab' ich das auch verstanden. Hoffentlich bewahrheitet sich's nicht. :(
 
wird wohl noch schlimmer hier als die spiele industie mit ihren unfertigen spielen wo man immer noch nachpatchen muss kurz nach dem release damit das spiel überhaupt einwandfrei läuft.
vielleicht sollten sie sowas wie step up machen wo man nacher gegen den refreshchip tauschen kann ;)
 
Nee sicher nicht, nur umgekehrt abwärtz, also PCIe1 GraKa in PCIe2 Slot. nach der Definition des CB Artikel hat der R600 eben keine Aussenstecker mehr,also braucht man auf jedenfall ein PCIe2 MoBo. Oder lieg ich nun komplett falsch?



kann ich mir nicht vorstellen da der kundenkreis im 1Q. 2007 (vermutlicher release) doch sehr sehr begrenzt wäre... es gibt ja nicht mal reviews zu diesem neuen pci-e standart....

ich geh stark davon aus das pci-e2 abwärts kompatible ist und es auch keine nenneswerten leistungsunterschiede gibt zwischen dem aktuellen pci-e und dem pci-e2 ähnlich agp4x > agp 8x da gabs auch keine großen sprünge punkto perfomence...
 
@ tommyh:

seh ich genauso.

wenn man für den R600 unbedingt ein PCIe 2.0 board brauchen würde, wäre es schwachsinnig den im januar/februar 07 zu launchen, weil der erste chipsatz, der das unterstützt, erst Q2/Q3 07 rauskommt (bearlake)

und selbst wenn noch ein anderer chipsatz das schon jetzt unterstützen würde, wäre der kundenkreis seeehr klein. kaum einer hätte das und zack buff hätte amd/ati in was investiert, was denen nichts bringen würde.
 
Hier wird ein Mist geschrieben, schlimm.

Nur weil PCIe 2.0 (übrigends abwärtskompatibel) 300 Watt Stromzufuhr möglich macht, 150 Watt über den Bus und 150 Watt über einen externen Anschluss, heisst das noch lange nicht, dass die R600 soviel auch soviel verbrauchen wird.

Außerdem wird die R600 höchst warscheinlich nicht mehr als die G80 verbrauchen.

Der Grund:

-781 Tranistoren der G80 sind schon sehr extrem
-ATI/AMD setzt GDDR4 ein, statt wie nVidia GDDR3. Dieser ist bekanntlich spaarsamer und wird ja schon jetzt auf den Topmodell eingesetzt
Warscheinlich wird der GDDR4 dafür schneller getaktet, sodass er wieder gleich viel Strom aufnimmt, wie der GDDR3.


Also kommt mal runter von dem Trip!

Der R600 wird mehr als der G80 verbrauchen WENN:

- Er mehr Tranistoren hat (das will ich sehen!)
- Oder die GPU (nein nicht der RAM) höher getaktet ist (kann sein, aber deutlich höhere Taktraten sind zu bezweifeln, da Leckströme und Hitzeentwicklung)

Bis jetzt war ATIs Architektur immer eine, die sehr effizient gewesen ist.


Und nochwas! Später (warscheinlich ab der R700) werden wir wieder Karten von ATI sehen, welche deutlich weniger Strom aufnehmen, so ATI gegenüber der c`t.
 
Zuletzt bearbeitet:
Nee sicher nicht, nur umgekehrt abwärtz, also PCIe1 GraKa in PCIe2 Slot. nach der Definition des CB Artikel hat der R600 eben keine Aussenstecker mehr,also braucht man auf jedenfall ein PCIe2 MoBo. Oder lieg ich nun komplett falsch?

Nein, eine PCIe 2 GPU geht in ein PCIe Board genauso wie ein PCIe 2 Board eine PCIe GPU aufnehmen kann.
 
wenn amd den r600 für PCIe 2.0 plant und den Q1 07 launchen will, ist das doch dann ziemlich schwachsinnig...

wozu etwas launchen, was bei launchdatum von niemandem verwendet werden kann?


edit:
@ kimble:
die letzten ATi-Karten verbrauchen mehr als die letzten NV-karten... das bringt einen zu der vermutung, dass der r600 wieder einmal mehr verbrauchen könnte als der g80.

dazu kommt dann noch, dass AMD/ATi PCIe 2.0 'in betracht zieht'. das kann zur annahme verleiten, dass es mehr als 150W werden...

klar, nur weil es der PCIe 2 standard schafft, heißt es nicht, dass es auch ausgenutzt wird. kann sein, dass die das für den komfort der user machen (damit weniger kabel im gehäuse rumfliegen und weniger beachtet werden muss).

und ich glaub auch dass es stimmt, dass die ATi-Karten effizienter waren als die NV-Karten. ATi hat ja ne deutlich bessere BQ bei gleicher/teilweise besserer performance gezeigt. da ist ein chip natürlich komplexer... und trotzdem verbrauchten die nicht sooo viel mehr als nv.


aber ein bisschen mehr Strom als der G80 wird der R600 vielleicht ziehen. Wenn die wirklich 1 Gb GDDR4 verbauen und den einiges höher takten als NV, dann kann der Verbrauch vom RAM durch die paar Transistoren mehr und den höheren Takt gleich so hoch sein wie bei NV oder sogar drüber liegen.

außerdem wissen wir nicht wie viele transistoren die GPU hat... darauf kommts halt auch noch an. durch das 80nm verfahren könnten die nen vorteil gegenüber nv haben. sprich mehr transis/takt bei gleichem verbrauch.


ich vermute mal, dass der verbrauch von G80 und R600 etwa auf einem level liegen, so dass der R600 nur ein bisschen mehr strom braucht.



hoffentlich habe ich nichts unverständliches geschrieben... ^^
 
Zuletzt bearbeitet:
Hm, sollte der RD600 nicht PCIe 2 haben?

@BMX-er Boi: Da PCIe 2 komplett abwärtskompatibel ist, ist es doch egal.
 
Zuletzt bearbeitet:
wenn amd den r600 für PCIe 2.0 plant und den Q1 07 launchen will, ist das doch dann ziemlich schwachsinnig...

wozu etwas launchen, was bei launchdatum von niemandem verwendet werden kann?

PCIe 2 ist 100% abwärtskompatibel, genau wie USB 2.0 kompatibel ist zu USB 1.1. Das heißt PCIe 2.0-Karte in PCIe 1-Slot stecken: Läuft ganz normal mit voller PCIe 1-Geschwindigkeit (also genauso schnell angebunden wie der G80 auch).

Der Hintergedanke von ATI gleich auf PCIe 2 zu setzen ist wohl eher weniger in der mangelnden Leistungsfähigkeit der heutigen PCIe x16-Slots zu sehen, sondern das liegt eher an:

a.) Wie schon gesagt: einfacheres Kabelmanagement bei hohen Stromstärken.
b.) Bandbreite schadet nie. So kann man den R600 dann z.B. neben einer Radeon X3900 oder X4850 als Physikkarte weiterverwenden... oder so ähnlich. ;)
 
PCIe 2 ist 100% abwärtskompatibel, genau wie USB 2.0 kompatibel ist zu USB 1.1. Das heißt PCIe 2.0-Karte in PCIe 1-Slot stecken: Läuft ganz normal mit voller PCIe 1-Geschwindigkeit (also genauso schnell angebunden wie der G80 auch).

genau das meine ich ja auch...
wollte mit dem, was du zitiert hast, nur auf w0mbat eingehen.


btw: hab hier das mit dem 27.1.07 als launchdatum gefunden. wie gesagt, man kann nicht genau sagen ob das stimmt...
 
PCIe 2 ist 100% abwärtskompatibel, genau wie USB 2.0 kompatibel ist zu USB 1.1. Das heißt PCIe 2.0-Karte in PCIe 1-Slot stecken: Läuft ganz normal mit voller PCIe 1-Geschwindigkeit (also genauso schnell angebunden wie der G80 auch).

Der Hintergedanke von ATI gleich auf PCIe 2 zu setzen ist wohl eher weniger in der mangelnden Leistungsfähigkeit der heutigen PCIe x16-Slots zu sehen, sondern das liegt eher an:

a.) Wie schon gesagt: einfacheres Kabelmanagement bei hohen Stromstärken.
b.) Bandbreite schadet nie. So kann man den R600 dann z.B. neben einer Radeon X3900 oder X4850 als Physikkarte weiterverwenden... oder so ähnlich. ;)

Sehr richtig.

Man überlege sich mal, was passieren würde, wenn ATI es vorhätte, eine R600 Dual Grafikkarte, wie nVidias GX2, auf den Markt zu schmeißen.

Betreibt man die dann im Crossfiremodus, dann gehen einem ja die Stecker an den Netzteilen aus. :haha:

Und da man die Power auch gut verteilt braucht, also auf mehreren Leitung bzw. doppelt vorhandenen Schienen, nützt es nichts, mit Kabeladaptern rumzufrickeln - dies wird nicht gut gehen.


Außerdem ist PCIe 2.0 gut fürs Marketing. Muss ja schneller sein, wenn 2.0 da steht. ;)

@ Stromverbrauch

Ohne dass ich es weiß, ich tippe mal auf max 120 - 140 Watt.

Ich weiß jetzt garnicht, welche ob AMD/ATI den selben Herstellungsprozess hat, wie nVidia.

Ich denke die G80 ist so ziemlich an der Grenze des Machbaren, 781 Millionen Transistoren (größtenteils Logiktransistoren) und dann dennoch diesen hohen Takt, das wird sehr schwierig.

Ich bin jetzt auch kein Guru, aber vielleicht sollten wir doch mal auf die R500 in der xBox 360 schauen. Immerhin hat diese eine Unified Shader Architektur.
 
Zuletzt bearbeitet:
Falls der R600 tatsächlich keine externen Stromanschlüsse bekommt, ist er nicht zum alten PCIe Standard kompatibel. Wie sollte das auch gehen? Es sei denn die Mobo Hersteller integrieren einen Stromanschluß auf der Platine für die Extra Stromversorgung zusätzlich.
Bleibt dann nur das Prob, ob und wie ein erweiteter R600 PCIe II Stecker in den PCIe I Slot passt. Schließlich soll der PCIe II Stecker ja mehr Anschlüsse haben. Ungefähr dann so wie AGP vs AGPpro.
Ich würde auch mal freundlich darum bitten sachlich zu bleiben und hier nicht mit Geschwafel von wegen Blödsinn, Schwachfug usw kommen. Solange keiner handfeste Belege hat, ist eh alles Speku.
Hinzugefügter Post:
PCIe 2 ist 100% abwärtskompatibel, genau wie USB 2.0 kompatibel ist zu USB 1.1. Das heißt PCIe 2.0-Karte in PCIe 1-Slot stecken: Läuft ganz normal mit voller PCIe 1-Geschwindigkeit (also genauso schnell angebunden wie der G80 auch).
Toller Vergleich, ich hab auch einen.
MoBo Sata I Controller, steck mal eine Sata II Platte an, wird sie auch NCQ können?
Die Frage ist nicht ob PCIe II Slot ( MoBo ) abwärtzkompatibel ist ( natürlich wird er das sein ), sondern ob eine PCIe II GraKa ohne Extra Stromanschlüsse an einem PCIe I Slot ( mit 75W Einspeisung ) betrieben werden kann, das denke ich nämlich eher nicht.
 
Zuletzt bearbeitet:
Ich denke, wenn der R600 auf PCIe 2.0 getrimmt ist, dann werden trotzdem PCIe 1.0 Stromsteckdosen auf dem PCB sein, damit User mit PCIe 1.0 Boards der Karte trotzdem noch genug Strom liefern können.


Mit dem Schwachsinn wollte ich sagen, dass es sinnlos für AMD/ATi wäre, etwas auf den Markt zu bringen, was zu nichts kompatibel und damit unbrauchbar ist. Damit wollte ich dich in keinster Weise angreifen.
 
Ok. :)

Falls es tatsächlich so kommt, haben bloß die Besitzer jetziger Boards ein Problem. Es könnte dann nämlich wirklich ein Boardwechsel nötig sein.
Aktuelle Boards haben ja weder PCIe II noch eine extra Stromversorgung zusätzlich neben der ATX2 Versorgung (75W).
nVidia hats mit der GTX garnicht so doof gemacht, diese KArte rennt natürlich trotzdem auf einem neuen PCIe II Board.
Dann frage ich mich, ob der neue PCIe II Standart auch einen neuen ATX Stecker erfordert?
 
Zuletzt bearbeitet:
lol wenn der r600 nicht auf mein i955x board passt und ein 500W NT nicht ausreicht dann können die mich mal.
Dann spiel ich crysis halt mir einer nvidia.
 
@ meister:
das mit dem atx-stromstecker hab ich mich auch schon gefragt... das mobo muss ja irgendwoher den strom herbekommen, den es an den PCIe 2.0 slot führen soll...

ob da der normale atx-stecker reicht?
 
Tja, das wird sich noch zeigen. Gibt es überhaupt schon irgendein PCIe II MoBo? Bis jetzt ist mir noch nix aufgefallen und der neue 690 ist ja noch mit PCIe I ausgestattet.
Soweit ich jetzt aus dem Stand weiß, wird erst der neue Intel Chipsatz PCIe II haben.
 
Das lässt sich doch im Extremfall sicher schnell ändern, oder nicht? Die Technologie ist ja nicht grundlegend neu, sondern eben nur in ihrer Power erweitert.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh