ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
lixtek schrieb:

Was schon länger bekannt ist. Zunächst wird ATI mit dem R580+ ein schnelleres Refresh der X1900 bringen, um sich vom G71 wieder absetzen zu können. Dann kommt gegen September der G80. ATIs R600 erscheint erst zum Jahreswechsel 2006/07.

Ein paar kleine Neuigkeiten hätte ich dann auch noch anzubieten.

ATI und nVidia neue Chips (R600 / G80) werden extrem stromhungrig sein. Karten mit den Chips werden 130-300 Watt ziehen, wie informierte Kreise bei den Netzteil-Herstellern berichten.

Anandtech schrieb:
ATI and NVIDIA have been briefing power supply manufacturers in Taiwan recently about what to expect for next year’s R600 and G80 GPUs. Both GPUs will be introduced in late 2006 or early 2007, and while we don’t know the specifications of the new cores we do know that they will be extremely power hungry. The new GPUs will range in power consumption from 130W up to 300W per card. ATI and NVIDIA won't confirm or deny our findings and we are receiving conflicting information as to the exact specifications of these new GPUs, but the one thing is for sure is that the power requirements are steep.

Quelle: http://www.anandtech.com/tradeshows/showdoc.aspx?i=2770

Wobei ich persönlich wohl stark davon ausgehe, daß sich die 300 Watt auf 2-Chip-Graphikkarten a la GeForce 7950 beziehen.
 
Xptweaker schrieb:
Wo soll der Counter auf Alternate sein ?
Einfach mal ein paar Postings lesen, bevor man tippt. :) Steht alles nur wenig hier drüber.

Der Counter ist für den 7950 GX2 Launch.
 
steppenwolf78 schrieb:
ATI und nVidia neue Chips (R600 / G80) werden extrem stromhungrig sein. Karten mit den Chips werden 130-300 Watt ziehen, wie informierte Kreise bei den Netzteil-Herstellern berichten.
:motz: :grrr: :wall: :heul:

wollen die uns verarschen, jetzt hatte ich gehofft, dass ATI mit dem R600 endlich wieder unter 100W kommt und nein jetzt peilen die 300W an? :stupid:

später wirds so sein, je mehr Watt desto schneller, dh. wir kaufen dann Watt/€ :fresse:
 
super. spart man sich im winter die heizkosten...
wenn die wirklich so viel saft ziehen, überleg ichs mir nochmal stark, ob das wirklich sein muss.
stromkosten, abwärme, lautstärke... macht mir alles sorgen :motz:
 
Also wer soviel Geld für eine High End Karte aussgibt der sollte doch nicht beim Strom geizig sein, oder?
 
Jlagreen schrieb:
:motz: :grrr: :wall: :heul:

wollen die uns verarschen, jetzt hatte ich gehofft, dass ATI mit dem R600 endlich wieder unter 100W kommt und nein jetzt peilen die 300W an? :stupid:

später wirds so sein, je mehr Watt desto schneller, dh. wir kaufen dann Watt/€ :fresse:

300W für Crossfire sicherlich. Sprich 150W pro Karte.

ist aber schon heftig. Irgendwann bekommen die die gleichen Probleme wie Intel... oder aber man kann außer der Graka nix weiteres nutzen im PC wegen der ausladenden Kühlung...
 
Der Artikel sprach zwar von "300W per card", aber ich gehe mal stark davon aus, daß damit 2-Chip Karten gemeint sind.
 
xxmartin schrieb:
Einfach mal ein paar Postings lesen, bevor man tippt. :) Steht alles nur wenig hier drüber.

Der Counter ist für den 7950 GX2 Launch.

ok meister :hail:

aja zu den 300w pro karte ..... never max 150w aber die sind auch gesponnen hoch :fire:
 
ich dacht eigentlich, dass der R600 erst mitte 2007 rauskommt :P bis dahin gibts nur alte grafikkarten mit dx10-kompatiblität
 
TM30 schrieb:
300W für Crossfire sicherlich. Sprich 150W pro Karte.

ist aber schon heftig. Irgendwann bekommen die die gleichen Probleme wie Intel... oder aber man kann außer der Graka nix weiteres nutzen im PC wegen der ausladenden Kühlung...
Also ich finde das irgendwie ... KRANK :eek:

Was für ne Grafikleistung soll dabei rauskommen ? Ne 7950 GX2 verbraucht keine 150W ... mit 2 GPUs und 1GB an RAM ...

Ich hoffe mal perfekte Filter Quali und 8*AA / 16*AF per default an ... ausschalten machts auch nemmer spürbar schneller :fresse:
 
ach jede karte is in die knie zu bringen. mit den jahren geht das locker
 
TM30 schrieb:
300W für Crossfire sicherlich. Sprich 150W pro Karte.

ist aber schon heftig. Irgendwann bekommen die die gleichen Probleme wie Intel... oder aber man kann außer der Graka nix weiteres nutzen im PC wegen der ausladenden Kühlung...


jau, habs heute mittag bereits auf Anandtech gelesen, heftige Scheisse.
das ist mal wieder der Beweis, dass Menschen aus Geschichte nicht wirklich viel lernen.

Ich hatte die Hoffnung ATI & nVidia würden am Beispiel Intel erkannt haben,
dass Heizblöcke nicht mehr wirklich gern gesehen sind. Naja warscheinlich hat die Energie Lobby 2 neue Firmen gefunden :shake:
 
steppenwolf78 schrieb:
ATI und nVidia neue Chips (R600 / G80) werden extrem stromhungrig sein. Karten mit den Chips werden 130-300 Watt ziehen, wie informierte Kreise bei den Netzteil-Herstellern berichten.


LOL ... 300 Watt selbst bei ner Dual-GPU Graka ?

Wie krank ist das denn ?

Da wirds selbst mir zu blöde !

Ich hätte gedacht 150-200 Watt
augen.gif


Ich glaube bald , wenn ich nen 900Watt Netzteil nehmen muss
und irgendwas im Stromkreislauf zuschalte kommt die Sicherung ! :motz:

Greetz Koyote008
 
Zuletzt bearbeitet:
ich stelle mir vor, wie ich nächstes jahr den rechner einschalte und das licht in der nachbarschaft anfängt zu flackern, das atomkraftwerk muss dann noch den 5 reaktor in betrieb nehmen... tststs, wo soll das hinführen?!
 
LoKi2k schrieb:
ich stelle mir vor, wie ich nächstes jahr den rechner einschalte und das licht in der nachbarschaft anfängt zu flackern, das atomkraftwerk muss dann noch den 5 reaktor in betrieb nehmen... tststs, wo soll das hinführen?!

Also meine Nachbarn hätten es verdient ! :drool:

Die Idee beflügelt !

Greetz Koyote008
 
Anarchy schrieb:
@Stromverbrauch :

Bitte den GANZEN Artikel bei Anandtech lesen :rolleyes:


Anandtech schrieb:
As depressing as this news is, there is a small light at the end of the tunnel. Our sources tell us that after this next generation of GPUs we won’t see an increase in power consumption, rather a decrease for the following generation. It seems as if in their intense competition with one another, ATI and NVIDIA have let power consumption get out of hand and will begin reeling it back in starting in the second half of next year.

ich denke du meinst diesen abschnitt, oder?

dennoch finde ich es ziemlich krass. langsam wird es zeit mein dach mit solarzellen zu bestücken....
 
steppenwolf78 schrieb:
Was schon länger bekannt ist. Zunächst wird ATI mit dem R580+ ein schnelleres Refresh der X1900 bringen, um sich vom G71 wieder absetzen zu können. Dann kommt gegen September der G80. ATIs R600 erscheint erst zum Jahreswechsel 2006/07.

Ein paar kleine Neuigkeiten hätte ich dann auch noch anzubieten.

ATI und nVidia neue Chips (R600 / G80) werden extrem stromhungrig sein. Karten mit den Chips werden 130-300 Watt ziehen, wie informierte Kreise bei den Netzteil-Herstellern berichten.



Quelle: http://www.anandtech.com/tradeshows/showdoc.aspx?i=2770

Wobei ich persönlich wohl stark davon ausgehe, daß sich die 300 Watt auf 2-Chip-Graphikkarten a la GeForce 7950 beziehen.


Wie gut, dass man in Gehäusen wie dem Stacker oder Temjin 07 2 Netzteile installieren kann :fresse: :fresse: :fresse: :fresse:
 
autsch, schon die X1900XTX ist ein echter burner, was dann erst der R600 :eek:

die stromkosten sind eher sekundär für mich. aber je mehr die teile aus der steckdose ziehen, desto mehr verlustleistung, desto höhere temps erwarten uns.

und dabei wird die fertigungsgröße immer kleiner, in diesme fall 80nm bei R600 wie es scheint. aber das macht er wohl locker weg durch noch mehr transistoren, die sollten sich mal nen beispiel an AMD nehmen :)

zwar habe ich eine gute wakü, allerdings will ich keine gattling kühlen :fresse:
 
goldtitan schrieb:
Meint ihr der G80 erscheint noch vor dem Conroe bzw. kurz danach?
Ne ganze Ecke danach ... der launchtermin für den Conroe steht ja schon fest ... der 23.7. wenn ich mich net irre :hmm:
 
Richtig. War der Release des G80 nicht mal für das 2Q2006 geplant? Erinnere mich da an ältere Reports.
 
Q2 ? eher H2 ... also zweite hälfte ...

Jetzt ist gerade mal die 7950 GX2 raus, ich denk mal 3-4 Monate dauert es noch bis zum G80 :hmm:
 
oh man wie warm sollen die chips denn noch werden? :O
bald hat man standartmäßig ne wakü dabei^^
oder ne turbine :d

die sollen mal lieber darauf achten das die schneller UND kühler werden ;)
 
Voll der Kommerz die Computerindustrie... können die Nasen sich nicht mal absprechen? Wenn man sich jetzt ne dicke Grafikkarte reinknallt ist sie durch Direct X 10 schon bald wieder ausgestochen...
 
sil3nt7 schrieb:
oh man wie warm sollen die chips denn noch werden? :O
bald hat man standartmäßig ne wakü dabei^^
oder ne turbine :d

die sollen mal lieber darauf achten das die schneller UND kühler werden ;)
Ömmm ... die 7900er Serie IST kühler als die 7800er, besonders unter last verbrauchen se weniger Strom -> weniger Abwärme.

ATi macht hier mit der X1800/X1900er Serie die Faxen also net so verallgemeinern ...

@goldtitan -

Bis Viista nicht raus ist braucht dich DX10 nicht interessieren denn erst dann kommt es zum einsatz und bis mal Games raus sind die DX10 zwingend benötigen (abgesehen von M$ eigenen lock Titeln -> Halo2 ) ist scho der nachfolger vom G80 im regal ...
 
Zuletzt bearbeitet:
@Anarchy
jo sry stimmt ich hätte dabe schreiben sollen das ich von ati rede :)

und soweit ich weiß ist vista nicht so das os für games aber naja wir werden uns wohl danach richten müssen :\
 
Nur als Information: Halo2 wird doch kein Direct X 10 zwingend benötigen.

Die Frage die mich beschäftigt ist, ob der Schritt von Direct X 9 auf 10 von der Performance extrem oder zu vernachlässigen ist. Wäre halt ärgerlich wenn man sich, wie ich, dazu durchringt ne 450€ Karte zu kaufen und dass die dann nach paar Monaten durch so einen Schritt arg gemindert wird...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh