ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
LokiKater schrieb:
ich hoffe es wird nie dazu kommen das die grakas extra strom brauchen.
die cpus werden doch auch immer besser und stromsparender. wieso schaffen es die hersteller nicht auch bei gpus? das verstehe ich nicht!

mfg

Edit: (Etwas falsche Aussage, siehe daher etwas unten. Gespräch ist zwischen Golem.de und ATI verlaufen und es ist nichts über abschaltbare Kerne gesagt worden)

Es gab ein Gespräch von TomsHardware mit ATI. Da wurde diese Thematik auch erwähnt.

ATI äußerte sich, dass für den Nachfolger vom R600 geplant ist, dass stromsparende Techniken eingeführt werden (z.B. Ausschalten von bestimmten Regionen des Chips). Warum erst so spät? Vermutlich, weil die Hersteller nicht bedacht haben, dass ein hoher Stromverbrauch die Leute ggf. vom Kauf von Hardware abschrecken.

Dies ist aber natürlich nicht der einzige, denkbare Grund, warum die Hersteller auf einmal auf dem Stromspar-Tripp sind:

Denn vllt. würden die Regierung auch ein Wörtchen mitreden, wenn der Stromhunger wächst: Z.B. werden die Autohersteller gezwungen umweltfreundlichere Motoren zu schaffen und müssen mitziehen, auch wenn sie sich sträuben. Denn sonst können sie sich einen anderen Absatzmarkt suchen. Wenn nun der Stromhunger von Hardware zu groß wird, könnte es ähnliche Folgen haben. Denn die Hardware wird schließlich auch an riesige Rechenzentren verkauft. Und 50 Watt mehr bedeutet bei dieser Masse viel Verbrauch von Strom.

Ein bedeutender Grund ist auch die Kostenfrage. Gerade Google & Co. mit riesigen Rechenzentren würden sich über stromsparende Hardware sehr freuen.

Night<eye> schrieb:
hmm @ spencer dein post hat in mir einen gedanken geweckt der mir sorgen macht.
wäre es möglich das der G80 mit nur einem strom anschluss kommt aber über das mitgelieferte NT zb 100W über diesen einen anschluss zieht ? weil dann wäre die möglichkeit mit seinem NT zb 2 x pci e stecker anzuschließen nicht gegeben, wäre echt scheiße wenn dies so währe...

Anarchy schrieb:
So genaue überlegungen aufbauend auf gerüchten sind zur zeit sinnlos ...

Ich bin leider nicht einer der Ingenieure dieser Grafikchips :d Keine Ahnung, sry...
Man kann nur Gedankenspiele zur Zeit machen... Denn möglich wäre Vieles.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Konnte man bei der Asus 7800GT Dual komplett auf den PCI-E-Stromstecker verzichten, wenn man das externe Netzteil einsetzte?
 
L1NK schrieb:
Konnte man bei der Asus 7800GT Dual komplett auf den PCI-E-Stromstecker verzichten, wenn man das externe Netzteil einsetzte?
ja
das externe NT war am pci e anschluss der graka dran.
natürlich abnehmbar so dass die nutzer auch dass eigene NT nutzen konnten
 
Okay, das würde ich mir ja beim G80/R600 wünschen. Ist mittlerweile geklärt, wieviel Watt über den Slot gezogen werden können?
Hat die Asus-Karte auch noch Strom über den Slot gezogen, wenn sie am Netzteil angeschlossen war?
 
L1NK schrieb:
Okay, das würde ich mir ja beim G80/R600 wünschen. Ist mittlerweile geklärt, wieviel Watt über den Slot gezogen werden können?
Hat die Asus-Karte auch noch Strom über den Slot gezogen, wenn sie am Netzteil angeschlossen war?
über den slott aleine gehen nur 75w
und ja die karte hat auch die 75w gezogen
 
Dann sind max. 87W oder 99W ohne Extra-NT möglich, je nachdem ob man den 6-Fach-Stecker halb oder ganz ausnützt.
 
thx für die info paul
echt schade.... bin am überlegen mir aus protest eine sparsame 79er zu kaufen und erst den refresh vom G80 falls der sparsammer wird und in 80nm kommt... hmmm
 
Man bin ich froh mir noch ne 7900GX2 gekauft zu haben, die ich am Wochenende abhole, genau wie mein Freund.

Mit der warte ich dann bis sich DX10 lohnt, und es ordentlich ist.

Wer noch eine Will, soll sich beeilen, es gibt nur noch 10 Karten:d
 
Die 7900GX2 kommt leider außer Frage, da sie viel zu lang ist. Der 7950 ist viel zu teuer. Dann lohnt sich eher das Warten...
 
@Blackpitty
Wozu du mit der CPU und dem Monitor eine GX2 brauchst weißt du selber nicht oder? :fresse:
 
Zuletzt bearbeitet:
bassmecke schrieb:
@Blackpitty
Wozu du mit der CPU und dem Monitor eine GX2 brauchst weißt du selber nicht oder? :fresse:

meinst ich brauch dazu nen Conroe mit 4GHZ? und in der Auflösung lohnt das wohl.
 
Ich hatte drei von deinen Monitoren. Da hat´s dann gelohnt. ;)

Aber kannst natürlich Bildqualimodi bis zum abwinken reinhauen.
 
eLw00d schrieb:
Ich hatte drei von deinen Monitoren. Da hat´s dann gelohnt. ;)

Aber kannst natürlich Bildqualimodi bis zum abwinken reinhauen.

das habe ich auch vor, die bleibt dann so lange drin, bis sich vista, und D3D10 sich lohnt, und das wird noch dauern
 
Blackpitty schrieb:
meinst ich brauch dazu nen Conroe mit 4GHZ? und in der Auflösung lohnt das wohl.


Der A64@2,6GHz reicht schon, nur wäre eine X1950 XTX die bessere Wahl gewesen. Hättest 100€ gespart, eine bessere BQ und für 1280*1024 wichtig HDR+AA.
 
meinst ich brauch dazu nen Conroe mit 4GHZ? und in der Auflösung lohnt das wohl.
Definitiv nicht, besonders nicht mit nem Singlecore. Da wäre die X1950XTX die bessere Wahl gewesen, wie wombat schon sagte.

Aber kannst natürlich Bildqualimodi bis zum abwinken reinhauen.
Was bei 1280x1024 auch eine 7800GT/X1800XT noch sehr ordentlich bewältigt. ;)

das habe ich auch vor, die bleibt dann so lange drin, bis sich vista, und D3D10 sich lohnt, und das wird noch dauern
Ich würde nie was für den PC kaufen, was ich erst später ausnutzen kann. Entweder GX2 und Triplehead gleich oder ne Singlekarte. In drei Monaten tut dir jeder GX2-Cent weh, weil es viel geilere Karten für den Preis gibt. ;)

...aber meine Mutti macht das auch so wie Du: Kaufen nur weils grade billig ist, egal ob mans braucht oder nicht. :fresse: (bitte nicht angegriffen fühlen :))
 
Zuletzt bearbeitet:
bassmecke schrieb:
Was bei 1280x1024 auch eine 7800GT/X1800XT noch sehr ordentlich bewältigt. ;)
Naja geht so.
Hätte jetzt auch lieber ne stärkere Karte, da 2x AA nicht immer so toll aussieht...
Aber ich werd mir erst eine kaufen, wenn ich nen neuen Monitor habe und das wiederum könnte noch bis Weihnachten dauern.
Die Preise sollen ja angeblich noch stark runter gehen und die neuen 22"er sind auch noch nicht alle erschienen.
 
w0mbat schrieb:
Der A64@2,6GHz reicht schon, nur wäre eine X1950 XTX die bessere Wahl gewesen. Hättest 100€ gespart, eine bessere BQ und für 1280*1024 wichtig HDR+AA.

die ATI ist nicht billiger, sondern teurer...... :shot:
 
Blackpitty schrieb:
die ATI ist nicht billiger, sondern teurer...... :shot:


:wall:
Ähm, die X1950 XTX kostet beim billigsten Anbieter ~375€, die billigste 7950GX² kostet ~470€. Wenn nach deiner Rechnung die X1950 XTX also teurer als die 7950GX² ist kann ich dir auch nicht mehr helfen :stupid:
 
Bud Spencer schrieb:
Es gab ein Gespräch von TomsHardware mit ATI. Da wurde diese Thematik auch erwähnt.

ATI äußerte sich, dass für den Nachfolger vom R600 geplant ist, dass stromsparende Techniken eingeführt werden (z.B. Ausschalten von bestimmten Regionen des Chips).

ach echt? Was meinst wieviele Regionen man im Chip ausschalten könnte während du Oblivion oder Crysis spielst?

Bud Spencer schrieb:
Ein bedeutender Grund ist auch die Kostenfrage. Gerade Google & Co. mit riesigen Rechenzentren würden sich über stromsparende Hardware sehr freuen.

Schon klar, aber was haben High End Grafikkarten damit zu tun?Die sehen dieses Rechenzentrum gewöhnlich nicht von innen.

Die übliche Käufergruppe interessiert sich vorwiegend für Performance, um 15000 Punkte in 3dmark 06 hier im Forum posten zu können, würden manche in ein Atomkraftwerk ziehen...
 
Zuletzt bearbeitet:
cl55amg schrieb:
ach echt? Was meinst wieviele Regionen man im Chip ausschalten könnte während du Oblivion oder Crysis spielst?

Bei 2D-Anwendungen du Schlaumeier. Word, etc. Aber hmm... ich finde den Artikel nicht. Ich meine aber soetwas mal gelesen zu haben. Es ging in diesem Artikel auch um die Diskussion, weshalb der DualCore-Gedanke noch nicht bei Grafikkarten gekommen ist... Aber auch egal, schließlich sind wir in der Gerüchteküche... Sinn würde es schon machen...

Edit:

Korrigiere, das Gespräch ist zwischen Golem.de und Ati gewesen:
http://www.golem.de/0608/47044.html

Das mit den abschaltbaren Kernen ist wohl von Gerüchten über Intel und AMD hängengeblieben. Sry für die Falschmeldung.

cl55amg schrieb:
Schon klar, aber was haben High End Grafikkarten damit zu tun?Die sehen dieses Rechenzentrum gewöhnlich nicht von innen.

Hab jetzt eher an CPU's gedacht als ich es geschrieben habe. War wohl so darin verwickelt :d Kein so wichtiger Grund bei Grafikkarten. Mein Fehler.

cl55amg schrieb:
Die übliche Käufergruppe interessiert sich vorwiegend für Performance, um 15000 Punkte in 3dmark 06 hier im Forum posten zu können, würden manche in ein Atomkraftwerk ziehen...

Hmm... Eigentlich hast du Recht. Denn den meisten Leute, ich meine auch außerhalb des Forums, ist es auch egal. Viele interessieren sich auch nicht für solche Dinge und wissen daher nichts davon... Möchte ja z.B. auch eine Karte der Next-Gen ;) Mir ist es eigentlich auch egal, ob es jetzt ein externes Netzteil hat, wenn ich ehrlich bin. Es hat aber auch einen bitteren Nebengeschmack...
 
Zuletzt bearbeitet:
w0mbat schrieb:
:wall:
Ähm, die X1950 XTX kostet beim billigsten Anbieter ~375€, die billigste 7950GX² kostet ~470€. Wenn nach deiner Rechnung die X1950 XTX also teurer als die 7950GX² ist kann ich dir auch nicht mehr helfen :stupid:

Richtig.
Aber ich glaube, er redet von der 7900 GX2 und nicht von der 7950 GX2 - und die Erstgenannte ist deutlich günstiger als die 7950er. :wink:
 
Werdiknight schrieb:
Richtig.
Aber ich glaube, er redet von der 7900 GX2 und nicht von der 7950 GX2 - und die Erstgenannte ist deutlich günstiger als die 7950er. :wink:


Dann bist du aber der Einzige der davon redet. Die 7900GX² ist wie die 7800GTX 512 fast nicht verfügbar.
 
Lohnt es sich den generell noch eine Grafikkarte im Preisrahmen von 350 und über zu kaufen? So wie es aussieht sind die NextGenKarten erheblich schneller. Vor allem die vollen 64 Pipelines der R600 gabs nicht einmal ansatzweise. Die heutigen Karten haben eigentlich 16 (x3 Shader pro Pippe bei ATI) und 24 (bei NVIDIA werden irgendwie 2 Shader pro Pipe bearbeitet). Also können bei heutigen Karten insgesamt 48 Shader bearbeitet werden (in einem Takt!?). Die kommenden schaffen 64 (R600) und zwar bei vollen Pipes... Wenn das nicht einen Schub gibt...
 
Zuletzt bearbeitet:
Ich denke eine X1950 XTX lohnt sich noch, da es bis zum R600 noch ein weilchen dauert und ich eher die 2. DX10-Gen. kaufen würde.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh