ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Xptweaker schrieb:
So wieder mal zurück zum Thema ihr Vista und TCPA Freaks ....

ATI's R600 will consume over 250W

http://www.theinquirer.net/default.aspx?article=34446

Was soll das denn? Da muss man sich ja zur neuen Grafikkarte noch ein neues Netzteil kaufen! 250W, wie willst du das denn kühlen? Da wird der PC ja zum Backofen und zur Stromschleuder. Das ganze möchte ich mir dann nicht im Crossfire Betrieb vorstellen... :shot:
 
hey sieh es positiv
du kannst damit öl sparen indem du deinen pc heizen lässt ^^

so nun aber:btt:
 
ping schrieb:
hey sieh es positiv
du kannst damit öl sparen indem du deinen pc heizen lässt ^^

so nun aber:btt:

Stimmt. Einen Backofen kann ich mir dann auch sparen. Stell ich die Tiefkühlpizza einfach in den PC rein... :d
 
Die Kühlung ist ja nicht unser Problem. Sollen sich doch die Hersteller darum kümmern. Wir stecken sie nur in den Computer und legen los und da ist es mir auch egal, ob es jetzt 5° wärmer wird als aktuelle HighEnds oder nicht.

Genial sind aber die vollen 64 Shader. Ich erwarte irgendwie auch, wie Inquirer, dass sie doppelt so schnell wird als aktuelle Karten...Man aber ATI und ihre Produktionsprobleme, verschiebt alles gegen Frühling 2007...
 
Zuletzt bearbeitet:
Bud Spencer schrieb:
Die Kühlung ist ja nicht unser Problem. Sollen sich doch die Hersteller darum kümmern. Wir stecken sie nur in den Computer und legen los und da ist es mir auch egal, ob es jetzt 5° wärmer wird als aktuelle HighEnds oder nicht.

Genial sind aber die vollen 64 Shader. Ich erwarte irgendwie auch, wie Inquirer, dass sie doppelt so schnell wird als aktuelle Karten...Man aber ATI und ihre Produktionsprobleme, verschiebt alles gegen Frühling 2007...

Ich glaube ATI will wirklich wieder der Performancesieger sein.
Einfach eine bessere Karte liefern.
Naja wenn man Temps und vll Lautstärke absieht.

mfg Nakai
 
250 watt sind schon sehr viel^^.
Diese Entwicklung gefällt mir nicht so ganz.
Irgendwann hat jeder ein kleines Atomkraftwerk in seinem Rechner...
 
Bud Spencer schrieb:
Die Kühlung ist ja nicht unser Problem. Sollen sich doch die Hersteller darum kümmern. Wir stecken sie nur in den Computer und legen los und da ist es mir auch egal, ob es jetzt 5° wärmer wird als aktuelle HighEnds oder nicht.

Genial sind aber die vollen 64 Shader. Ich erwarte irgendwie auch, wie Inquirer, dass sie doppelt so schnell wird als aktuelle Karten...Man aber ATI und ihre Produktionsprobleme, verschiebt alles gegen Frühling 2007...

naja wenn es denn bei 5° bleibt aber ich denke 250W is ne ganze menge holz und da sind heutige luftkühlungen fast am ende :fire:
un versuch die graka dann nochmal zu übertakte

entweder müssen sie die abwärme runterschrauben (falls die angaben mit 250w stimmen) oder eine neue kühlmethode einsetzen (standartmäßig wakü)
mfg ping

€:
Gahmuret schrieb:
250 watt sind schon sehr viel^^.
Diese Entwicklung gefällt mir nicht so ganz.
Irgendwann hat jeder ein kleines Atomkraftwerk in seinem Rechner...

jippe nie wieder stromausfall :fresse:
 
Zuletzt bearbeitet:
wakü standart ^^
Was machen dann diejenigen die noch keine wakü haben?? Das würde ja dann zu grossen nebenkosten ausarten...
 
Gahmuret schrieb:
Was machen dann diejenigen die noch keine wakü haben?? Das würde ja dann zu grossen nebenkosten ausarten...

Genau das ist der Punkt! ;)
 
genau das ist das problem
viele werden sich dann 2x überlegen ob es eine neue graka sein muss
sollte das auch bei nvidia der fall sein seh ich schwart für den großen boom der d3d10 spiele und vista

aber das sind alles nur spekulationen
mal schauen wann ati un nvidia endlich mit infos rausrücken *lechtz*
 
sind die 250watt eigentlich idle oder last?
Naja ich glaube ja wie bereits erwähnt das der richtige d3d10 boom noch etwas auf sich warten lassen wird (bis eben mainstream diese schwelle erreicht). Aber ich bin mal gespannt wie die grakas aussehen und im sommer 2007 die verbesserten g8er und r6er und 2008 kauf ich mir dann eine g9 oder r7 :rolleyes:
Aber ich glaube einige freunde von mir kaufen sich eine g8 oder r7 da kann ich ja dann mal die eyecandys anschauen die es dann so gibt *g*
 
ich weiss das die strom erzeugen, deswegen ja dann hat man eine kleine stromquelle die gleich genug strom für seinen rechner liefert.
 
Xptweaker schrieb:
So wieder mal zurück zum Thema ihr Vista und TCPA Freaks ....

ATI's R600 will consume over 250W

http://www.theinquirer.net/default.aspx?article=34446

was habe ich gesagt :fresse:
und das blödeste ist dass ATI januar bis Februar anpeilt, dann werdne die karten wohl so Februar bis März verfügbar sein...
falls nvidia echt schom im November kommt wäre dass ein guter vorsprung
aber 250W ist zu krass, kann mir dass nicht vorstellen,
okay die 7950GX brauch auch me menge holz und hat 2 mini kühler die total uneffektiv sind und nichtmal schnell drehen daher denke ich wird dass mit der kühlung klappen. aber hab kein bock mein 500W NT gegen ein stärkeres umzutauschen :stupid:
mal hoffen dass der G80 auch nicht mehr als 180W Schlucken soll.
den könnte ich mir noch erlauben evtl
 
Zuletzt bearbeitet:
Dann ist aber doch ziemlich sicher, dass es ein externes Netzteil dazu geben wird? Ich bräuchte nämlich schon jetzt ein neues Netzteil und will nich schon wieder im Februar umrüsten.
 
Gelöschter Beitrag

Dieser Beitrag wurde auf Wunsch des Nutzers gelöscht.
 
erinnert ein wenig an die Vodoo 6000, die auch zusätzlich mit einem Steckernetzteil versorgt werden mußte. Aber das war damals. Das heute sowas wieder in Mode kommt, hätte ich nicht gedacht. Aber vielleicht dachten die sich, alles anderen sparen und wir können dafür mehr verbrauchen.

So brauchte man ja dann in der Tat für ein Crossfire System dann mehr als 600 Watt.........
 
Ich kanns auch nicht glauben, das ist Unfug mit 250Watt, und 2 davon + gute CPU und ein starkes NT bedeutet jeden Monat ca. 50 Euro nur für den Strom.
Wenns langt!
 
Fangen wir erst garnicht mit dem Kühler an den man benötigt um die Karte zu kühlen. :-[
 
Ich habe auch neue Gerüchte: Der R600 soll angeblich so sparsam sein, daß es sogar noch Strom erzeugt und sich ohne Kühler auf -20C kühlt.

Leute, wir wissen nichts! Gar nichts!
Ich sag nur: "Jeder zweite hier ist genauso blöd wie ich".
 
Aber nehmen wir es mal an dass es so ist. :-[
Da wird es dann nur noch solche billig GPU-Wakü-Karten geben wie die Sapphire Toxic oder die X1950 von MSI.
 
der G80 soll im november kommen oder wann?

wollte meine x1900xtx aufrüsten bzw verkaufen und dan nne bessere kaufen

auf die ati bis märz 2007 warte ich nicht

brauch ne bessere graka für gothic3 in 1680x1050 +4aa +4/8af @ max details packt das net
 
Also noch ist nix von ATi bestätigt, aber wenn es denn wahr sein sollte...:eek: :eek:
Ich hab eigentlich vor mir ein Crossfire-System mit 2x R600 und evtl. nen Kentsfield (QC) zuzulegen. Reicht da ein 700W NT oder zur Not noch 750W, oder is das immer noch zu schwach?? 250W wären echt krank. Lässt deinen PC 2h laufen und allein die Grakas verbrauchen schon 1kWh.(bei CF)
 
Also den Mangel an brauchbarer Information zum G80 bis zu diesem Zeitpunkt kann ich nur so deuten:
Die Karte wird nur wenig mehr Rohleistung als ne 7900 gtx haben, dafür aber stromfressende features, die die frühen Käufer dieser Karte gar nicht nutzen können.
Je später die Fakten.. umso weniger Zeit bleibt, das Ding zu entlarven ;)
 
@händler
hast schon probiert? wenn so eine karte das nicht packt, was sollen dann all die machen deren ganzes sys nicht mal so viel kostet wie ne 1900XTX
fand G1/G2 immer ganz human von den anforderungen her, aber mal schaun

ich werd definitiv diese generation (G80/R600) auslassen!

mfg
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh