R600-News- und Diskussionsthread

Status
Für weitere Antworten geschlossen.
Sagt ja auch keiner dass die Karte soviel verbrauchen wird, steht ja nur da dass soviel über die Stromanschlüsse möglich sind.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nun gut, ich denke wenn man eine Next Generation Graka ala R600 @ X2900XTX haben will, muss man damit rechnen dass die Graka viel Strom braucht!
Ich würde es auch begrüssen, wenn die grakas weniger Strom bräuchten, aber wenn man ein Gamer ist kann man darüber hinwegsehen!;)
 
Die Bilder die momentan am häufigsten zu sehen sind, sind die OEM version. Die Retial wird kürzer. Wär ja blöd wenn man die Karte kauft und dann nicht einbauen kann ;)


greeetz Philipp
 
Kann mir mal einer sagen, wo das von ATi bestätigt ist, dass es eine Retail-OEM-Differenzierung geben wird? Ich habe das bisher nur von Usern gehört, aber noch keinerlei ATi-stämmige Hinweise darauf bekommen.
 
Der Lüfter der OEM Version ist bedeutend länger. Und die Retail ist kürzer als die 88er serie
 
Der Hersteller, die Hersteller wissen ja wie die Dimensionen von aktuellen PC Towers sind
Die maximale länge wurde ja schn mit dem R580 erreicht!
Bei mir hab ich noch 3cm Platz zwischen der Graka und dem HDD Käfig! Also auch nicht nicht soviel Platz!
 
Naja , hoffentlich sind wir zur Cebit / nach der Cebit etwas schlauer ....

so langsam wird es Zeit mit Infos zum R600 ....

Greetz Koyote008
 
Da hast du sehr Recht! Ich möchte auch mal Benches sehen vom R600!
 
Da hast du sehr Recht! Ich möchte auch mal Benches sehen vom R600!


Mittlerweile interessiert mich die Leistung zweitrangig .... mir isses
egal ob er nun 10% schneller oder langsamer wie die 8900-er wird.

Saubere Treiber unter XP und annehmbarer 2D Stromverbrauch und angenehme Lautstärke sind mir definitiv wichtiger ....

Gruss Koyote008
 
jetzt les ich gerade das der r600 erst im 2.quartal kommt :( wollte mir demnächst eine neue graka zulegen und war schon gespannt auf den r600 oder hab zumindest gehofft das dann die 8800er günstiger werden.

weiß man schon was das topmodel kosten wird? ich hoffe mal nicht über 600€...
 
jetzt les ich gerade das der r600 erst im 2.quartal kommt :( wollte mir demnächst eine neue graka zulegen und war schon gespannt auf den r600 oder hab zumindest gehofft das dann die 8800er günstiger werden.

weiß man schon was das topmodel kosten wird? ich hoffe mal nicht über 600€...

Ich denke schon dass zu mindest das 1GB Modell anfangs um die 600€ kosten wird!
 
Zum Thema Spannungsversorgung.
Ist es nicht heutzutage so das jedes Unternehmen versucht irgendwie kosten zu sparen ?
Ich würde es nicht verstehen warum ATi einen Steckerkombi drauflöten sollte die für max 250 Watt ausreicht dabei aber nur 220 Watt z.B. benötigt, und sich dadurch evtl. ein Stecker sparen liese.
Ich vermute viel mehr das die Karte diese mega Leistung auch benötigt.
Nur ne Vermutung....
 
Zum Thema Spannungsversorgung.
Ist es nicht heutzutage so das jedes Unternehmen versucht irgendwie kosten zu sparen ?
Ich würde es nicht verstehen warum ATi einen Steckerkombi drauflöten sollte die für max 250 Watt ausreicht dabei aber nur 220 Watt z.B. benötigt, und sich dadurch evtl. ein Stecker sparen liese.
Ich vermute viel mehr das die Karte diese mega Leistung auch benötigt.
Nur ne Vermutung....

Nee, nV hat auch 2 Stecker drauf und "braucht" nicht mal einen komplett.
 
@XoXo
dann schau dir mal an, wie viel Strom die 8800GTX brauch, und dann schaust du noch wie viel Strom theoretisch der Karte zur verfügung stehen soll!
Was stellst du fest?
richtig, da ist auch noch massig Luft nach oben freigelassen wurde, ...
 
richtig, da ist auch noch massig Luft nach oben freigelassen wurde, ...

Nicht wirklich ...

Wenn ein 6pin nicht lang muss nen zweiter her, man kann ja net eigensinnig eine zu allem inkompatible 6+2pin oder 6+4pin Lösung auflöten nur weil die GraKa 2*6pin nicht auslastet ;)
 
Ich werde mich freuen, da die 8800gts um einiges billiger werden wenn der R600 gelaunched wurde, und mir glatt ne zweite zulegen^^
 
@Anarchy
was meinst du damit, verstehe den Sinn jetzt nicht so ganz, ...

Ich denke es sollte klar sein, das wenn der Saft aus einem 6Pin PCIe Stromstecker nicht reicht, dort ein zweiter Verbaut werden muss!
Ich meinte mit dem Post oben, das NV auch nicht bei der 8800GTX die Stromversorgung bis aufs äußerste ausnutzt!

Somit ist es nicht abwegig das ATI dort auch 2 Stromstecker verbaut und der wirkliche Verbrauch um einiges niedriger liegt als die Versorgung hergeben könnte
 
Also Zusammenfassung von dem ganzen, nur weil der R600 2 Stecker hat, muss es nicht heißen dass er deswegen 280W verbrät!
 
@Anarchy
was meinst du damit, verstehe den Sinn jetzt nicht so ganz, ...

Ich denke es sollte klar sein, das wenn der Saft aus einem 6Pin PCIe Stromstecker nicht reicht, dort ein zweiter Verbaut werden muss!
Ich meinte mit dem Post oben, das NV auch nicht bei der 8800GTX die Stromversorgung bis aufs äußerste ausnutzt!

Also der Denkansatz vonwegen "Stromversorgung auslasten" ist einfach unlogisch - das mein ich. Die Stromversorgung wird so dimensioniert wie GPU+RAM es erfordern und net andersrum ... ganz zu schweigen von der Kühlung die auch noch zu anfallenden Abwärme passen muss.

Da wird also auch keine "luft nach oben" freigelassen - sobald die TDP über 150W geht muss nen zweiter 6pin hin - auch wennn es nur 10W sind.

Ich find derartige formulierungen irreführend, so ist es einfach nicht. Wenn irgendwas die Leistungsaufnahme diktieren kann dann ist es die Kühlung - man kann keine 250W Lösung bauen wenn man dafür ne WaKü oder ein 30cm langen 3-Slot Kühler braucht ...
Hinzugefügter Post:
richtig, aber es sind 250W :fresse:

PEG + 6pin + 6pin = maximal 225W ;)

Und das als TDP - realer verbrauch ist immer ne ecke drunter ...



EDIT - Momentchen ... hat die R600 nun 6+6 oder 6+8 :hmm:
 
Zuletzt bearbeitet:
6+8 deswegen auch 250 :d

Logisch wird die Stromversorgung so gebaut wie die Karte es Brauch und nicht anders herrum!
Aber wenn nur 10W Unterschied zwischen Verbrauch und zur verfügung stehender Leistung sind, wird wohl doch zusätzlich noch ein weiterer Anschluss mit aufgelötet!
Der Sicherheit halber!
Vor allem ist es wohl auch nicht soo gut wenn die Stromzuführenden Teile (also der Slot und die PCIe Stromkabel) an ihrer max. Spezifikation laufen!

Die Hardwarehersteller sind bei sowas doch schon immer etwas vorsichtig gewesen, ...
Zumindest ist mir nie derartiges zu Ohren gekommen, das irgend ein Bauteil unterversorgt sei oder sowas, von daher wird die Stromversorgung sicher außreichend gut und somit etwas überdimensioniert angesetzt werden!
 
Zuletzt bearbeitet:
6+8 deswegen auch 250 :d

Logisch wird die Stromversorgung so gebaut die Karte es Brauch und nicht anders herrum!
Aber wenn nur 10W Unterschied zwischen Verbrauch und zur verfügung stehender Leistung sind, wird wohl doch zusätzlich noch ein weiterer Anschluss mit aufgelötet!
Der Sicherheit halber!
Vor allem ist es wohl auch nicht soo gut wenn die Stromzuführenden Teile (also der Slot und die PCIe Stromkabel) an ihrer max. Spezifikation laufen!

Die Hardwarehersteller sind bei sowas doch schon immer etwas vorsichtig gewesen, ...
Zumindest ist mir nie derartiges zu Ohren gekommen, das irgend ein Bauteil unterversorgt sei oder sowas, von daher wird die Stromversorgung sicher außreichend gut und somit etwas überdimensioniert angesetzt werden!
Ömmmmmmmmm ... OK. Dann kommen reale 200W wirklich hinne ...
 
mich wird die laute kühlung jetzt schon abhalten die grafik karten zu loben.

ich meine speed ist nicht alles

man denke an intel netburst technologie
hitze~strom~lautstärke alles wurde in kauf genommen um schneller als amd zu bleiben. die meisten kunden sind drauf rein gefallen. heute denken erst ein paar menschen an effizienz, sieht man ja auch bei der auto industrie. die hybrid technik hätte seid 1940 weiter entwickelt werden können aber die menschen kannten nur PS SPEED und keine effizienz... naja ATI steht jetzt mit dem R600 wiedermal auf der falschen seite. der R600 wird kein top hardwarepdodukt werden können, so meine meinung.
 
vielleicht haben die den 8er auch einfach draufgebappt damit sich die leute mit den 1k Watt netzteilen bestätigt fühlen ;) naja, stromverbrauch ist für mich bei der karte eine ganz wichtige sache, vor allem im 2D bereich. ich gebe gern einmal viel geld für eine highend karte aus, sie darf im >3D< modus auch gerne ein bischen schlucken, aber bitte dann nicht, wenn ich garnix am rechner mache ;)

gruß DOCa Cola
 
@Titanium
na du hast erst ne Ahnung!

Dir ist schon klar das im Grafikkarten sektor die Leistung pro Watt Kurve ständig mit neueren Generationen steigt, oder?!
Sozusagen wird es effizienter, aber der Stromverbrauch steigt natürlich trotzdem an, aber dafür die Leistung auch um so mehr, ...

Und vor allem woher willst du wissen wie die Kühlung beim R600 aussehen wird!
Die Bilder der OEM Karte sind eher unbrauchbar, weil im Retailmarkt wohl ein anderer Kühler eingesetzt werden soll!
Also woher nimmst du denn deinen Schluss das die Karte nen lauten Kühler haben wird, das tät mich mal mächtig interessieren!
 
Zuletzt bearbeitet:
@Titanium
na du hast erst ne Ahnung!

Dir ist schon klar das im Grafikkarten sektor die Leistung pro Watt Kurve ständig mit neueren Generationen steigt, oder?!
Sozusagen wird es effizienter, aber der Stromverbrauch steigt natürlich trotzdem an, aber dafür die Leistung auch um so mehr, ...

du siehst die dinge ohne grenzen

aber es gibt ein paar grenzen

stell dir vor

eine grafik karte schluckt doppelt so viel wie der G80 und ist 4 mal so schnell

wär mehr leistung pro watt das stimmt

aber der strom verbrauch wär sehr hoch
die kühlung sehr teuer und aufwendig (keine luft kühlung mehr möglich)
in dem fall nicht mehr komerziell und nichts mehr für den Zocker sondern nur noch was für freak,s

ich denke jetzt verstehst du was ich meine. dennoch denke ich dass du nicht unparteiisch bist und hier nur ATI verteidigen willst.


edit:

Und vor allem woher willst du wissen wie die Kühlung beim R600 aussehen wird!
Die Bilder der OEM Karte sind eher unbrauchbar, weil im Retailmarkt wohl ein anderer Kühler eingesetzt werden soll!
Also woher nimmst du denn deinen Schluss das die Karte nen lauten Kühler haben wird, das tät mich mal mächtig interessieren!

daher

Ömmmmmmmmm ... OK. Dann kommen reale 200W wirklich hinne ...



es ist physikalisch einfach nicht möglich die karte mit luft so leise wie eine Geforce 8 zu kühlen.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh