ATI R600 [Spekulations Thread] (Part 3)

Status
Für weitere Antworten geschlossen.
Was erzählst du da, die schnellste bei 270W, du weisst schon dass das die OEM ist und dass die für Fertig PC ist und nicht für den normalen handel

Darum gehts.

, zudem hat hier jmd erwähnt dass diese wohl in einem andren Prozessgefertigt sein wird da man die 30 Watt nicht für den Lüfter aufschwätzen kann.

Das hatte ich auch mal vermutet dass sie schlechtere Chips verbauen die mehr Spannung benötigen - viele Seiten vorher - Nakai hat das mit einer Anspielung auf den Takt abgetan. Naja, kann also stimmen muss aber nicht.

Zudemm solltest du wissen dass die 270Watt Version nicht schneller ist als die 240Watt

Ach, was du so weißt... Woran machst Du das fest? Weil OEM draufsteht und es nicht sein darf den Retailmarkt zu benachteiligen?

Was ist an dem Gedanken so abwegig:
Entweder die OEM Version für die volle Dröhnung in voller Länge oder eben Wakü drauf wenn es nicht ins Case passt. Und mit Kühlerumbau hat ATI kein Gewährleistungsproblem mehr wenn es zu Folgeschäden kommen sollte mangels Kühlung. Die müssen sich schließlich absichern und vielleicht reicht es eben nicht mit der kürzeren Retailkühllösung einen höheren Takt auch unter Extembedingungen stabil zu bekommen.

Ich finde den Gedanken an eine höhergetaktete OEM Version eigentlich gut. Schaun wir mal wer am Ende Recht hat. :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
drdos schrieb:
Ich finde den Gedanken an eine höhergetaktete OEM Version eigentlich gut. Schaun wir mal wer am Ende Recht hat.
der OEM markt ist doch eher bekannt für abgespeckte versionen statt OC produkte. siehe X1550 oder 9800 XXL als beispiel.

die kunden im OEM haben nicht so hohe anforderungen wie wir hw kundigen oder hobby bastler? ;)
 
Die soll ja auch schnell sein und nicht schön
Die Geforce 8800 ist auch nicht gerade hübsch

Dann haben wir wieder was zu modden, kannst ja ne Lichterkette um den Kühler hängen müsste von der Länge her gehen:fresse:
 
Zuletzt bearbeitet:
Wenn die karte wirklich ca 30% schneller sein soll dann Holy SH**. Das einzige was mich stört is der hohe stromverbrauch, der vor allem bei nem CF system ziemlich auf den geldbeutel geht. Bei der lautstärke kann man ja immernoch mit anderen kühlern improvisieren, oder nicht?
 
die OEM version ist nicht für einen schönheitswettbewerb gebaut sondern für ausreichent kühlung ;)
die retail wird ja eh je nach chip distry anders gestalltet, sticker oder eigenkreationen.

aber an 30% fixer als die 88er glaube ich kaum, wenn dann nur in bestimmten benches, games mit bestimmten situationen und bestimmten settings.
der hersteller sucht sich ja immer das sahnehäufchen aus für die PR ;)
 
Sollte die wirklich 240W ziehen, was zieht die erst im übertakteten Zustand 400W?Das Ding wär damit eher ne kleine Heizung.
Langsam bin ich echt am überlegen meine GTX zu behalten.
 
Zuletzt bearbeitet:
Wenn die karte wirklich ca 30% schneller sein soll dann Holy SH**. Das einzige was mich stört is der hohe stromverbrauch, der vor allem bei nem CF system ziemlich auf den geldbeutel geht. Bei der lautstärke kann man ja immernoch mit anderen kühlern improvisieren, oder nicht?


manchmal könnte ich mir annen kopp langen...
da wollen sich leute ein crossfire-system zulegen für 1200,-euros,haben ne übertaktete cpu und fangen dann an sich über den so teuren strom zu beschweren:stupid:
da kann mir keiner sagen,dass das normal ist...
 
Sollte die wirklich 240W ziehen, was zieht die erst im übertakteten Zustand 400W?Das Ding wär damit eher ne kleine Heizung.
Langsam bin ich echt am überlegen meine GTX zu behalten.

also 150 watt wird die schon mindestens ziehen, aber die x1900 serie ist auch ne gute heizung, da spreche ich aus erfahrung. ;)
wenn du jetzt schon eine 8800 gtx hast lohnt das aufrüsten auf keinen fall.

mfg deep
 
manchmal könnte ich mir annen kopp langen...
da wollen sich leute ein crossfire-system zulegen für 1200,-euros,haben ne übertaktete cpu und fangen dann an sich über den so teuren strom zu beschweren:stupid:
da kann mir keiner sagen,dass das normal ist...



Ja, manche haben immer was zu meckern... so ist es jetzt und so wird es immer sein. :rolleyes:
 
Immer die Diskussion über Stromverbrauch.
Bei der 8800 Gtx haben auch alle geschrien und jetzt meckert keiner mehr.

Ich freu mich auf den R600 ich mag lange Karten :d
 
Immer die Diskussion über Stromverbrauch.
Bei der 8800 Gtx haben auch alle geschrien und jetzt meckert keiner mehr.

Ich freu mich auf den R600 ich mag lange Karten :d
Die G80 hat sich verglichen mit der G71 auch verbessert was "Performance pro Watt" angeht :p
 
Lol die neue ATI/AMD ziwht fast 100Watt mehr, bei vllt. max.! 30% Mehrleistung, lol.

Einfach LOl.
 
Lol die neue ATI/AMD ziwht fast 100Watt mehr, bei vllt. max.! 30% Mehrleistung, lol.

Einfach LOl.

Du beziehst dein Argument also auf welche Quelle? Spekulationen sollten dennoch im Rahmen von vernünftigen Angaben liegen. :rolleyes:

:btt:
 
@SSJ
Vergleich mal bitte die TDP der 8800GTX mit der hier angegebenen TDP des R600.

Wenn der R600 dann draußen ist, kannst du den wirklichen verbrauch der 8800GTX dem eines R600 gegenüberstellen und danach kannst du diesen Kommentar von dir geben, wenn er dann überhaupt noch zutrifft. ;)
 
Die X2900XTX hat doch nur 24cm Laenge..... warum also lang? Auch nicht laenger als eine X1900XTX aber immerhin kuerzer als eine 28cm 8800GTX.
 
Ich meine, ich hätte mal was von ~145W gehört. Stimmt das? Korrigiert mich bitte.

Die offiziellen Angaben von nVidia sind meines Wissens 185 Watt TDP und 145 Watt Spitzenverbrauch bei Spielen, mit typischen Verbrauchswerten im 3D-Betrieb um 115-120 Watt. (Zum Vergleich: Ein Core 2 Duo 6400 hat 65 Watt TDP bei realen 20-25 / 45 Watt Verbrauch {idle/load}).

Kampfwurst schrieb:
der OEM markt ist doch eher bekannt für abgespeckte versionen statt OC produkte. siehe X1550 oder 9800 XXL als beispiel.

die kunden im OEM haben nicht so hohe anforderungen wie wir hw kundigen oder hobby bastler?

Der Hauptgrund für die mit 12" wesentlich längere OEM-Karte dürfte ein anderer sein:

ATI scheint zweigleisig fahren zu wollen: Auf der einen Seite eine streng nach ATI-Vorgaben gefertigte OEM-Version, die gleichzeitig auch Grundlage für

a.) CAD-Karten der ATI Fire GL- Modellreihe
b.) GPGPU / Stream Prozessor - Lösungen der AMD FireStream - Modellreihe

darstellt. Sollte b.) tatsächlich, wie der Inquirer vermutet (http://uk.theinquirer.net/?article=37529) mit 2-4 GB RAM aufwarten, ist ein PCB von dieser Länge schlichte Notwendigkeit.

Auf der anderen Seite scheint man Herstellern wie Sapphire, ASUS usw. bei den Endkunden-Versionen mehr Gestaltungsspielraum einräumen zu wollen, damit diese bei ihren Produkten mehr auf die Wünsche der Gamer nach leuchtbuntneonblinkiblinki-Designs eingehen können.
 
Viel SPaß mit der Stromrechnung..............

jup werde ich habe will die karte im cluster/CF laufen lassen:p

mfg
mafri

so ati jetzt realsen NV baut treibermäßig son mist auf vista gucks...
ne ne..
da laufen die atis schon lange im CF

aso ich will diesen monsterkühler, alleien schon da er mich an meine alte fireglX1 erinnert *sieruheinfrieden*

desweitern man beachte wie es aussieht ein 8pin power connector max 250watt (hoffe richtig in erinnerung zu haben) ein 6pin PCIe max 75watt und nochmal 75max über slot ^^

mfg
mafri
 
Zuletzt bearbeitet:
Bitte sagt dass dies nicht wahr ist, kommt aus dem VR Zone nun daher:
[ATi 65nm RV610/RV630 Cards Info]

Zitat:
VR-Zone has gotten some concrete information on the process technology and memory interface of RV610 and RV630. Both will be based on 65nm process technology from TSMC. RV610, the low end version will only have 64-bit memory interface and we have told you earlier that there will be 2 variants at launch; RV610LE which is DDR2 based and RV610PRO which is DDR3 based. The RV610LE card has 4 layers and consumes 25W of power while RV610PRO has 6 layers and consumes 35W of power. RV630, the mainstream version will have 128-bit memory interface and comes in 3 variants; DDR4, DDR3 and DDR2. The power consumption stood at 128W, 93W and 75W respectively. There will be samples in March and expected launch in April.

http://www.vr-zone.com/index.php?i=4630
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh