Gibt es jetzt doch eine 4890x2

Status
Für weitere Antworten geschlossen.

OCnoob

Neuling
Thread Starter
Mitglied seit
06.07.2007
Beiträge
261
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Damit müsste mein Sys (mit Monitor/Teufel Concept G 7.1) um die 600watt fressen :fresse:
Auf 530komm ich nun schon unter Last^^

@Hardwarekenner: Und? Was meinste was 2x 285GTX unter SLI fressen? Einer der sowas verbaut achtet mit sicherheit nicht auf den Strom verbrauch sondern der will Leistung sehen!
 
Zuletzt bearbeitet:
1ghz wirds kaum geben aber vermutlich 950 x1100 mit 4 gb ram aber nur unter wakü
 
Interessant........dann kauf ich mir die 4870x2 weil der Preis so hamma runterfällt (hoffe ich) :fresse:
 
@Demo
Warum braucht dein Sys so viel Strom???
Ich hab einen q9550@3,6Ghz und eine 4870x2 und verbrauch unter Last (Vantage) mit 28" Moni "grad einmal" 400 Watt beim zocken sogar noch weniger...
 
Hab mal ein wenig durchgewischt, bitte kein Spam, keine Beleidigungen und keine Provokationen...

@Mexx6
auch der Stromverbrauch deines PCs gehört hier eigentlich nicht rein... aber da drück ich mal ein Auge zu ;)
 
@Hardwarekenner: Und? Was meinste was 2x 285GTX unter SLI fressen? Einer der sowas verbaut achtet mit sicherheit nicht auf den Strom verbrauch sondern der will Leistung sehen!

weil ich der meinung bin das es der falsche weg ist, egal ob NV oder ATI.
Anstelle einfach mehrere von diesen Dino Chips auf eine Karte zu klatschen, nur um irgenwann mal für wenige tage die Spitze zu haben, sollte ATI sich da stark machen wo sie mom stark sind, und das weiter ausbauen, und das ist die obere Mittelklasse, und die auch in der klasse um die 4670 hat NV nichts dagegenzusetzen.
Aber ein Dino Renne brauchen wir nicht, wichtiger sind echte neuerungen und inovationen, und Karten die +300 Watt Strom "verheizen" gehören da mit sicherheit nicht zu !
Und meiner meinung nach ist SLI und CF nur für Penismark geile leute, die sich sonnst nicht Profilieren können.
Aber zum Spielen taugt es nichts wegen der Microruckler!
 
Zuletzt bearbeitet:
@HKW
neja, wenn man es genau will gibt es keine X2 offiziell von AMD, sprich AMD stellt den Boardpartnern nur frei, eine zu bauen...
So nach dem Motto, wer will, der darf...

Der Schwarze Peter ist in dem Fall ganz klar den Boardpartnern zuzuschieben, die einen Markt für die Karte sehen.

Wenn dir die Karte zu viel Strom verbraucht, dann kauf sie halt nicht, und gut. Und von MR sehe ich aktuell mit ner HD4870 X2 eigentlich auch nicht viel... bzw. bin weitestgehend Resistent dagegen ;)
 
Und meiner meinung nach ist SLI und CF nur für Penismark geile leute, die sich sonnst nicht Profilieren können.

was für eine intollerante und pauschale aussage, rennfahrer sind wohl auch nur rennfahrer geworden weil sie sich nicht profilieren konnten und etwas kompensieren mussten ..

Grafikkarten werden wie viele Dinge in der Industrie auch mit Hilfe von Images verkauft, die schnellste Karte auf dem Markt zu haben ist dabei sicher nicht von Nachteil ;)

Niemand braucht die Formel 1, doch wenn Renault Weltmeister wird kannst du das sofort auch in der Werbung hören!

Wer solche Karten nicht braucht soll sie nicht kaufen, fertig.

Ich hatte selbst eine 3870X2 und nun eine GTX280 und muss sagen, dass das was ich als MR gemerkt hatte ganz einfach ruckeln war ..
 
weil ich der meinung bin das es der falsche weg ist, egal ob NV oder ATI.
Anstelle einfach mehrere von diesen Dino Chips auf eine Karte zu klatschen, nur um irgenwann mal für wenige tage die Spitze zu haben, sollte ATI sich da stark machen wo sie mom stark sind, und das weiter ausbauen, und das ist die obere Mittelklasse, und die auch in der klasse um die 4670 hat NV nichts dagegenzusetzen.
Aber ein Dino Renne brauchen wir nicht, wichtiger sind echte neuerungen und inovationen, und Karten die +300 Watt Strom "verheizen" gehören da mit sicherheit nicht zu !
Und meiner meinung nach ist SLI und CF nur für Penismark geile leute, die sich sonnst nicht Profilieren können.
Aber zum Spielen taugt es nichts wegen der Microruckler!

Es gibt Leute die das kaufen, warum soll eine Hersteller das nicht anbieten :confused: und günstige Graka mit relativ wenig Stromverbrauch werden doch auch angeboten, also ist doch für jeden was dabei.
 
Um Gottes willen, das die sowas Herstellen dürfen, so ein extremes Stromfressendes ding! Wie gesagt dann kommt der G300 und dan macht eine Single Karte sone X2 platt und das mit weniger als der Hälfte an Strom.
:stupid:
 
wofür braucht man einen Ferrari oder Porsche im Alltag :hmm:

wer das weiss kennt die Antwort wiso CF oder SLI :cool:
 
Wie gesagt dann kommt der G300 und dan macht eine Single Karte sone X2 platt und das mit weniger als der Hälfte an Strom.
:stupid:
Auch der g300 wird kein "öko" chip werden in anbetracht der anzahl von transistoren die dort verbaut werden sollen.

Und eine jetzige grafikkartengeneration mit ner kommenden zu vergleichen bringt schonmal gar nix an aussagekraft


Übrigens soll es sogar ein modell der x2 mit 1 GHZ taktfrequenz geben laut cb;)

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/april/ati-partner_radeon_hd_4890_x2/

Ich frage mich aber doch ernsthaft mit was für einem mörderkühler sie das 1ghz verbrauchsmonster kühlhalten werden.Eventuell tripple slot kühlung
 
Zuletzt bearbeitet:
Übrigens soll es sogar ein modell der x2 mit 1 GHZ taktfrequenz geben laut cb;)

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/april/ati-partner_radeon_hd_4890_x2/

Ich frage mich aber doch ernsthaft mit was für einem mörderkühler sie das 1ghz verbrauchsmonster kühlhalten werden.Eventuell tripple slot kühlung

Ich denke mal eher Wakü, denn ansonten würde das wohl auf die Lautstärke einer Flugzeugsturbine rauslaufen. Eine 4890X2 OC würde sowieso schätzungsweise 500+ Euro kosten da kann man dann auch gleich ne Wakü verbauen und für 550+ Euro verkaufen. In dieser Preisregion spielen die 50-100 Euro wahrscheinlich eh kaum noch eine Rolle. Ich würde mich über so eine Karte freuen.
 
Ich versteh allgemein den Sinn nicht die Karte nich zu releasen weil sie zuviel Strom verbraucht. Wen interessiert bei einer Dual High-End Karte der Stromverbauch.. Davon abgesehen das er sicher nicht höher ausfällt als bei einer übertakteten 4870X2. Nur die Hitzeabgabe wäre halt ne Sache. Der Refernzkühler der 4870X2 is ja schon eigentlich ne Frechheit (bzw sagen wir besser der Lüfter)
Naja aber ich warte ebenfals am G300, bin mit meiner 4870X2 noch sehr zufrieden.
 
Zuletzt bearbeitet:
Auch der g300 wird kein "öko" chip werden in anbetracht der anzahl von transistoren die dort verbaut werden sollen.

Und eine jetzige grafikkartengeneration mit ner kommenden zu vergleichen bringt schonmal gar nix an aussagekraft


Übrigens soll es sogar ein modell der x2 mit 1 GHZ taktfrequenz geben laut cb;)

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/april/ati-partner_radeon_hd_4890_x2/

Ich frage mich aber doch ernsthaft mit was für einem mörderkühler sie das 1ghz verbrauchsmonster kühlhalten werden.Eventuell tripple slot kühlung

wie du erkannt hast ist es auch anders schon nich mehr zu Realisieren man kommt an den Punkt wo bald schon eine Wakü Pflicht wird daher dürfte die neue Generation nicht mehr verbrauchen eher weniger.aber bei ihr kommt nur eine Tri in frage oder ein sehr Leistungfähiger 2 Slot Kühler was dann aber auch auf den Preis eine auswirkung hätte,und irgendwo muss ATI ansetzen ;)
 
Zuletzt bearbeitet:
Halte dieses Stromgequatsche bei solchen Karten auch für unnötig!! :wall: Schliesslich gibt es für jede Sparte eigene Karten mit individuellen Leistungsaufnahmen... ...jedem das seine...
Bau ich mir halt überall LED Lichter statt der Glühbirne ein und ich hab den Strom wieder herinnen... :asthanos:

Um die Temperaturen mache ich mir auch keine Sorgen, die sollten mit diesem Lüfter http://preisvergleich.hardwareluxx.de/a407095.html :bigok: eigentlich kein Problem sein. Denke das sie den sogar Standardmässig verbauen werden.

Im grossen und ganzen freue ich mich über diese Karte und wenn sie ordentlich schneller als meine 4870x2 ist, wäre sie sogar wieder eine Überlegung wert.

Grüsse
 
Trippleslot Kühlung halte ich nicht wirklich für Tragbar muss ich sagen...

Und weil der Vergleich zur HD4870X2 kam, also ich sehe nicht wirklich nen besseren Kühler als den Std. Kühler der X2, denn alles was die Luft nicht hinten aus dem Case befördert ist Murks bei so nem Strommonster...
Und mal ganz ehrlich, wenn ich 300W+ in Wärme umsetzte, dann würde das die Temperatur im Gehäuse beachtlich ansteigen lassen... Sowas muss man wirklich nicht haben ;)
 
Trippleslot Kühlung halte ich nicht wirklich für Tragbar muss ich sagen...

Und weil der Vergleich zur HD4870X2 kam, also ich sehe nicht wirklich nen besseren Kühler als den Std. Kühler der X2, denn alles was die Luft nicht hinten aus dem Case befördert ist Murks bei so nem Strommonster...
Und mal ganz ehrlich, wenn ich 300W+ in Wärme umsetzte, dann würde das die Temperatur im Gehäuse beachtlich ansteigen lassen... Sowas muss man wirklich nicht haben ;)

Ich würde mir zumindest wünschen, dass die Abmessungen des Dualslots maximal genutzt werden, was momentan nicht der Fall ist. Die Abmessungen bei der 2900 Pro/XT waren ideal. Dazu noch ein Vollkupferkühler mit Heatpipes über die gesamte Kartenlänge und einen Idle VCore unter 1.0 Volt und die Abwärme wäre im Zaum zu halten. Diese und die Geräuschkulisse sind ohnehin die einzigen Argumente, welche gegen so potente Kartenkonstruktionen sprechen. Das Singlekarten der kommenden Generation alles besser erledigen liegt in der Natur der Sache.

Oh, der Herr ist ja Mod geworden...na dann Glückwunsch!
 
Zuletzt bearbeitet:
Wer nen i7 hat und eine 295 GTX :p weiß ned so :d denke Enermax stellt da kein Problem da :)
 
Das wäre echt super, wenn eine mit 4 GB kommen würde, die wäre für mich dann interressant, wenn es denn klappen würde mit dem NT.
 
@ Chris19827

Wie bei allen stark übertakteten Karten ist das Problem bei einer zu schlicht schwachen 12 Volt Rail zu suchen, die durch andere Komponenten mitbelastet wird oder deren Schutzabschaltung recht früh greift. Ideal sind also Single Rail NT´s oder NT mit sehr starken Rails, wie etwa das Seasonic M12D. Wenn die GTX geht, geht wohl auch die X2; der Wechsel von der GTX zur X2 dürfte jedoch eine Performance-Nullnummer sein.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh