MSI Radeon R9 290X Lightning nun offiziell

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.220
<p><img src="/images/stories/logos-2013/msi.jpg" width="100" height="100" alt="msi" style="margin: 10px; float: left;" />Spätestens seit der CES 2014 Anfang Januar sind die groben Eckdaten zur Radeon R9 290X Lightning bekannt. Nun hat der taiwanesische Hersteller die Karte offiziell angekündigt und nennt auch erstmals die Taktraten, mit denen die Karte ab Werk arbeiten soll. Bewegten sich die bisher von uns getesteten Karten beim GPU-Takt zwischen 1.040 und 1.060 MHz, soll die MSI Radeon R9 290X Lightning mit 1.080 MHz arbeiten. Dafür deutlich konservativer zeigt man sich beim Speicher-Takt, den man mit 1.250 MHz sogar bei den Referenzvorgaben belassen hat. Bei Karten wie der MSI Radeon R9 290X Lightning geht es aber ohnehin nicht nur um den Takt ab Werk, sondern um das...<br /><br /><a href="/index.php/news/hardware/grafikkarten/30052-msi-radeon-r9-290x-lightning-nun-offiziell.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich frag mich, wohin dieser Leistungswahnsinn in Sachen Stromaufnahme noch gehen soll. Bei den Prozessoren wird man immer sparsamer bei steigender Leistung, bei den GPUs hat man zwar deutlich mehr Leistung bei bestimmten Berechnungen, aber dafür auch eine perverse Leistungsaufnahme.
 
Ohne Glück nützt das alles wenig, da die Chips sicherlich wie üblich "blind" auf die Karten gelötet werden. Taugt der Chip nichts, bringen auch Dutzende von Phasen und 10-Slotkühler nichts.
 
Völlig unsinnig was msi da macht, bei dem Schrottchip was amd da abgeliefert hat ich sachen Wärme und Stromverbrauch, da kauft man lieber von der grünen Partei!
Ich dek damit ist man besser aufgehoben
 
Völlig unsinnig was msi da macht, bei dem Schrottchip was amd da abgeliefert hat ich sachen Wärme und Stromverbrauch, da kauft man lieber von der grünen Partei!

mess2.jpg
 
Völlig unsinnig was msi da macht, bei dem Schrottchip was amd da abgeliefert hat ich sachen Wärme und Stromverbrauch, da kauft man lieber von der grünen Partei!
Ich dek damit ist man besser aufgehoben

dek ich auch.........grüne Trolle sollten grüne Karten kaufen!!^^
 
Mhh langsam kommen R290x Karten raus die was können. Saphire mit 8 Gb vram und jetzt die Lightning. Jetzt muss nur noch ein Wakü block raus kommen und die Karte ersetzt meine 7970 Lightning.
 
Overclock3D :: Review :: MSI R9 290X Lightning Review :: Introduction and Technical Specifications

Edit: Ein Witz das die Karte auch wieder auf gut Glück mit Samsung oder Hynix Speicher verkauft wird und selbst in den Presseunterlagen der Samsung als klar schlechtester beworben wird (6200Mhz vs. 6400Mhz). Da können sich die Shops wieder freuen bei den vielen Rückläufern :grrr:

Dolle Folie ... MSI hat also mit der Sapphire Tri-X OC nur 5600 MHz erreicht. Ich schaffe 6520 MHz, wenn es sein muß. Hat MSI bestimmt ganz doll gründlich getestet. :haha:
 
...

Wenn man keine Ahnung hat einfach mal....

ganz genau, da du keine sinnvollen gegenargumente lieferst, schweig....

- - - Updated - - -


Schöne vergleichswerte ;), aber wart ab was die lightning dort schafft, ich find einfach bei nem chip wo standardmäßig schon nich das gelbe vom ei ist sollte man keine OC Karte rausbringen, wann dann könnte MSI gleich ne Wakü version der Lightning rausbringen das hätte was, dann wär auch das OC potenzial um welten besser, und man braucht kein teueres Stickstoff ;-)
 
Meinst du eine EVGA KingPing oder Classified ist da sparsamer ? Bei OC geht keine Karte sparsam ans Werk.
 
Wenn AMD etwas gefehlt hat, dann war es definitiv eine Borussia Dortmund-GPU... Wahrscheinlich wird eine Lightning für Nvidia rot weiß... :shot: :haha:
 
Was leistungsaufnahme angeht, warten wir mal auf die nächste Nvidia Generation. Die GTX 750ti ist schon mal extrem beeindruckend was leistung pro Watt angeht...
Ums Klima würde ich mir aber hier nicht allzuviele Sorgen machen... würde mich wundern wenn 200 Leute weltweit diese Karte im OC regelmässig nutzen.
 
Also auf 200 Leute kommste wahrscheinlich am Ende locker, hier leben 6 Milliarden Menschen...
 
hier leben 6 Milliarden Menschen...

Die Meisten davon haben aber noch nicht mal fließend Wasser oder Strom.
Fakt ist das es gerade mal ein paar 100 Millionen Menschen sind, die sich nicht um Essen streiten müssen und von denen wiederum die Meisten eher eine Dach über den Kopf haben möchten, als eine sündhaft teure Grafikkarte.
 
Zuletzt bearbeitet:
Trotzdem finden sich unter diesen paar 100 Millionen, die eine Teilmenge von den Sechs Milliarden sind, genug potenzielle Käufer um auf 200 Käufer zu kommen. ;)
 
Ich würde auch 4 von den Karten nehmen + passendes Netzteil :P - leider nur kein Geld dafür da
 
Ich würde auch 4 von den Karten nehmen + passendes Netzteil :P - leider nur kein Geld dafür da

Also ein Atomreaktor? :p

Jetzt mal ernsthaft, angenommen man möchte tatsächlich 4 Stück davon betreiben, welches Netzteil auf dem Markt würde denn da reichen?
 
Das ist schon ein sehr feines Kärtchen. Wenn ich nicht G-Sync ausprobieren wollen würde, dann hätte ich anstatt der GTX 780 Lightning definitiv diese gekauft.

Interessant dass sie das Upgrade auf Triple Slot gemacht haben. Frage mich sowieso weshalb sie bei der GTX 780er nicht auch schon auf Triple Slot gesetzt haben. ASUS ist auch von Triple auf Dual Slot umgestiegen. Das kann ich nicht ganz nachvollziehen, Triple Slot bietet doch eindeutig bessere Kühlungsmöglichkeiten.
 
Zuletzt bearbeitet:
Das Highlight an der Karte ist das der dämliche "GPU Reactor" auf der Rückseite endlich wieder weggefallen ist. :hail:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh