Dual-GPU-Grafikkarte GeForce GTX 590 im Februar?

Redphil

Redakteur
Thread Starter
Mitglied seit
02.12.2004
Beiträge
6.838
Ort
Leipzig
<img width="100" height="100" src="images/stories/logos/nvidia.gif" alt="nvidia" style="margin: 10px; float: left;" />
<p>Bereits im vergangenen November tauchte ein erstes mutmaßliches Bild vom PCB einer GeForce GTX 590 auf (<a target="_blank" href="index.php/news/hardware/grafikkarten/17042-nvidia-geforce-gtx-590-gegen-amd-radeon-hd-6990.html">wir berichteten</a>). Nach Angaben von nordichardware.com ist jetzt damit zu rechnen, dass <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIAs</a> neue Dual-GPU-Grafikkarte (die erste seit der 2009 erschienenen GeForce GTX 295) schon im Februar auf den Markt kommen wird. Den genauen Termin konnten die Kollegen nicht in Erfahrung bringen, allerdings scheint NVIDIA wieder einen Überraschungs-Launch zu...<p><a href="/index.php?option=com_content&view=article&id=17615&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Dual GPU Karte von ATI kann sowas von einpacken^^
Aber wie will Nvidia das realisieren?
Mit 600Mhz Core Takt oder wie?
 
Ne, 500MHz :fresse:

Aber 1536mb Vram find ich doch etwas wenig.. Die Kartet würde bestimmt 5-600€ kosten, da muss man mit dem Vram auch nicht so geizen, wobei dann die Leistungsaufnahme natürlich wieder steigt, was aber ohnehin egal sein wird, weil man die 300W wohl eh kaum erreichen kann (und wenn werdens 2 GTX 560 was eig. kein Mensch brauchen könnte)
 
Sie muss deutlich schneller werden, als ein GTX560 Ti-SLI. Sonst ist sie umsonst. Ausserdem muss die Karte zwingend nvidia surround unterstützen, sonst brauchen die das Teil gar nicht erst launchen. Auch der Vram von 3GB ist etwas schwach. Klar wird es auch wieder sauteure 6GB-Versionen geben, aber da fährt man mit 2x 560 Ti 2GB besser. Ich bin mal gespannt. Möchte unbedingt wieder zu nv wechseln, aber dann mit Triplehead-Unterstützung.
 
Ne Variante mit 6GB würde wahrscheinlich einfach zu Teuer und der Energieverbrauch währe viel zu hoch, das wird so schon ein Mammutprojekt zwei voll ausgebaute GTX580 da zu verbauen.
 
Ja, die Karte wird ein Kompromiss werden. Ich mach das auch an der Lautstärke fest. Meine zwei 5870 Vapor-X im CF sind mir jedenfalls unter Luft viel zu laut. Deshalb liebäugele ich mit einer Dual-Karte mit Custom-Kühler.
 
Ich an Nvidias Stelle hätte 2 560 genommen und pro GPU 2GB VRAM und fertig.
Die hätten sie billiger anbieten können und es würden sicher mehr so ein Teil kaufen.
 
Zwei GTX560 gehen aber nicht ansatzweise so wie zwei GTX580.
Seien wir doch mal ehrlich, richtig Gewinn fahren die Grafikkartenhersteller mit solchen Karten eh nicht ein... denen geht es dabei nur um Prestige, wer hat den längeren ;)
 
Bisher kenn ich keine dual gpu karte, bei welcher die Leistung 1:1 dem enstspricht, was das Single-gpu flagschiff *2 liefert.

HD 5970 = 2x5850CF von der Leistung her.

Hoffe sie bringen 2 GTX 570 unter, dann wäre die Karte gekauft. 2 560er wäre Nonsense, das können sie sich dann gleich behalten.

550€ wären totale Schmerzgrenze, denn alles darüber hat so einen geringen Wiederverkaufswert.. :\\
 
ja nur weils im Artikel steht, heißts das noch lange nicht :d es ist ja nichtmal noch bestätigt, dass die fix kommt :( Will haben..
 
hmm also nur mit einem 8 Stromstecker kann ich mir nicht vorstellen!
die 300 W Grenze wird wohl dies mal geknackt.
soviel verbraucht mein Rechner ned mal im Last :)
gespannt darf man sein.
 
Im Vollausbau erscheint niemals so ein Monster. Nicht einmal mit stark selektierten Chips...
 
seh schon die ersten leute die ihr gehäuse flexen müssen weil die karte zu groß ist xD
 
Mhhh 2xGF110? OhHa...
Die 2x8Pin PCIe Stromversorgungsstecker lassen schonmal so viel gutes nicht erhoffen.

Nach einfacher Mathematik könnte beispielsweise folgendes rauskommen:
10% weniger Takt als die 580GTX = 700MHz
10% weniger Spannung als die 580GTX = ~0,95V
Und schon dürfte man grob mit 187,5W pro GPU hinkommen... Aber trotzdem reizt man die 2x8Pin dann voll aus. (Gaminglast) Ich denke also eher, man geht mit dem Takt noch etwas runter oder gar mit der Spannung... (Um auch Sachen ala Furmark mit abzudecken)
 
eventuell bringen die boardpartner ja ne verbesserte version raus, die neuen DirectCu II Modelle von Nvidia ham auch ein überarbeitetes PCB mit verbesserter Spannungsversorgung. Dann noch nen fetten 3 Slot oder ne Wakü drauf und wir ham ne üble pornokarte
 
@bassmecke
ich bezweifle sehr stark, dass ne Dual-GPU leiser ist als ne Vapor-X 5870
ich wette wenn du ne dual hast werden dir die Ohren abfallen es seiden du hast ne Wakü, wird aber ziemlich teuer ca.900 für die Karte
 
Mhhh 2xGF110? OhHa...
Die 2x8Pin PCIe Stromversorgungsstecker lassen schonmal so viel gutes nicht erhoffen.

Nach einfacher Mathematik könnte beispielsweise folgendes rauskommen:
10% weniger Takt als die 580GTX = 700MHz
10% weniger Spannung als die 580GTX = ~0,95V
Und schon dürfte man grob mit 187,5W pro GPU hinkommen... Aber trotzdem reizt man die 2x8Pin dann voll aus. (Gaminglast) Ich denke also eher, man geht mit dem Takt noch etwas runter oder gar mit der Spannung... (Um auch Sachen ala Furmark mit abzudecken)

375 watt? ach du sch*iße. Wer baut sowas in seinen Rechner ein?
3 stunden zocken machen knapp 1 kWh = 25 cent.
Macht im Jahr 120 € Stromkosten (3 Stunden am Tag ist aber schon hardcore, ich mache im Monat ned mal 10 stunden voll ^^)
 
375 watt? ach du sch*iße. Wer baut sowas in seinen Rechner ein?
3 stunden zocken machen knapp 1 kWh = 25 cent.
Macht im Jahr 120 € Stromkosten (3 Stunden am Tag ist aber schon hardcore, ich mache im Monat ned mal 10 stunden voll ^^)

Na 375W sind bei 2x8Pin technisch möglich... Was die Karte schlucken wird, ist ne andere Frage ;)
Wobei auch eine HD4870X2 unter Furmark schon die 370W Marke geknackt hat, trotz das die Spannungsversorung (Zuleitung) eigentlich nur bis 300W spezifiziert war...
Also machbar ist das schon, und kühlbar mit Sicherheit auch, ging ja bei der X2 damals auch irgendwie (mit 100°C auf den GPUs) :fresse:
 
375 watt? ach du sch*iße. Wer baut sowas in seinen Rechner ein?
3 stunden zocken machen knapp 1 kWh = 25 cent.
Macht im Jahr 120 € Stromkosten (3 Stunden am Tag ist aber schon hardcore, ich mache im Monat ned mal 10 stunden voll ^^)

nicht schon wieder das thema:rolleyes: wenn jemand vermutlich 600€+ für eine grafikkarte ausgeben kann sollte er auch die 100€ strom dafür zahlen können.....und die amd dualgpu lebt auch nicht von luft und liebe.....
 
nicht schon wieder das thema:rolleyes: wenn jemand vermutlich 600€+ für eine grafikkarte ausgeben kann sollte er auch die 100€ strom dafür zahlen können.....und die amd dualgpu lebt auch nicht von luft und liebe.....

Es geht ja nicht primär darum... Wobei bei dem Post schon. Das schlimmere Übel ist wohl die Kühlung unter Luft...
Denn das ist wirklich nicht ganz ohne 375 mögliche Watt anständig abzuführen...
 
die karte soll im idle schön sparsam sein .....unter last kann se wegen mir auch 500watt verballern .....wenn die leistung stimmt
 
also vollausbau wohl nicht realisierbar, denke 2x gtx 570 aber evtl mit dooppelter vram ,also 2,4 gb pro gpu..
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh