Dual-GPU-Grafikkarte GeForce GTX 590 im Februar?

6GB Vram wird es wohl kaum nicht im Referenz-Design geben. Eine solche Karte ist ganz einfach zu teuer.

3GB sind wesentlich realistischer.


Vielleicht auch nur 1,5 wenn beide GPUs drauf zugreifen können gebe es keine Einbusen gegenüber einer einzelnen 580er und der weitere Vorteil wäre das der Verbrauch dadurch ebenfalls weiter sinken kann,wenn ich nicht 2x1,5GB verbauen muss;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denk schon, dass die Karte 3GB besitzen wird.
Ist halt nur die Frage, ob NV schon soweit ist, diese 3GB zu nutzen, oder dass wie zuvor jeder Chip 1,5GB nutzen kann und somit der ganzen Karte halt auch nur 1,5GB zur Verfügung stehen.
 
1,5GB pro GPU reicht vollkommen aus, alles andere macht die Karte nur teurer, die Karte wird sowieso bis Q4/2011 unschlagbar sein.
 
Ich denk schon, dass die Karte 3GB besitzen wird.
Ist halt nur die Frage, ob NV schon soweit ist, diese 3GB zu nutzen, oder dass wie zuvor jeder Chip 1,5GB nutzen kann und somit der ganzen Karte halt auch nur 1,5GB zur Verfügung stehen.

Nun ja das "Nutzen" hängt ja eher vom User selbst ab wie weit er Willens/im Stande ist diesen Vram Vorteil auszuschöpfen;)

Ich weiß nicht ob 3GB und ein großes SI überhaupt zum tragen kommen werden

Wie gesagt diese Karte wird sich wenn an den oberen Grenzen der Pcie Spezifikation bewegen

Wenn die Chips selber (GF110) also nichtmehr viel Handlungsspielraum hergeben in Sachen Effizienz muss da was auf der Platine selbst abgespeckt werden um den Verbrauch moderat zu halten

Kleineres SI 256bit dafür 2GB shared Ram wären hier gute Alternativen und auch ausreichend für extreme Texturmods und Auflösungen von gut und böse
 
Zuletzt bearbeitet:
Vielleicht auch nur 1,5 wenn beide GPUs drauf zugreifen können gebe es keine Einbusen gegenüber einer einzelnen 580er und der weitere Vorteil wäre das der Verbrauch dadurch ebenfalls weiter sinken kann,wenn ich nicht 2x1,5GB verbauen muss;)

Hört sich nach einer Zyklopenfrau an :d
:lol:

Nur nen Spaß Scully!
 
@ Scully & Dancop: :fresse:
Ok, Back to Topic. :d

Höchstwahrscheinlich wird man schon auf GF110 im Vollausbau und niedrigeren Taktraten zurückgreifen.
Ich denke mal mit 2 x 1.5GB, was auch dieses Jahr, in den meisten Fällen absolut ausreichend sein wird
(es sei denn unter 30" oder FullHD mit DS & jeweils extremen BQ-Settings, Texture-Mods o.ä.)

Wär natürlich nice, wenn man die neue Shared Memory - Technologie nutzen könnte (was vielleicht bis zu 25W weniger Verbrauch
unter Last ausmachen könnte (dafür könnte man dann im Umkehrschluss wieder etwas an den Taktraten schrauben)
-> VR-Zone hat für das gesamte System @ Load bei GTX 580 3GB vs. 1.5GB 23,4W Differenz gemessen),
aber dazu wird es wohl erst später kommen (ich schätze mal vorsichtig frühstens bei einer Kepler-Dual-GPU-Karte - 2012).

EVGA wird ja allem anschein nach bis März die auf der CES vorgestellte, und wohl auf GF114 basierende Eigenkreation bringen -
ein EVGA Mitarbeiter hatte schon auf einem Video bestätigt, dass diese "nur" 2 x 1GB haben wird (außerdem sind pro GPU 4 Phasen verbaut) - also wohl GTX 560 Ti 1GB SLI.

YouTube - EVGA Shows off New Dual-GPU Video Card at C
ES 2011 - GeForce GTX 560?


Nun ja, höchstwahrscheinlich wird man dann von NV, EVGA und auch AMD bei der CeBit mehr Infos geboten kriegen - hoffentlich auch je einen NDA-Fall. :)

MfG
Edge
 
Zuletzt bearbeitet:
Vielleicht auch nur 1,5 wenn beide GPUs drauf zugreifen können gebe es keine Einbusen gegenüber einer einzelnen 580er und der weitere Vorteil wäre das der Verbrauch dadurch ebenfalls weiter sinken kann,wenn ich nicht 2x1,5GB verbauen muss;)

Doch doch, es gäbe schon einen extremen Nachteil zwischen ner 580GTX. Nämlich das der Zugriff auf den RAM der anderen wohl deutlich langsamer sein wird.
Das ist eben der Punkt.
Shared Memory macht zwar in einem gewissen Maße schon Sinn, aber in meinen Augen nicht als Texture Cache. Und genau das ist der größte Teil, der den VRAM verballert, die Texturen...


Und wenn man das mal nüchtern betrachtet, so recht macht es auch keinen Sinn hier krampfhaft was zu ändern. Wenn man sich die Skallierung zwischen einer und zwei GPUs bei ausreichender Forderung dieser mal anschaut, so skallieren die Karten 1A.
Warum also hier teuer umbauen?
Man bedenke, man nimmt für eine Dual Karte einfach normale GPUs der Single GPU und packt diese zusammen auf ein PCB. Fertig ist die Dual GPU Karte...
Für ein komplett anderes Speichermanagement müsste wohl am Chip so einiges umdesignt werden. Und das würde nur dieser einen Dual GPU Karte Vorteil bringen... Das ist der Punkt wo ich glaube, dafür ist MGPU Technik aktuell noch zu untergeordnet und zu wenig am Markt von Bedeutung.

Vllt sehen wir sowas mal, in 3-5 Jahren, wenn die heute bekannten technischen Grenzen der Fertigung erreicht sind und man quasi zwingend um mehr Leistung zu erzielen mehrere GPUs verbauen muss um die Chipgröße der einzelnen GPUs nicht all zu riesig werden zu lassen.
 
Shared Memory ist noch nicht weit genug um das ganze Effizient nutzen zu können. Bei den derzeitigen Speicherpreisen wäre 3 GB ja auch mehr als vertretbar... 6 GB aber trotzdem zu teuer ;)



Vllt sehen wir sowas mal, in 3-5 Jahren, wenn die heute bekannten technischen Grenzen der Fertigung erreicht sind und man quasi zwingend um mehr Leistung zu erzielen mehrere GPUs verbauen muss um die Chipgröße der einzelnen GPUs nicht all zu riesig werden zu lassen.

Ich bezweifel man ganz stark das wir irgendwann sowas wirklich außerhalb von Enthusiast-Produkten sehen werden. Der Kosten/Nutzen Faktor ist einfach zu klein. Zwei kleine Chips sind auch nicht unbedingt besser wie ein großer...
 
Ich bezweifel man ganz stark das wir irgendwann sowas wirklich außerhalb von Enthusiast-Produkten sehen werden. Der Kosten/Nutzen Faktor ist einfach zu klein. Zwei kleine Chips sind auch nicht unbedingt besser wie ein großer...

Abwarten ;)
Wenn die Fertigung nicht mehr zulässt, muss man einen anderen Weg gehen. Mehrere kleine fast allein lauffähige Einheiten zusammen auf einem PCB unterzubringen wird auf jedenfall machbar sein. Und in meinen Augen auch die einfachste Möglichkeit um mit dem extremen Energiebedarf klar zu kommen, einfach weil sich die Fläche erhöht.

Techniken sind ja im Ansatz schon vorhanden um Multi GPU sehr gut skallieren zu lassen. Auch Techniken ohne Nachteile wie MR und erhöhtes InputLag.
Ich denke im Moment fehlt einfach die Intention da weiter vorranzuschreiten, denn mit ner Single GPU fährt man im Moment noch gut.
 
Ich denke mal das du da ans Fertigunglimit denkst.

Die Frage ist ob wir da wirklich jemals hinkommen oder ob nicht vorher schon Alternativen eingesetzt werden.

Die Steinzeit endete ja auch nicht weil es keine Steine mehr gab ;)

Wir müssen mal abwarten was da kommt, das MGPU allerdings eine immer größere Bedeutung gewinnt weil die Umsetzung immer besser wird ist nicht übersehbar.
 
Genau daran denke ich ;)
Die genannten ~10nm stehen nach wie vor wie eine Mauer. Im Moment scheint nix vorhanden wie man bei erreichen dieser Grenze weiter machen kann.

Und ich meine, die Technik so umzubiegen, das eben anstatt größerer Chips mehrere kleine Chips rechnen ist ein möglicher Weg, ohne großen Aufwand mehr Leistung bringen zu können.
Ich meine mich auch dran zu erinnern, das bei AMD mal sowas spekuliert wurde. Da gings irgendwie um einen Basis Chip welcher gepaart mit mehreren Recheneinheiten als dedizierten Chips auf dem PCB gepackt wurde.
Und sowas bringt auch den wohl großen Vorteil mit, das man nur einen einigen Chip als Recheneinheit fertigen muss, und diesen dann eben mehrfach drauf packt um die Leistungsklassen abdecken zu können.
 
Back to the 90's :d

Ich denke mal das die Taktrate irgendwann mal wieder deutlich nach oben geht. Das Limit liegt soweit ich weiß bei 8nm, jedenfalls hatte Intel da mal was vorgestellt, ob es aber jemals kommt...

Stacking ist auch noch eine Alternative. Sollte man wirklich mal auf CNTs gehen, die eine Wärmeleitfähigkeit haben die alles übersteigt wäre auch die Kühlung einer solchen Lösung kein Problem. Die oben angesprochenen Taktraten sind dann ganz sicher drin ;)

Evtl kommt Stacking ja auch schon bei Ivy-Bridge. Die 1GB Ram werden evtl mit einem ähnlichem verfahren untergebracht. Wenn man das bei einer GPU mit dem Cache machen könnte würde das schon einiges bringen. Vielleicht würden beim Stacking die Chips an sich auch wieder kleiner weil ich die Infrastruktur effizienter gestalten kann.
 
Ja klar ist das ne Möglichkeit. Aber eben nur ein einziges mal. Wenn ich in zwei Lagen fertige muss schon potentiell doppelte Wärme auf gleicher Fläche abgeführt werden. Mit jedem weiteren Schritt erhöht sich das 1:1... Das halte ich für äußerst problematisch.

Wobei man sicher gewisse Teile auch stacken könnte ohne da groß an Thermische Grenzen zu kommen.
Für mich klingt das aber auch nur nach ner Notzwischenlösung, die nicht das Allerheilmittel werden kann.
 
Deswegen sage ich ja das auch neue Materialien dazukommen müssen die zum einen Wärme besser leiten und zum anderen unempfindlicher gegen Wärme an sich sind (CNTs).

An sich würde man so einen Chip schonmal um 50% verkleinern. Mit guter Logistik nochmal um 10% oder mehr. Es wird wohl auf jeden fall die Mischung verschiedener Techniken bringen.
 
Schön zu sehen, dass auch Mods manchmal OT sind :p
Nach den 10/8nm wird imo die Siliziumbasis verlassen und auf Organische Materialien (die angesprochenen Carbonnanoröhrchen) oder ähnliches umgestellt wird. Da ist <1nm drin...

@t: kann es sein, dass sich 1024 Cuda cores vor allem bei GPGPU sehr gut machen wird (auch mit reduzierten Taktraten)? Dabei ist doch vor allem die Anzahl wichtig.
 
@t: kann es sein, dass sich 1024 Cuda cores vor allem bei GPGPU sehr gut machen wird (auch mit reduzierten Taktraten)? Dabei ist doch vor allem die Anzahl wichtig.

Das ist Softwaresache...
Beispielsweise PhysX skalliert sehr sehr schlecht mit dem Takt. Das habe ich damals mal getestet mit diesem FluidMark PhysX Bench... Da macht 100% mehr Takt fast gar kein Performancegewinn aus.

Games ansich sollten schon sehr gut mit steigender ALU Anzahl skallieren.
Aber unterm Strich ist es immer noch ein 1:1 Verhältnis. 100% mehr Takt bringen in Games annähernd 100% mehr Leistung, bei 100% mehr ALUs, sollte das nicht anders sein (lässt sich aber etwas schwerer vergleichen aus Mangel derartiger Kartenkonstellationen)

Für NV scheint laut manchen Meldungen aber die mehr ALU Version gegen die mehr Takt Version aber deswegen vorn zu liegen, weil man durch weniger Takt eben Energieeffizienter arbeiten kann.
 
EVGA wird ja allem anschein nach bis März die auf der CES vorgestellte, und wohl auf GF114 basierende Eigenkreation bringen -
ein EVGA Mitarbeiter hatte schon auf einem Video bestätigt, dass diese "nur" 2 x 1GB haben wird (außerdem sind pro GPU 4 Phasen verbaut) - also wohl GTX 560 Ti 1GB SLI.
Wenn das der Fall sein sollte, stehen die Vorzeichen ja nicht gerade günstig für die Absolute High-End Karte, wenn man sich bei Computerbase die Performance Ratings @ 2560x1600 anschaut. Da sich 560-SLI unter der Auflösung nur noch geringfügig bis garnicht vor einer 580er befindet.

Games ansich sollten schon sehr gut mit steigender ALU Anzahl skallieren.
Aber unterm Strich ist es immer noch ein 1:1 Verhältnis. 100% mehr Takt bringen in Games annähernd 100% mehr Leistung, bei 100% mehr ALUs, sollte das nicht anders sein (lässt sich aber etwas schwerer vergleichen aus Mangel derartiger Kartenkonstellationen)
Wäre es dann nicht eigentlich aus nVidias Sicht, welche sich ohnehin schon mit der 580er nahe der gehandelten 300(bis 375)W Grenze bewegen, einfacher da nochmal ein Taktupdate zu bringen mit einem GF110 Chip?!

Laut dem hardwareluxx Test einer GTX 580 mit einem angehobenen Takt von 906/1812/1137MHz bei extremen Einstellungen (2560x1600, 8xAA, 16xAF) im Durchschnitt 14% Mehrleistung bei 10% (49W) mehr Energieaufnahme. Hier wäre also mit einer "Durchschnittskarte" bei etwa 900/1800/1130MHz die 300W Marke erreicht.

Mit "verbessertem" PCB / Kühlung und selektierten Chips könnte man sicherlich 950/1900MHz (+23%) erreichen, beim Speicher könnte man auf 2750MHz (+37,5%) wie bei der HD6970 umsteigen. Das wäre in der Summe eine Taktsteigerung von runden 30 Prozent, dessen Leistung in jeder Anwendung zur Verfügung steht und nicht unter MGPU Krankheiten beeinträchtigt wird. Denke dies wäre bei ca 325W realisierbar.

Im Computerbase 2560x1600 8xAA/16xAF Performance Rating leistet ein HD6950 CF-Gespann (2x 200W TDP) rund 62% mehr als eine normale GTX 580. Wenn sich AMD 300W als Ziel für die Dual-GPU Karte setzt (laut bisherigen Infos), müßte der Verbrauch um 25% gesenkt werden. Ich schätze mal "blauäugig" das kostet etwa 20 Prozent Leistung.

Wenn ich als diese sehr einfach gehaltene Spekulationsrechnung beende, von den 62% (6950-CF > GTX580) runde 20 (6950 CF auf 300W trimmen) und 30 (GTX 580 OC) Prozent abziehe, bleiben am Ende etwa 12% auf der AMD Haben Seite, dafür jedoch auch die üblichen MGPU Problemchen. Während nV wahscheinlich besser über den Preis agieren könnte aufgrund Single-GPU Lösung, bei AMD schwieriger da alles zweifach verbaut.

Ich würde eine High-Clock Single-GPU Karte einer Dual Lösung vorziehen bei annähernd gleichem Stromverbrauch und etwas weniger Leistung.

...und ja, ich hatte ich grad Langeweile :fresse:
 
Zuletzt bearbeitet:
Wäre es dann nicht eigentlich aus nVidias Sicht, welche sich ohnehin schon mit der 580er nahe der gehandelten 300(bis 375)W Grenze bewegen, einfacher da nochmal ein Taktupdate zu bringen mit einem GF110 Chip?!

Laut dem hardwareluxx Test einer GTX 580 mit einem angehobenen Takt von 906/1812/1137MHz bei extremen Einstellungen (2560x1600, 8xAA, 16xAF) im Durchschnitt 14% Mehrleistung bei 10% (49W) mehr Energieaufnahme. Hier wäre also mit einer "Durchschnittskarte" bei etwa 900/1800/1130MHz die 300W Marke erreicht.

Mit "verbessertem" PCB / Kühlung und selektierten Chips könnte man sicherlich 950/1900MHz (+23%) erreichen, beim Speicher könnte man auf 2750MHz (+37,5%) wie bei der HD6970 umsteigen. Das wäre in der Summe eine Taktsteigerung von runden 30 Prozent, dessen Leistung in jeder Anwendung zur Verfügung steht und nicht unter MGPU Krankheiten beeinträchtigt wird. Denke dies wäre bei ca 325W realisierbar.

Du vergisst bei deiner Ausführung, das eine 580GTX in manchen Anwendungen schon mit Standardtakt über 300W allein verbraucht ;)
Und daran gibts nix zu rütteln. Gesamtsystemmessungen bringen absolut keinen Vergleich.
Und diese Takterhöhung wird sicher idR auch durch mehr Spannung nur machbar sein auf der GPU. Was wiederum den Nachteil bringt, das die GPU noch mehr Strom verbraucht (nämlich im quadrat)

Im Computerbase 2560x1600 8xAA/16xAF Performance Rating leistet ein HD6950 CF-Gespann (2x 200W TDP) rund 62% mehr als eine normale GTX 580. Wenn sich AMD 300W als Ziel für die Dual-GPU Karte setzt (laut bisherigen Infos), müßte der Verbrauch um 25% gesenkt werden. Ich schätze mal "blauäugig" das kostet etwa 20 Prozent Leistung.

Wenn ich als diese sehr einfach gehaltene Spekulationsrechnung beende, von den 62% (6950-CF > GTX580) runde 20 (6950 CF auf 300W trimmen) und 30 (GTX 580 OC) Prozent abziehe, bleiben am Ende etwa 12% auf der AMD Haben Seite, dafür jedoch auch die üblichen MGPU Problemchen. Während nV wahscheinlich besser über den Preis agieren könnte aufgrund Single-GPU Lösung, bei AMD schwieriger da alles zweifach verbaut.

Ich würde eine High-Clock Single-GPU Karte einer Dual Lösung vorziehen bei annähernd gleichem Stromverbrauch und etwas weniger Leistung.

...und ja, ich hatte ich grad Langeweile :fresse:

Eine HD6950 allein genehmigt sich grobe 150-160W allein ;)
Sprich der Optimierungsbedarf beim Stromverbrauch ist zu vernachlässigen.
Selbst unter Furmark Volllast kommen da "nur" grobe 185W bei rum. Es wäre also durchaus machbar.

Wie man das bei NV hingegen machen will, ist mir noch etwas schleierhaft. Ich gehe aber davon aus, das man mit 375W aufwarten wird. (Entgegen der Spezifikationen) Sofern wirklich zwei GF110 Chips kommen werden.
 
Das stimmt allerdings... Wobei dann ein Möglicher Vergleich zu AMD eher ungerecht wäre, sofern AMD die 300W pro PCIe Karte einhalten würde...
 
Hm - mit z.B. je max. 600 MHz @ GF110 Vollausbau (bei "nur" 80% Skalierung grob 35% vor einer 580er - in Anbetracht, dass die Leistung quasi linear mit dem Takt skaliert)
und entsprechend niedrigen VCores sollte das im Vollausbau schon mit 375W problemlos gehen - bei 300W aber wohl weniger - da müsste man wohl noch mehr an der Taktschraube nach unten drehen. Es wäre mMn aber nicht so sinnvoll, wenn die Dual-GPU-Karte z.B. nur 20% vor der GTX 580 liegen würde. Dann würde es auch eng werden, gegen die HD 6990 (ich schätze mal maximal RV970 Vollausbau mit HD 6950 Taktraten) zu bestehen und man hätte bestenfalls Gleichstand.

Wobei man mal mit 2 einzelnen entsprechend heruntergetakteten und undervolteten 580ern messen könnte
(z.B. bei HT4U, die ja die Möglichkeit hätten den direkten Kartenverbauch zu messen),
was man an Verbrauch mit niedrigen Taktraten einsparen kann. Es wär zumindest mal interessant zu sehen. :)

Letztendlich muss die Karte maximal ja "nur" ~ 40% vor der 580er liegen. So war es zumindest bei der 295er im Vergleich zur 285er (solange die 896 MB ausreichend waren und das Profil gepasst hat). Es kommt halt auch etwas drauf an, wie schnell die HD 6990 wird - ich vermute etwa so flott wie HD 6950 2GB CF (also im Schnitt 20% vor einer HD 5970 - wenn mehr VRAM benötigt wird, auch entsprechend mehr) - das könnte man schon mit 300W schaffen und entsprechend selektierten GPUs bzw. niedrigen VCores). ).
 
Zuletzt bearbeitet:
Das stimmt allerdings... Wobei dann ein Möglicher Vergleich zu AMD eher ungerecht wäre, sofern AMD die 300W pro PCIe Karte einhalten würde...

Naja, es zählt ja was am Ende raus kommt. FPS/Watt ist Amd da wohl ziemlich sicher auf der Gewinnerseite, bei der puren Performance aber wahrscheinlich nicht.

Eigentlich ist es gut das bei PCIe 3.0 die maximale Stromaufnahme noch immer bei 300 Watt liegt und damit die Stromaufnahme erstmal etwas stagniert.
 
Das bringt dann aber natürlich auch den Nachteil mit, das der Dual GPU Markt kleiner wird. Denn wenn die Single GPU schon 300W+ verballern kann, wirds für ne Dual Lösung schon sehr schwer...

EDIT:
Ich finds aber richtig, das man hier nicht nach oben dreht, denn irgendwie muss das Teil gekühlt werden. Und 300W sind schon nicht ohne. ;)
 
Ich seh schon bald im EVGA Forum viele Quad-SLIler.. Auch wenn da mal eben 700W und mehr für die Grakas geliefert werden muss..
Würde auch tripple-Dual-GPU gehen? 3x 2Chips :d
Wäre doch mal was Neues.

Es sind nur noch ein paar Tage..
 
Ich seh schon bald im EVGA Forum viele Quad-SLIler.. Auch wenn da mal eben 700W und mehr für die Grakas geliefert werden muss..
Würde auch tripple-Dual-GPU gehen? 3x 2Chips :d
Wäre doch mal was Neues.

Es sind nur noch ein paar Tage..

Nö, bei 4 GPU´s macht Windows dicht :wink: .

@fdsonne: Und wenn AMD/nVidia gerade lustig sind, und eine Dual PCB version bringen?

Dann kann das Teil ja praktisch 600W verknallen...
 
wer sich eine GTX 590 kauft der schmeisst Geld zum Fenster raus. Wenn er zu viel hat dann macht nichts.
das ist so ein vollgestopftes stück schei*** wie die gtx 295 die es zu nix gebracht hat. Ein Ferrari mit 2 Motoren fährt auch nicht viel schneller als einer mit nur 1 Motor. Es kommt nur auf die Grenze des Chips an. Wenn beide am Limit sind dann fahren sie immer noch gleich wie einer allein.
 
Nö, bei 4 GPU´s macht Windows dicht :wink: .
Nein, Windows hat damit nix zu tun...
Grundsetzlich gibt es so erstmal da keine Beschränkung auf vier GPUs.
Windows beschränkt wohl die Anzahl der ansteuerbaren Monitore auf ich glaube 10-12, sofern keine Technik ala Eyefinity zum Einsatz kommt. (also im Windows default Modus)

Das nicht mehr wie vier GPUs gehen, scheint eher daran zu liegen, das wohl erstens unter DX9 nur maximal drei Bilder im vorraus berechnet werden können, sprich AFR nur bis maximal vier GPUs skallieren kann.
Und zweitens, weil im AFR Modus die Skallierung auf die GPUs mit steigender Anzahl immer stärker abnimmt. Eben weil mit jeder weiteren GPUs ein weiteres Bild im vorraus berechnet werden muss, wessen Inhalt sich mit einer Eingabe potentiell ändern wird. Eine Vorrausberechnung wird somit mit steigender Anzahl zunehmend schwieriger.
Vom Inputlag mal ganz zu schweigen...

@fdsonne: Und wenn AMD/nVidia gerade lustig sind, und eine Dual PCB version bringen?

Dann kann das Teil ja praktisch 600W verknallen...

Nein kann sie nicht... Die Spezifikation besagt 300W pro PCIe Steckkarte... Da können 20 PCBs zu einer Karte gehören. Es ist und bleibt eine einzige Steckkarte im PCIe Slot.
Wenn die Karte zwei PCIe Slots nutzen würde, sprich zwei mal 16x Anbindung haben würde, so könnten 2x300W (nicht 600W) verbraucht werden. Die Einschränkung mit 300W pro PCIe Slot Steckkarte bleibt aber weiterhin, deswegen auch keine 600W...
Aber aufgrund der idR nie gleichen Anordnung der Slots absolut unmöglich zu bauen...

wer sich eine GTX 590 kauft der schmeisst Geld zum Fenster raus. Wenn er zu viel hat dann macht nichts.
das ist so ein vollgestopftes stück schei*** wie die gtx 295 die es zu nix gebracht hat. Ein Ferrari mit 2 Motoren fährt auch nicht viel schneller als einer mit nur 1 Motor. Es kommt nur auf die Grenze des Chips an. Wenn beide am Limit sind dann fahren sie immer noch gleich wie einer allein.

Wenn man keine Ahnung hat, ...
Troll dich bitte woanders, wenn du nix zum Thema beizutragen hast...
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh