Dual-GPU-Grafikkarte GeForce GTX 590 im Februar?

Ja doch sicher.. (siehe Avatar) aber noch nie ne Dual-Chip Karte - dachte da wird das dann in einem angegeben..
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
weil genau das der NDA unterliegen wird..
heißt aber, die Karten sind schon fast "ready to launch"
 
Wenn die Karte wirklich so kommen sollte wird das auf jeden Fall was ganz brutales dem Antilles nicht viel entgegen zu setzen hat.
 
@ HeinzNeu: Ist ja gut mit dem Tattoo - wir haben es zur Kenntnis genommen. :)

Nun ja, mit Texturfüllrate (= Coretakt * TMUs) könnte man z.B. auch den Coretakt errechnen. Mit der Pixelfüllrate (= Coretakt * ROPs) ebenso. :)
Darum hat man das unkenntlich gemacht.


Wenn das kein Fake ist - könnte man ja etwas spekulieren, wenn man vom GF110 Vollausbau ausgeht (inkl. 48 ROPs und 64 TMUs). ;)

@ 600 MHz Core = 28.8 GPixel/s und 38.4 GTexel/s
@ 607 MHz Core = 29.1 GPixel/s und 38.8 GTexel/s
@ 625 MHz Core = 30.0 GPixel/s und 40.0 GTexel/s
@ 650 MHz Core = 31.2 GPixel/s und 41.6 GTexel/s
@ 675 MHz Core = 32.4 GPixel/s und 43.2 GTexel/s
Irgendwo dazwischen sollte es dann liegen.
Eventuell möglich wären auch z.B. GTX 470 Taktraten (mit 650 MHz (GTX 460 SE) und 675 MHz (GTX 460)
wären die Core/Shader - Taktraten zweier weiterer Fermi-Modelle in der oberen Speku-Liste vertreten).

Der Speichertakt wird maximal sicherlich 1002 MHz betragen - garantiert nicht oberhalb der GTX 580.

MfG
Edge
 
Zuletzt bearbeitet:
ich bin auf den Kühler gespannt mit 6xx mhz ist das ganze natürlich etwas entschärft aber 2 GF110 zu kühlen ist nicht ganz ohne:fresse: Wird sicher ein heißes Eisen so und so
 
Zuletzt bearbeitet:
Und ich auf die Spannungsversorgung.
Glaub kaum die die jetzige einer GTX580 ausreicht mit 1x6P in und 1x8 Pin.
Eventuell 2x8 Pin? oder 2x6 Pin und 1x8 Pin?
Je mehr umso besser dann dann kann man ordentlich takt aus der Karte quetschen.
 
Und ich auf die Spannungsversorgung.
Glaub kaum die die jetzige einer GTX580 ausreicht mit 1x6P in und 1x8 Pin.
Eventuell 2x8 Pin? oder 2x6 Pin und 1x8 Pin?
Je mehr umso besser dann dann kann man ordentlich takt aus der Karte quetschen.

Werden wohl 2x8Pin sein, also theoretisch max. 375W


Sent from my iPhone using Hardwareluxx
 
2x8 Pin wär schon realistisch und wurde ja auch schon mal beim ES so gebaut:

DualGF110.jpg


Wären dort 5 Phasen je GPU, also etwas unterhalb der GTX 580 (6).

MfG
Edge
 
Zuletzt bearbeitet:
ich glaube NV wird da wie bei der 580 ne "Sperre" einbauen (müssen)
 
So siehts aus, selbst die 375W sind sehr mager für zwei voll ausgebaute GF110.
Angeblich soll Nvidia aber schon eine weile Chips für die GTX590 selektieren.
 
News von HT4U:

Vorstellungsdatum der HD 6990 und GeForce GTX 590 bislang noch ungewiss
Grafik | 16.02.2011, 19:31
Es wurde bislang ja bereits hinreichend um die kommenden Dual-GPU-Grafikkarten von AMD und NVIDIA spekuliert, doch handfeste Informationen finden sich bislang noch nicht wirklich und es ist in den vergangenen Tagen auch recht ruhig um die beiden "Neulinge" in den Grüchten zum Grafikkartenmarkt geworden. Während die Presse eigentlich weiterhin von einer offiziellen Vorstellung noch zur CeBIT ausgeht, schweigen die Partner bei beiden Hersteller sich aktuell aber noch über ihre Pläne aus – konkrete Daten sind Mangelware.

So scheinen sich aufgekommene Gerüchte, dass NVIDIA seine GeForce GTX 590 noch deutlich vor der CeBIT vorstellen wird erst einmal nicht zu bewahrheiten. Wir waren heute ein wenig am recherchieren und fanden dabei ein paar Informationen, welche darauf hindeuten, dass es bei beiden Herstellern aktuell zu Verzögerungen kommen soll. Zwar wollen beide – AMD wie NVIDIA – auf der in Kürze startenden CeBIT mit passenden Produkten glänzen, doch soll man in beiden Lagern einen "Paperlaunch" aktuell fürchten.

Gab es bei NVIDIA bislang Spekulationen, dass die neue GTX 590 handverlesene GPUs benötige und darum die Mengen begrenzt sein würden, hörten wir in unseren heutigen Gesprächen, dass Verzögerungen in beiden Lagern wohl aktuell mit dem "Chinese New Year" begründet seien. Durch die Feiertagszeit in entsprechenden Teilen Asiens, in welchen nicht gearbeitet wird, sei es mitunter zu Fertigungs- und Auslieferungsproblemen gekommen.

Im Hinblick auf die angesprochene Furcht vor Schelte bei einem Papierlaunch, sollen beide Hersteller nun Überlegungen anstellen, die Produkte erst nach der CeBIT 2011 offiziell vorzustellen. Die diesbezüglichen Daten sind laut unserer Quelle aber ebenfalls unklar. So soll NVIDIA derzeit über den 8. oder 15. März intern diskutieren. Pläne zu konkreten AMD-Planungen konnten wir nicht in Erfahrung bringen. Unterschwellig erfuhren wir, dass ein Launch zur CeBIT allerdings weiter nicht ausgeschlossen sei.

Vorstellungsdatum der HD 6990 und GeForce GTX 590 bislang noch ungewiss - Nachrichten bei HardTecs4U

Also wohl frühstens eine Vorstellung zur CeBit, eventuell auch bis zu ~ zwei Wochen danach.

MfG
Edge
 
Zuletzt bearbeitet:
Man könnte auch argumentieren, dass noch nicht zuviele Infos herausgehen sollen und man nur grob bescheid wissen soll. :)
So war es zum Beispiel auch bei einem GPU-Z Screenshot von PHK zur 560 Ti - gestimmt haben die Daten im dem Fall.

MfG
Edge
 
Zuletzt bearbeitet:
Bei mir schon. ;)

Nun ja, war auch nur ein Beispiel bezogen auf einen GTX 560 Ti GPU-Z Screenshot, also keine weiteren Details zur 590er. :)

nvidia_geforce_gtx_560tmwm.png
MfG
Edge
 
Hier kam keine entsprechende Meldung.
Nun ja, habe es eh nochmal auf Abload hochgeladen.

Ja, es kann natürlich sein, dass das ein Fake war, aber nicht umbedingt und das wollte ich mit dem Screenshot zum Ausdruck bringen, denn die Specs stimmen in dem Fall.

Nun gut, kommen wir wieder zur 590er. :)
Meiner Meinung nach könnten 6xx MHz schon realistisch sein - je nachdem wäre dies eventuell mit z.B. 0.950V möglich,
was unter Last im Vergleich zu etwa 1.000V den Verbrauch pro GPU schon ordentlich senken würde, sodass man trotz Vollausbau
innerhalb der 375W bleiben kann.

MfG
Edge
 
Zuletzt bearbeitet:
Auch mit dem 3.0 Standard bliebe es offiziell bei 8+6 Pin PCI-E (also der 300W Grenze).
Vor Kepler wird 3.0 aber eher nicht unterstützt - höchstens bei eventuell in kommenden Monaten
erscheinenden kleineren Karten, um Erfahrung im 28nm Prozess zu sammeln. Damals hat man 2.0 ja mit der 8800 GT eingeführt.

Zum Thema SLI mit 2GPUs und MR: Ich habe da schon etwas Erfahrung machen können (1,5 Jahre die 295er genutzt und auch mal für ein Wochenende ein 470er SLI System aufgebaut bzw. in Aktion gesehen) und muss sagen, dass es subjektiv betrachtet prima läuft (gut, Metro oder Crysis WH waren dann mit sehr hohen Settings auch bezüglich VRAM zuviel für die 295er :d) - zumindest ich merke idR nichts von MR - es mag Leute geben, die das etwas differenzierter wahrnehmen, aber ich denke, dass auch diese zumindest beim direkten Vergleich eher zu SLI tendieren würden. CF hatte ich selbst noch nicht, aber der Kollege PCZeus - und mit der HD 4870 X2 war er bezüglich MR nicht so zufrieden.

Gut - bevor hier wieder eine Grundsatzdiskussion SLI oder CF ausbricht -> :btt: :)

MfG
Edge
 
Zuletzt bearbeitet:
Ich hatte vor 3 Monaten zwei HD5870 und hab vom MR auch nichts mitbekommen ;)
Trotzdem geb ich meine GTX580 so schnell nicht wieder her, wie unterschied wie Tag und Nacht bei den min FPS in BFBC2 :)
 
Ich werde meine auch behalten und ne zweite dazusatteln. Mit dem Sandy auf 4,5 werden die dann auch ganz gut befeuert!
:d:d:d
 
Wenn die Karte wirklich so kommen sollte wird das auf jeden Fall was ganz brutales dem Antilles nicht viel entgegen zu setzen hat.

Woher kommen eigentlich immer solche Aussagen!? :rolleyes:
Betrachtet das ganze doch mal nüchtern...

Wir haben ne GF110 GPU einer 580GTX. Default VGPU Spannung dürfte was im Bereich 1,05-1,06V unter Last sein. Leistungsaufnahme unter Spielelast liegt in etwa bei ca. 245W.

Nehmen wir nun grobe 650MHz für die Dual GPU Geschichte an, sind das mal grobe 17% weniger Takt als die 580GTX hat. Sprich die GPU büßt mal eben auch grobe 17% Leistung ein. Takt skalliert zur Leistungsaufnahme 1:1 und Spannung zur Leistungsaufnahme im Quadrat.
Sprich mit 17% weniger Takt kommt die Karte auch mit groben 17% weniger Leistungsaufnahme daher. Man würde also ca. 203W verbrauchen.
Senken wir nun die Spannung dazu nochmal auf 0,95V im 3D wären nochmal grobe 20% Verringerung der Leistungsaufnahme drin. Sprich man wäre in etwa bei ca. 162W pro Kartenteil.

Rein rechnerisch sollten also grobe 320W realer Verbrauch in Games bei 650MHz und 0,95V Spannung bei rumkommen...
Ich denke das ist realistisch sowas auszuliefern...


AMD könnte mit einer vollausgebauten RV970 GPU aber HD6950 Taktraten ebenso im Bereich knapp über 300W agieren.
Nehmen wir also nun die Leistung 570GTX SLI Gespanns, so liegen zwischen 12-19% (laut CB Vergleich) zwischen eben diesem und einem 580GTX SLI.
Heist also, mit der 590GTX wäre man wohl in etwa Leistungstechnisch auf dem Level des 570GTX SLI Gespanns. Mal etwas mehr, mal etwas weniger.

AMD könnte mit der HD6990 wohl in etwa auf Leistungslevel vom HD6950 CF kommen. Vllt minimal drüber, wenn man vom Vollausbau der GPU mit gesenkten Taktraten rangeht.

Unterm Strich bedeutet das anhand der CB Messungen, die HD6990 wäre in "kleinen" Auflösungen ala FullHD etwas langsamer (~7-8%) als die 590GTX. Mit steigenden Auflösungen/Qualisettings wird man aber bis zu 10% und mehr vorbeiziehen können... Von nicht viel entgegenzusetzen kann man da ganz klar nicht sprechen. Ich halte übrigens die 1,5GB (wenn sie denn so kommen werden) von der 590GTX für zu wenig für die Zukunft. Macht NV das so, begehen sie den gleichen Fehler wie bei der 9800GX2 und der 295GTX. Man spart an der falschen Stelle ;)

ich selber nehme dieses MR-Phänomen nur wahr, wenn die Frames unter 22 ps rutschen- und das ist extrem selten der Fall.

Das hat dann aber nix mehr mit MR zu tun... Bei 22FPS sind die Frametimes einfach so derart groß, das das Auge selbst diese Zwischenzeiten als Ruckeln empfindet. ;)
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh