NVIDIA plant bis Herbst keine neue Grafikkarten

mhab

[online]-Redakteur
Thread Starter
Mitglied seit
03.08.2007
Beiträge
3.900
<p><img src="/images/stories/logos/nvidia.gif" width="100" height="100" alt="nvidia" style="margin: 10px; float: left;" />Die kalifornische Grafikschmiede NVIDIA hat vor kurzer Zeit den Marktstart der GeForce GTX 760 eingeleitet und gleichzeitig betonte das Unternehmen, dass bis zum Herbst kein weiteres Modell mehr geplant sei. Somit ist wohl der Ausbau der GeForce-700-Serie beendet und das Portfolio vollständig. Gerüchte sprechen jedoch davon, dass NVIDIA eventuell gegen Ende des Jahres noch eine sehr leistungsstarke Grafikkarte planen könnte und dabei der Grafikprozessor GK-110 zum Einsatz kommen soll. Bei diesem Modell soll die GPU voll ausgebaut sein und mit 2880 Shader-Rechenkernen an den Start gehen.</p>
<p>Die nächste Generation „Maxwell“ soll dann erst 2014 erscheinen und...<br /><br /><a href="/index.php/news/hardware/grafikkarten/26892-nvidia-plant-bis-herbst-keine-neue-grafikkarten.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das macht nichts, habe mir gerade erst die 770er geholt dann ist der Drang zum basteln nicht so riesig :)
 
Glaub nicht, dass eine Titan 2/Ultra/... kommt. Wenn, dann eher eine GTX 790. Und im April/Mai dann Maxwell@20nm.
 
Eine Dual-Karte auf Basis des GK110 wird wohl nicht kommen. Zu hoher Stromverbrauch. Und da die GTX690 schon 2xGK104 besitzt, so benötigt niemand eine weiter solche Karte.
Wenn dann kommt eher eine Titan Ultra für Leute, denen die Titan schon zu billig ist.
 
Alles nur spekulationen bis jetzt.

Der K20x hat ja auch nicht so viele Einheiten.
 
Zuletzt bearbeitet:
Eine Dual-Karte auf Basis des GK110 wird wohl nicht kommen. Zu hoher Stromverbrauch. Und da die GTX690 schon 2xGK104 besitzt, so benötigt niemand eine weiter solche Karte.
Wenn dann kommt eher eine Titan Ultra für Leute, denen die Titan schon zu billig ist.

Titan braucht an der Leine (Power- und Temptarget) weniger als eine GTX580 und von der kam auch eine Dualkarte. Eine Titan Ultra macht dagegen überhaupt keinen Sinn.
 
Beides macht keinen Sinn. Und beides kommt nicht ;)

Titan Ultra mit 15 SMX und dann noch OC, wer soll dann Maxwell kaufen?
 
Eine 790 würde schon Sinn machen, um die 7990 bzw. 8990 zu schlagen oder zumindest gleichzuziehen. Titan liegt schon ein komfortables Stück vor der 7970 GHz und dürfte auch durch die 8970 (sofern sie noch auf 28nm kommt) nicht übermäßig bedrängt werden. Von daher besteht hier kein Handlungsbedarf.
 
Maxwell wird nicht billiger als Kepler ;)
 
Maxwell kann man aber sicher auch übertakten ;)
Und billiger als Titan wird er sowieso sein, sparsamer und fortschrittlicher (DX11.1/2). Dennoch habt ihr natürlich Recht, macht keinen Sinn, das können nicht die alleinigen Verkaufsargumente sein für Maxwell, ein gewisser Abstand zu Titan (+25-30%) sollte schon bestehen bleiben.
 
Sicher ist der übertaktbar
Die können den aber nicht auf Niveau von ner Titan Ultra verticken und dann sagen, aber mit OC is besser...

Darum wirds die Karte nie geben
 
Nunja mit einer TITAN ultra würde man sich ja die Enthusiast Kunden vergraulen. Ich tippe mal auf eine GK 110 Vollausbau und dann eben als Extrem teure 2k € Karte, vllt sowas wie eine Tesla für Heimanwender.. Wobei ich sehe eigentlich keinen Grund ein GK 110 Vollausbau zu bringen.. NV wird garantiert nicht über die Titan gehen und die GTX780 kratzt verdammt nah an der Titan
 
Titan braucht an der Leine (Power- und Temptarget) weniger als eine GTX580 und von der kam auch eine Dualkarte. Eine Titan Ultra macht dagegen überhaupt keinen Sinn.

Die GTX580 wurde aber noch von NVIDIA entwickelt, wo das Verbrauchsimage noch nicht so im Vordergrund stand wie Heute. NVIDIA ist noch grüner geworden und wird mit Sicherheit keine Karte mit 400-500 Watt Verbrauch auf den Markt werfen.
Denkbare wäre da eine 300 Watt Titan Ultra mit 15 SMX und nochmals angezogenen Takt sowie erhöhter Temp- Powertarget.

Beides macht keinen Sinn. Und beides kommt nicht ;)

Titan Ultra mit 15 SMX und dann noch OC, wer soll dann Maxwell kaufen?

Maxwell ist die nächster Generation. Über die Leistungsfähigkeit ist gar nichts bekannt. Der 20nm Fertigungsprozess soll obendrein auch deutlich weniger bringen wie erhofft, so dass sich Maxwell gar nicht so weit entwickeln kann wie geplant.
Maxwell wird zuerst im abgespeckten GM 104 sein Auftritt bekommen und eventuelle so kaum schneller als ein GTX 780 sein.
Dafür eben nicht so teuer wie eine Titan. Und schon bleibt eine Titan Ultra immer noch populär, die noch teuere als Titan sein wird.
Ich glaube man sollte sich die Performancesprünge nicht mehr so groß erhoffen.

Die zweite Option ist, das die ominöse neue Karte eventuell eine neue Tesla sein wird auf Maxwell-Basis. Wir werden sehen.
 
Die GTX580 wurde aber noch von NVIDIA entwickelt, wo das Verbrauchsimage noch nicht so im Vordergrund stand wie Heute. NVIDIA ist noch grüner geworden und wird mit Sicherheit keine Karte mit 400-500 Watt Verbrauch auf den Markt werfen.
Denkbare wäre da eine 300 Watt Titan Ultra mit 15 SMX und nochmals angezogenen Takt sowie erhöhter Temp- Powertarget.

Die GTX 590 hat eine TDP von 365W gehabt. Deine 400-500 Watt sind reine Fantasiewerte.
 
Maxwell ist die nächster Generation. Über die Leistungsfähigkeit ist gar nichts bekannt. Der 20nm Fertigungsprozess soll obendrein auch deutlich weniger bringen wie erhofft, so dass sich Maxwell gar nicht so weit entwickeln kann wie geplant.
Maxwell wird zuerst im abgespeckten GM 104 sein Auftritt bekommen und eventuelle so kaum schneller als ein GTX 780 sein.
Dafür eben nicht so teuer wie eine Titan. Und schon bleibt eine Titan Ultra immer noch populär, die noch teuere als Titan sein wird


Das ist der Inhalt meines Postings, danke fürs sinngemäße Wiedergeben :d

Ja, aber ich weiß nicht, wieso da noch drüber diskutiert wird? Weil PCGH, 3DC oder irgendwer feuchte Träume hat?

Ich hatte es schon im Januar gesagt, dass es keine 15 SMX für Endanwender gibt, ebenso war auch klar das eine Titan Lightning nicht erscheint und es ist auch klar das keine 785 oder 790 erscheint.


Jede dieser oben genannten Karten macht aus deinen schön beschriebenen Gründen Maxwell obsolet. So dumm ist Nv nicht, die fangen nicht an ihre Chips mit Spielebundles zu verhökern.
 
Zuletzt bearbeitet:
Eine 790 würde schon Sinn machen, um die 7990 bzw. 8990 zu schlagen oder zumindest gleichzuziehen. Titan liegt schon ein komfortables Stück vor der 7970 GHz und dürfte auch durch die 8970 (sofern sie noch auf 28nm kommt) nicht übermäßig bedrängt werden. Von daher besteht hier kein Handlungsbedarf.

und was hat das damit zu tun,
für 1 Titan bekommt man:

2x7970ghz/680
3x7950b.ed./670
4x7870(xt)/gtx660ti

und wie ich schon öfters schrieb es wäre ja peinlich wenn die Titan nach 1 1/2 jahre bzw. 3/4 jahr nicht schneller wäre als eine 7970/680


---------- Post added at 19:33 ---------- Previous post was at 19:30 ----------

Dort verbraucht die Gtx 590 theoretisch aber auch nur 368 Watt :confused:

war das nicht so das die 590 "nur" die Leistung 2er 570 hatte,
da sie ansonsten zu viel verbraucht hätte.

gtx580 bis zu 360/370w
 
Zuletzt bearbeitet:
Nein ! Die TDP Angabe von NVIDIA sind reine Fantasiewerte.
Test: Nvidia GeForce GTX 590 (Seite 9) - ComputerBase

Selfown...gesamtes System. Schau dir PCGH, hardware.fr, TPU und HT4U an.

und was hat das damit zu tun,
für 1 Titan bekommt man:

2x7970ghz/680
3x7950b.ed./670
4x7870(xt)/gtx660ti

und wie ich schon öfters schrieb es wäre ja peinlich wenn die Titan nach 1 1/2 jahre bzw. 3/4 jahr nicht schneller wäre als eine 7970/680

Habe ich irgendwo den Preis erwähnt? Nein. Es geht einfach um den "Druck" in einem Segment. Im SGPU-Segment gibt es aktuell keinen Druck. Die 690 ist hingegen nicht die schnellste Dualkarte, von daher ist man da in Zugzwang.
 
Zuletzt bearbeitet:
Ist man nicht, de Abstand von Titan zur 7990/690 ist gerade zu lächerlich.
Und man hat den Kepler Dual mit 2 mal GK104 schon ;)
Etwas anderes würde wieder zu viel Power haben
 
Dort verbraucht die Gtx 590 theoretisch aber auch nur 368 Watt :confused:

Allerdings :confused:
Wo liest du bitteschön ab ??
205 Watt Idle: 633 Watt Load macht eine Differenz von 428 Watt !

Selfown...gesamtes System. Schau dir PCGH, hardware.fr, TPU und HT4U an.

Aber rechnen kannst du schon oder ? Quod erat demonstrandum und so.

Zudem schaue ich mir lieber die Ergebnisse von PCGames an, denn die messe die Leistung direkt an der Grafikkarte und da hat die GTX 590 satte 444 Watt !
Geforce GTX 590 im Test: Triumphiert der doppelte Fermi über die Radeon HD 6990? - Geforce GTX 590 im Test: Lautheit, Leistungsaufnahme und Temperatur

Ergo: NVIDIA flunkert bei der 500er-Serie recht gerne was die Leistungsaufnahme angeht.
 
Zuletzt bearbeitet:
Die Dualkarten sind schon bis zu 30% schneller als Titan (an der Leine ;)). Dass eine Dualkarte immer schneller ist, ist doch normal. Warum ist es "zuviel" Power?
Andererseits könnte ich mir vorstellen, dass Nvidia generell nur noch die kleinen GPUs auf die Dualkarten packt in Zukunft. So kann man früh die Karten bringen, die sind günstig und man muss die auch kaum runtertakten.

Aber rechnen kannst du schon oder ? Quod erat demonstrandum und so.

Zudem schaue ich mir lieber die Ergebnisse von PCGames an, denn die messe die Leistung direkt an der Grafikkarte und da hat die GTX 590 satte 444 Watt !
Geforce GTX 590 im Test: Triumphiert der doppelte Fermi über die Radeon HD 6990? - Geforce GTX 590 im Test: Lautheit, Leistungsaufnahme und Temperatur

Überlege doch erstmal, bevor du postest, das würde deinen Posts gut tun.
In den Ergebnissen bei Computerbase steckt auch die CPU, das Board, das Netzteil usw. drin, eben das Gesamtsystem. Du kannst daraus einfach nicht ermitteln, wieviel die 590 alleine verbraucht. Musst du aber, wenn du von TDP redest, die gilt nämlich nur für die 590 und nicht für den Rest des Systems mit - offensichtlich.

Du wirst immer Szenarien finden, die die TDP sprengen, das sind aber eigentlich immer synthetische Benchmarks und haben mit dem Spielealltag nichts zu tun. Davon abgesehen wirst du sicher bemerkt haben, dass Nvidia mit dem Powertarget die Leistungsaufnahme bei Kepler rigoros regelt im Gegensatz zu Fermi. Von daher wäre eine Dualkarte hier auch überhaupt kein Problem.
 
Zuletzt bearbeitet:
Überlege doch erstmal, bevor du postest, das würde deinen Posts gut tun.

Genau das fällt mir bei so manchen andern Posts ein.

In den Ergebnissen bei Computerbase steckt auch die CPU, das Board, das Netzteil usw. drin, eben das Gesamtsystem. Du kannst daraus einfach nicht ermitteln, wieviel die 590 alleine verbraucht. Musst du aber, wenn du von TDP redest, die gilt nämlich nur für die 590 und nicht für den Rest des Systems mit - offensichtlich.

Deshalb spreche ich ja nicht von 633 Watt Verbrauch, so wie es im CB angegeben ist, sondern von der Differenz zwischen Idle und Load. Das ist schon ein recht guter Indikator, auch bei einer Gesamtsystemsmessung. Das hat wohl bis jetzt außer mir niemand erkannt ! :rolleyes:

Du wirst immer Szenarien finden, die die TDP sprengen, das sind aber eigentlich immer synthetische Benchmarks und haben mit dem Spielealltag nichts zu tun. Davon abgesehen wirst du sicher bemerkt haben, dass Nvidia mit dem Powertarget die Leistungsaufnahme bei Kepler rigoros regelt im Gegensatz zu Fermi. Von daher wäre eine Dualkarte hier auch überhaupt kein Problem.

AC3 lotet die Leistungsgrenze schon recht nahe an die synthetischen Benchs aus. Darum sehe ich selbst die synthetischen Benchs als praxisorientiert an, da diese Leistungsaufnahme schon von vielen Spielen erreicht werden.

Das Powertarget verhindert so eine Leistungsexplosion auf kosten der Taktraten und Rechenleistung.
Eine rein theoretische GTX 790 auf 2x GK110 12SMX würde mit einer Power-Traget von 375 Watt so dermaßen ausgebremst werden, dass sie keinen Sinn macht.
NVIDIA müsste das Target deutlich erhöhen und das glaube ich weniger. Kann natürlich sein, dass sie wieder, wegen Konkurrenz ihr Schema verlassen. Aber warum, wenn sie mit einer GTX Titan Ultra recht nahe herankommen könnte und das mit deutlich weniger Kosten und höheren Gewinn ?

Ich sehe eine Titan Ultra mit deutlich reelleren Chancen als eine auf Biegen und Brechen bestückte und extrem gedrosselte Dualkarte mit 2x GK110 an.
 
Eine rein theoretische GTX 790 auf 2x GK110 12SMX würde mit einer Power-Traget von 375 Watt so dermaßen ausgebremst werden, dass sie keinen Sinn macht.
NVIDIA müsste das Target deutlich erhöhen und das glaube ich weniger. Kann natürlich sein, dass sie wieder, wegen Konkurrenz ihr Schema verlassen. Aber warum, wenn sie mit einer GTX Titan Ultra recht nahe herankommen könnte und das mit deutlich weniger Kosten und höheren Gewinn ?

glaubst du? Ich sehe bei meiner GTX 780 mit ~1050MHz eigentlich immer nur eine TDP auslastung von rund 75 bis 85%, also um die 190 bis 215 Watt, also weiterhin nicht viel mehr als eben eine GTX 680 verbraucht. Nun senkt man halt die spannungen etwas und senkt den Takt auf etwa 700 bis 800MHz und schon ist man Verbrauchsmäßig schon unter einer GTX 680, leistet aber dennoch noch gut 15 bis 20% mehr.

Und Nvidia hat es ja auch geschafft, zwei vollständige GK104 auf der 690 zu bauen. Bis max. 375 Watt sehe ich nichts, was gegen eine Dual Karte mit zwei GK110 sprechen könnte.
 
Zuletzt bearbeitet:
Genau das fällt mir bei so manchen andern Posts ein.

Bleiben wir doch mal bei deinen Posts...

Deshalb spreche ich ja nicht von 633 Watt Verbrauch, so wie es im CB angegeben ist, sondern von der Differenz zwischen Idle und Load. Das ist schon ein recht guter Indikator, auch bei einer Gesamtsystemsmessung. Das hat wohl bis jetzt außer mir niemand erkannt ! :rolleyes:

Und du kapierst immer noch nicht, dass in der Differenz nicht nur die Grafikkarte steckt. Oder meinst du, die CPU, das Board usw. verbrauchen bei Spielelast genausoviel wie im Leerlauf? Und das Netzteil hat auch 0W Verlust und arbeitet mit 100% Effizienz? Die CPU ist ein mit Spannungserhöhung übertakteter Bloomfield, da liegen zwischen Idle und Spielelast sicherlich an die 100W, eher mehr (200W Differenz idle-Volllast). Das ist ein massiver Fehler, das kann man nicht einfach bei der Grafikkarte draufrechnen, soviel ist selbstverständlich. Das meine ich mit "überleg bevor du schreibst"...

AC3 lotet die Leistungsgrenze schon recht nahe an die synthetischen Benchs aus. Darum sehe ich selbst die synthetischen Benchs als praxisorientiert an, da diese Leistungsaufnahme schon von vielen Spielen erreicht werden.

Beweis? Die gemittelten Ergebnisse der Messungen nur der Grafikkarte auf 3DC zeigen etwas anderes:
Eine Neubetrachtung des Grafikkarten-Stromverbrauchs (Seite 2) | 3DCenter.org
Belege doch mal deine Behauptung bzgl. "viele Spiele".

Das Powertarget verhindert so eine Leistungsexplosion auf kosten der Taktraten und Rechenleistung.
Eine rein theoretische GTX 790 auf 2x GK110 12SMX würde mit einer Power-Traget von 375 Watt so dermaßen ausgebremst werden, dass sie keinen Sinn macht.
NVIDIA müsste das Target deutlich erhöhen und das glaube ich weniger. Kann natürlich sein, dass sie wieder, wegen Konkurrenz ihr Schema verlassen. Aber warum, wenn sie mit einer GTX Titan Ultra recht nahe herankommen könnte und das mit deutlich weniger Kosten und höheren Gewinn ?

Ich sehe eine Titan Ultra mit deutlich reelleren Chancen als eine auf Biegen und Brechen bestückte und extrem gedrosselte Dualkarte mit 2x GK110 an.

Die 680 braucht ca. 170W, die 690 270W, also knapp 60% mehr. Die 690 ist bekanntlich fast genauso schnell wie ein 680 SLI-Gespann.
Eine Titan braucht knapp 210W. Plus 60% und wir kommen bei weniger als 350W raus. Eine 790 auf Basis von einem 14-SMX GK110 sollte somit problemlos machbar sein ohne nennenswert niedrigere Taktraten. Nimmt man 12 SMX, erst recht kein Problem. Da würde also gar nichts ausgebremst entgegen deiner Behauptung.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh