Gerücht: NVIDIA überspringt GeForce-GTX-800-Famile

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.272
Ort
Augsburg
<p><img src="/images/stories/logos-2013/nvidia_2013.jpg" width="100" height="100" alt="nvidia 2013" style="margin: 10px; float: left;" />Nicht nur die Boardpartner NVIDIAs scheinen sich derzeit im Hintergrund <a href="index.php/news/hardware/grafikkarten/32523-erster-blick-auf-msis-twinfrozr-v-kuehler.html">mit neuen Kühlsystemen</a> auf eine neue Grafikkarten-Generation vorzubereiten. Auch NVIDIA selbst soll bereits an den letzten Feinheiten seiner neuen Generation feilen. Wie die stets gut bediente Gerüchteküche Videocardz.com am Wochenende berichtete, soll NVIDIA die GeForce-GTX-800-Reihe überspringen und das nächste High-End-Modell als GeForce GTX 980 an den Start bringen.</p>
<p>GeForce-GTX-Grafikkarten der 800er-Familie gibt es bislang nur im mobilen Sektor. Hier hält NVIDIA...<br /><br /><a href="/index.php/news/hardware/grafikkarten/32525-geruecht-nvidia-ueberspringt-geforce-gtx-800-famile.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
NVIDIA möchte wohl, mit dieser Taktik, die Käuferschicht ansprechen, die immer eine Generation überspringen. :d
Wollen wir doch hoffen, das NVIDIA diesmal nicht exakt genauso wie bei der Titan-Z verfährt und zumindest jetzt ein paar Pressesamples verschickt. ;)
Löblich ist die Speicherkapazität, wo NVIDIA endlich mal zeitgemäß genügend bestückt.

Schlussendlich ist der GM204 aber nicht das was ich mir unter High-End so vorstelle. Zumindest kann man aber anhand diesen, die ungefähre Leistungsfähigkeit des irgendwann kommenden Vollausbau erahnen.
Interessant wird es auf jeden Fall und ob AMD da kontern kann.
 
Ich vermute AMD hat überhaupt keine Change gegen GM204 und GM200 ( in jeder Metrik), aber wir werden ja sehen.
 
wenn die Generation die Leistung einer 780ti, <170W max Leistungsaufnahme und 4GB Speicher bekommt ist die 9x0 gekauft

Gesendet von meinem Nexus 4 mit der Hardwareluxx App
 
Das mit dem 256bit nterface erinnert mich stark an die GTX680-Kundenmelke...
Sollte die Karte wirklich um bis zu 25%schneller werden als die Ti dann interessieren die 256 Bit nur wenige.
+1 Gigabyte mehr Ram ist doch völlig in Ordnung.
Jedoch wird derPreis interessant bei den Prognosen denke ich an 600Euro zum Start.
Wenn sie schneller wird alls ne Ti kann ich mir nicht vorstellen das sie billiger wird.
 
Zuletzt bearbeitet:
Ich befürchte schon wieder das schlimmste bei dem kastrierten Chip. Wenn ich wetten müsste, würde ich sagen ein paar Prozentchen vor der Titan bei halbiertem Verbrauch. Dann können die Stromsparer sich freuen und wer Leistung will wartet auf die echte Hardware, selbes Spielchen wie bei Kepler.
 
erinnert mich an den Sprung von 200er auf 400er und wie jeder weiß, war die 400er Reihe echt "heiße" Hardware :d
 
Kann mir sogar recht gut vorstellen das es eine Gamer Dualkarte geben wird so zu sagen eine GTX990 bon gespannt was die Serie so alles zu Tage bringt.
 
Eine 960 mit bis zu 120W fänd ich interessant :)
 
Pah! Keinen Bock mehr auf den Verein!
Die tun wirklich Alles, damit zahlende Kunden sich verarscht vorkommen!
Kauf' nvidia bisher eh nur wegen 3D-Vision, P/L ist ja ohnehin beschissen bei nvidia.
Bald kommt die Rift, da tut's auch ne AMD.
 
Ich verstehe echt nicht wieso sich hier einige aufregen, wartet doch mal ab anstatt so einen Quatsch zu schreiben. Nvidia wird sich bei dem (/achtung) 256Bit Interface (/achtung ende) schon was gedacht haben.
Wenn die Karten getestet wurden könnt ihr euch immer noch aufregen.
 
Zuletzt bearbeitet:
256Bit SI war selbst bei der 670 (die ich zwei Jahre hatte) schon zu schmal !! Hat man auch gemerkt da 670/680/770 durch Speicher OC unverhältnismäßig stark profitiert haben. Da wird's selbst wunders wie hochgezüchteter Speicher bei der nächsten Gen nicht richten !! Fail.... also wenn die High-End (wohl GTX880 oder GTX980) wirklich nur nen SI von 256Bit hat würd ich jederzeit für ne Daddelkiste eine 780Ti bevorzugen !!

@boxleitnerb: "Dummfug" ?? Dumm bist nur du... Da du hier beleidigend und persönlich wirst mach ichs jetzt auch, scheint ja hier im Forum mittlerweile erlaubt und gang und gäbe zu sein: Du bist ein Depp und hast nix kapiert. Was hat das mit dem MHz Wahn zu tun ? Sind zwei völlig unterschiedliche Gebiete. Und vom einen kann man nicht auf das andere schließen ! "Wie effizient vorhandene Rohleistung umgesetzt wird" ist eine Aussage die ebenso unspezifisch ist und unkonkret wie dumm. Geh da doch mal in medias res. Du Depp !!
 
@boxleitnerb: "Dummfug" ?? Dumm bist nur du... Da du hier beleidigend und persönlich wirst mach ichs jetzt auch, scheint ja hier im Forum mittlerweile erlaubt und gang und gäbe zu sein: Du bist ein Depp und hast nix kapiert. Was hat das mit dem MHz Wahn zu tun ? Sind zwei völlig unterschiedliche Gebiete. Und vom einen kann man nicht auf das andere schließen ! "Wie effizient vorhandene Rohleistung umgesetzt wird" ist eine Aussage die ebenso unspezifisch ist und unkonkret wie dumm. Geh da doch mal in medias res. Du Depp !!

-_-'' Anderen vorwerfen sie würden persönlich werden (was boxleitnerb nicht einmal getan hat, er hat sich nur allgemein ausgedrückt!) aber selbst 10 mal schlimmer werden...
Geh schlafen!


Lustig das Forum manchmal.. einige brechen in Euphorie aus, andere in Hasstiraden - und das über Gerüchte... ;)
Warten wirs mal lieber ab!
 
Die 980 ist nicht das, was der Name suggerieren soll. Es ist nur der kleine GM204. Nachfolger der 780Ti, Titan etc. kann nur ein GM210 sein, egal wie NVIDIA die Karten nennt.
 
256Bit SI war selbst bei der 670 (die ich zwei Jahre hatte) schon zu schmal !! Hat man auch gemerkt da 670/680/770 durch Speicher OC unverhältnismäßig stark profitiert haben. Da wird's selbst wunders wie hochgezüchteter Speicher bei der nächsten Gen nicht richten !! Fail.... also wenn die High-End (wohl GTX880 oder GTX980) wirklich nur nen SI von 256Bit hat würd ich jederzeit für ne Daddelkiste eine 780Ti bevorzugen !!

@boxleitnerb: "Dummfug" ?? Dumm bist nur du... Da du hier beleidigend und persönlich wirst mach ichs jetzt auch, scheint ja hier im Forum mittlerweile erlaubt und gang und gäbe zu sein: Du bist ein Depp und hast nix kapiert. Was hat das mit dem MHz Wahn zu tun ? Sind zwei völlig unterschiedliche Gebiete. Und vom einen kann man nicht auf das andere schließen ! "Wie effizient vorhandene Rohleistung umgesetzt wird" ist eine Aussage die ebenso unspezifisch ist und unkonkret wie dumm. Geh da doch mal in medias res. Du Depp !!

Wow, einfach wow. Ich habe eine Äußerung von dir als (meiner Meinung nach) dumm bezeichnet, das hat mit deiner Person im Allgemeinen nullkommagarnichts zu tun, ergo war ich nicht persönlich oder beleidigend (Kritik muss jeder abkönnen, auch das hat nichts mit Beleidigung zu tun). Sei froh, dass ich heute so gute Laune habe, sonst würde ich deinen Beitrag melden.
Und zur Sache selbst:
Es ist natürlich dasselbe. Von den Spezifikationen allein kann man nicht zwingend auf die Endleistung schließen. Man schaue sich an, wie nah ein GM107 einem GK106 auf der 660 kommt. Letztere hat nur 20% Vorsprung auf die 750 Ti selbst bei 8xAA (s. Computerbase Test) obwohl sie ca. 50% mehr Pixelfüllrate und 67% mehr Bandbreite hat. Tja...wer hätte das gedacht. Hätte man da auch über die 16 ROPs und das 128 bit Interface gejammert?
Und woher willst du überhaupt wissen, ob ein breiteres Interface GM204 überhaupt etwas bringen würde? Eine GPU ist immer ein möglichst ausgewogenes Design, Flaschenhälse werden nach Möglichkeit vermieden. Wegen z.B. 5% im Schnitt macht kein IHV so einen Schritt. Das wäre höchstens beim massiven OC hilfreich, wenn man den Speichertakt nicht entsprechend dem Chiptakt anheben könnte.
 
Zuletzt bearbeitet:
Oder der GM204 ist der vollausbau in der 28nm fertigung und gm210 oder gm200 ist dann mit shrinkfertigung
 
Nach meiner gtx 470 AMP war die GTX 680 ne nette Karte.

Gute Performance/watt verhältniss , aber diesmal warte ich auf den großen chip... :)
Kann noch mit einer GTX 680 es recht gut aushalten nach zweieinhalb jahren.
 
Zuletzt bearbeitet:
Oder der GM204 ist der vollausbau in der 28nm fertigung und gm210 oder gm200 ist dann mit shrinkfertigung


Ach bitte, glaubt irgendwer noch ernsthaft, dass NVidia tatsächlich den Vollausbau zum Anfang bringt?
Ich meine Kepler wurde 2012 mit der 680 vorgestellt, dann kam die Titan, dann die 780ti, die Titan Black, selbst die 8xxer (M) Generation läuft noch auf Kepler.
Wenn tatsächlich ein Chip neuer Architektur vorgestellt wird, dann wohl kaum das Highlight des möglichen.
Warum sollte NVidia das Stärkste der 28nm-Fertigung am Anfang rausbringen?
Für viel wahrscheinlicher halte ich: die GM204 (28nm) in der 980, dann ein GK210 (28nm) in einer neuen Titan, dann der wahre GK210 Vollausbau in einer GTX 1080ti (oder so, vielleicht auch X80ti oder was weiß ich), und dann eine neue Architektur in neuer Größe.
Bisher hat Nvidia noch keinen Shrink innerhalb einer Architektur durchgeführt.
Vielleicht jetzt, wenn sie dann von Maxwell V3 reden. Vielleicht verkaufen sie ja auch Maxwell V2 in 20nm als Maxwell V3...

Ich habe inzwischen ernsthaft jegliches Vertrauen in Nvidia verloren. Bei AMD beginnt eine neue Generation (im Chip, nicht im Namen) mit der High-End karte, die dann übertaktet bisschen später neu aufgelegt wird (hd7970 als GHz Edition, und R9-290X sicher als R9-295X). Aber Nvidia verkauft regelmäßig Karten als "Enthusiastenkarten" mit dem Argument das Stärkste des Starken zu sein, mit Preisen jenseits von gut und böse. Um dann 3 Monate später einen größeren Chip/Ausbau rauszubringen.
Klar, wer drauf reinfällt ist selber Schuld, aber bloß weil jemand auf ne Masche reinfällt ist die noch lange nicht richtig.

Nicht dass AMD jetzt heilig wären oder so, aber momentan gefällt mir deren Politik einfach besser (OpenSource, Produktpolitik etc).

LG
RMG
 
Die 980 ist nicht das, was der Name suggerieren soll. Es ist nur der kleine GM204. Nachfolger der 780Ti, Titan etc. kann nur ein GM210 sein, egal wie NVIDIA die Karten nennt.

Quelle ?

- - - Updated - - -

Wow, einfach wow. Ich habe eine Äußerung von dir als (meiner Meinung nach) dumm bezeichnet, das hat mit deiner Person im Allgemeinen nullkommagarnichts zu tun, ergo war ich nicht persönlich oder beleidigend (Kritik muss jeder abkönnen, auch das hat nichts mit Beleidigung zu tun). Sei froh, dass ich heute so gute Laune habe, sonst würde ich deinen Beitrag melden.
Und zur Sache selbst:
Es ist natürlich dasselbe. Von den Spezifikationen allein kann man nicht zwingend auf die Endleistung schließen. Man schaue sich an, wie nah ein GM107 einem GK106 auf der 660 kommt. Letztere hat nur 20% Vorsprung auf die 750 Ti selbst bei 8xAA (s. Computerbase Test) obwohl sie ca. 50% mehr Pixelfüllrate und 67% mehr Bandbreite hat. Tja...wer hätte das gedacht. Hätte man da auch über die 16 ROPs und das 128 bit Interface gejammert?
Und woher willst du überhaupt wissen, ob ein breiteres Interface GM204 überhaupt etwas bringen würde? Eine GPU ist immer ein möglichst ausgewogenes Design, Flaschenhälse werden nach Möglichkeit vermieden. Wegen z.B. 5% im Schnitt macht kein IHV so einen Schritt. Das wäre höchstens beim massiven OC hilfreich, wenn man den Speichertakt nicht entsprechend dem Chiptakt anheben könnte.

Erstens biste auf die Tatsache dass der Kepler Chip auf den 670/680/770 Karten durch Speicher OC massiv profitiert (genau so stark wie durch GPU OC im Schnitt !) gar nicht eingegangen => Die Karten hängen also schon am Speicherdurchsatz, wieso sollte sich das mit einer neuen Gen ändern ?? Die Technologie dahinter wurde in der RELATIV kurzen Zeit mit Sicherheit nicht so verändert dass das plötzlich irrelevant ist... :rolleyes:

Zweitens hat die 670 z.B. WEIT mehr Shader als die 580 ! Und wieviel % Mehrleistung ? 25 ? Wow, und das bei über doppelt so vielen Shadereinheiten. SO effizient und gut durchdacht und perfekt von der Architektur kann Kepler dann gar nicht sein, und das soll jetzt alles wunders wie behoben sein ?? Sure...

Ich kann nur hoffen dass es sich bei den angekündigten Karten um Midrange-Karten handelt, denn ansonsten wär ein SI von 256Bit aber sowas von blass.... oder haben die jetzt Speicher verlötet der mit über 2000MHz läuft STANDARDMÄßIG ??

Drittens kannste meinen Post gern melden du Held, ich hab deinen auch gemeldet, wär nur fair. Ich hätt hier ne ruhige Kugel geschoben wenn man mich mit meiner Meinung in Ruhe gelassen hätte, aber es muss immer jemand kommen und klugscheißen. Sinds die Midrange-Karten is ein SI von 256 Bit i.O. .... sinds die High-End Karten isses zu wenig, daran wird sich seit Keplerchips mit 256Bit nix geändert haben ! Schluss aus. Nicht umsonst hat man sich bei der 700er Serie für die High-End Modelle für ein breiteres SI entschieden..... aber das haben sie natürlich nur gemacht weil sie nicht gewusst haben wohin mit ihren Ressourcen.... :rolleyes:

Ich behaupte: Wenn man der 680 nen breiteres SI gegönnt hätte und 1Gig mehr RAM wär die 780/780Ti obsolet... Aber der neue Chip von nv wird's mit 256Bit schon richten... :wall:
 
Zuletzt bearbeitet:
Zweitens hat die 670 z.B. WEIT mehr Shader als die 580 ! Und wieviel % Mehrleistung ? 25 ? Wow, und das bei über doppelt so vielen Shadereinheiten. SO effizient und gut durchdacht und perfekt von der Architektur kann Kepler dann gar nicht sein, und das soll jetzt alles wunders wie behoben sein ?? Sure...

Und woher nimmst du das Wissen, dass sich die Leistung um einen größeren Wert erhöhen soll/muss? Eine Grafikkarte besteht nicht nur aus Shadereinheiten, genau wie die Leistung einer CPU nicht nur durch den Takt bestimmt wird.
Ich behaupte mal stark, dass du keine Ahnung von der Materie hast wie viele derjenigen die sich hier beschweren auch (ich schließe mich da mit ein).
Der Leistungsgewinn der 600er Serie war vergleichsweise Top, vor allem der Stromverbrauch.
 
Zuletzt bearbeitet:
Nee, der Leistungsgewinn der 600er Serie war NICHT "Top" !! Die 680 hatte nicht so viel Mehrleistung wie eine 580. Nur die Effizienz hat sich ordentlich gebessert. Mit einem dickeren SI hätts freilich anders ausgesehen.
Wenn mehr als doppelt so viel mehr Shadereinheiten verbaut sind und die Leistung um gerade mal ~25% hoch geht spricht das nicht für eine gute/ausgeglichene Architektur und es liegt sehr sehr wohl ein Bottleneck vor. Und wie gesagt: Das soll sich jetzt in der kurzen Zeit so massiv geändert haben ??? Hardly.... Die 600er Serie (sage ich als ein jahrelanger 670 Besitzer) war eigentlich kein großer Fortschritt zur 500er Serie, nur die Effizienz hat sich verbessert was nicht verwunderlich ist wenn man bedenkt dass da ein Shrink auf 28nm voraus gegangen ist. Ein echter "Fortschritt" war erst die 700er Serie. Nicht zuletzt weil die Karten mal mit nem ordentlichen SI kamen. (Nicht nur deshalb, aber auch !) Takte mal eine 780Ti NUR speichertechnisch richtig runter, wirst Augen machen was die an Performance verliert, ich habs getestet, aber die Leute hier wissens natürlich mal wieder besser obwohl sie nur Zahlen im Kopf haben und keinerlei empirische Werte.

Du schließt dich mit ein ? Das ist gut, denn du hast auch nix verstanden. Im Gegensatz zu mir übrigens, aber ich bin ja erst seit über 10 Jahren Systembuilder und beschäftige mich (neben meinem Hauptberuf) intensivst jeden Tag mit der Materie. Ich bin kein Elektrotechniker und auch kein Diplom-Ingenieur, behaupte aber dass ich alleine durch die Erfahrung doch eine Menge behaupten und aussagen kann. Allgemein gesprochen hast du Recht, aber hier geht es konkret um Kepler/Maxwell, und da kann man solch spezifische Aussagen wie ich die mache durchaus tätigen.

Aber ich freue mich, dann werden die ersten Idioten die 880 oder 980 kaufen weil 1GB VRAM mehr drauf ist und eine höhere Zahl da steht. Ich kauf mir dann für schmales Geld eine gute gebrauchte 780Ti und freu mich über mehr Leistung, auch wenn diese vielleicht mehr Strom verbraucht.
Nochmal: Meine Aussagen beziehen sich darauf dass es STIMMT (was ja noch nicht sicher ist) dass die Karten mit einem 256Bit SI an den Start gehen.
 
@rmgLazyBone

nvidia hat schon shrinks durch geführt in gleicher architektur. Beim G92 von 65 auf 55nm und bei GT200 von 65 auf 55nm ;).


Laut Gerüchten hies es doch das GM200 nächstes Jahr in 16nm kommen soll.
 
Mmh wenn wie gesagt der 3Dmark extreme Benchmark passt der kursierte habe ich mit meiner Ti gegengetestet habe ich 1300/1850 gebraucht um auf den selben Wert zu kommen.
Sollte der Grössere Cache bei Maxwell gut funktionieren sehe ich das nicht ganz so kritisch.
Wenn ich an Watchdogs denke wie mir der Ram schon in FHD übergelaufen ist sehe ich da auch keinen Vorteil für die Ti vor allem wenn man noch weiter nach vorne schaut.
Jedoch bin ich auch jemand der lieber die Big Chips nutz das heist aber nicht das ich sage der kleine Chip wird schlecht weil er ein kleines SI hat.
Es gibt halt auch Leute die noch keine TI oder 780 haben und für die würde es sollten die 25 % + zur stock ti stimmen doch recht ordentlich sein.

Im groben und ganzen sind die Diskusionen hier fürn Po so lange wir nich 100% wissen wie schnell die Teile sein werden da kann man auch 100 Jahre Erfahrung mit einfliesen lassen.

Es ist doch so das hier viele nette Hardwareverückte vertreten sind (mich eingeschlossen) meist ist doch die Freude und der Spass an der Sache an etwas neuem zu fummeln und zu schrauben.
 
Zuletzt bearbeitet:
[...]
Lustig das Forum manchmal.. einige brechen in Euphorie aus, andere in Hasstiraden - und das über Gerüchte... ;)
Warten wirs mal lieber ab!

Sehe ich auch so!

[...]Im Gegensatz zu mir übrigens, aber ich bin ja erst seit über 10 Jahren Systembuilder und beschäftige mich (neben meinem Hauptberuf) intensivst jeden Tag mit der Materie. Ich bin kein Elektrotechniker und auch kein Diplom-Ingenieur, behaupte aber dass ich alleine durch die Erfahrung doch eine Menge behaupten und aussagen kann.[...].

Und deinen Kunden erklärst du die Sachlage auch so, wenn sie etwas nicht verstehen? oO
Das mag ja echt alles richtig sein, was du erzählst. Mit so einem Rohrspatzverhalten wirds allerdings nicht besser.

OT:
Ich hatte angenommen, dass die neue Graka Generation auf jeden Fall leistungsfähiger sein wird.
Anscheinend gehen da die Meinungen ja noch auseinander. Mal abwarten... :)
 
Erstens biste auf die Tatsache dass der Kepler Chip auf den 670/680/770 Karten durch Speicher OC massiv profitiert (genau so stark wie durch GPU OC im Schnitt !) gar nicht eingegangen => Die Karten hängen also schon am Speicherdurchsatz, wieso sollte sich das mit einer neuen Gen ändern ?? Die Technologie dahinter wurde in der RELATIV kurzen Zeit mit Sicherheit nicht so verändert dass das plötzlich irrelevant ist...

Das GK104 Bandbreitenlimitiert ist/war, speziell in den größeren Modellen hat aber auch einen rellativ offensichtlichen Grund, GK104 sollte wohl nie so hoch gepusht werden, wie man ihn schlussendlich gebracht hat.
Es geisterten in der Gerüchteküche anfangs Taktraten von ~700-800MHz GPU Takt rum. Die Quadro K5000 auf GK104 Basis hat ebenso nen extrem niedrigen Takt von ~700MHz.
Dennoch hinkt der Vergleich gegenüber den anderen Modellen. Denn entgegen GK104 ist GK110 bspw. sogut wie gar nicht Bandbreitenlimitiert. Klar hier und dort in speziellen Fällen skaliert das Ding auch mit Bandbreite. Aber so im normalen Umfeld der Spielelast, skaliert da ziemlich wenig.
Und das, obwohl GK110 gegenüber GK104 über 80% mehr ALUs hat. Selbst wenn man sich OC Modelle von GK110 rauspickt, die mit Taktraten von größer 1GHz daher kommen, siehst du keine Limitation. Der Chip skaliert einfach enorm auf den GPU Clock.
Gründe dafür gibts, allen vorran wohl die deutlich aufgeblasenen Caches...

Allein das 256Bit SI als Kritikpunkt für GM204 zu nehmen, weil GK104 Bandbreitenlimitiert war, halte ich für wenig zielführend. Denn A) wurde für Maxwell ein starker Zuwachs von Caches angekündigt. Und B) wissen wir quasi, das selbst GK110 schon mit deutlich mehr ALUs und deutlich fetterer GPU bei deutlich weniger gesteigerter Speicherbandbreite ganz anders an eben dieser Bandbreite hängt als GK104. Auch GM107 hängt nach Benches wenig an der reinen Bandbreite und das trotz nur 128Bit SI. -> im Vergleich zu den Kepler Modellen mit ähnlicher Leistung.


Sinds die Midrange-Karten is ein SI von 256 Bit i.O. .... sinds die High-End Karten isses zu wenig, daran wird sich seit Keplerchips mit 256Bit nix geändert haben ! Schluss aus. Nicht umsonst hat man sich bei der 700er Serie für die High-End Modelle für ein breiteres SI entschieden..... aber das haben sie natürlich nur gemacht weil sie nicht gewusst haben wohin mit ihren Ressourcen.... :rolleyes:

Wie gesagt, das Verhältnis von GPU Power und Bandbreite ist bei GK110 schlechter als bei GK104. Nimmt man dazu noch OC Modelle von GK110 wirds noch schlechter. Dennoch skaliert GK110 primär über den GPU Takt, wärend GK104 ohne RAM OC nur im Verhältnis 2:1 oder schlechter im Schnitt zulegt.
Vor allem, was definierst du als "HighEnd"?
Nach aktuellen Gerüchten wird die kommende Kartengeneration wohl ähnlich der 780TI/Titan Black performen. Vllt etwas drüber, vllt etwas drunter. Ein Maxwell TopDog aka GK110 wird wohl ne ganze Ecke später erst folgen.
Ist jetzt der angekündigte und hier spekulierte GM204 für dich HighEnd oder Midrange? Nimmt man die Chipbezeichnung wäre er eher Mittelklasse/Performanceklasse. Nimmt man die spekulierte Endleistung im Vergleich zum Vorgänger, wäre er eher HighEnd. Auffallend sollte sein, das es nicht ganz sinnig ist, das reine SI anhand von irgendwelchen nicht näher spezifizierten Einstufungen zu machen. Denn das gleiche Muster gabs bei Kepler ebenso. Zuerst den GK104 als Vollausbau als Midrange Chip mit "HighEnd" Leistung. Später den TopDog GK110 hinterher als HighEnd Chip und neu definierter HighEnd Klasse.
Exakt identisch im übrigen zu AMD. Tahiti als Midrange Chip und Hawaii als HighEnd Nachfolger von der Chipklasse. Dennoch war beides von der Leistung eher als HighEnd zur Releasezeit...

Takte mal eine 780Ti NUR speichertechnisch richtig runter, wirst Augen machen was die an Performance verliert, ich habs getestet, aber die Leute hier wissens natürlich mal wieder besser obwohl sie nur Zahlen im Kopf haben und keinerlei empirische Werte.

Takte mal die 780TI nur GPU seitig soweit runter, das sie auf dem Leistungslevel einer 680er agiert (also die 87,5% Rohperformance!!) und schau dir an, was das reine SI, was zweifelsfrei um 50% breiter ist, am Ende noch für einen Mehrwert raushaut ;)
Wie box weiter oben schon anmerkte, das ganze muss insich schlüssig sein. GK104 war gepusht im Takt ohne Ende. Wohl weil man GK100 nicht fertig hatte (oder damals schon ganz verworfen hatte?) und ein halbwegs brauchbares Gegenstück zur Tahiti GPU brauchte. Also hat man GK104 genommen und taktseitig das rausgeholt, was ging.

PS: Thema Effizienz, 25-30% mehr Endleistung bei 28% weniger Verbrauch ist mal trotzdem eine ziemlich anständige Steigerung. Im Mittel entspricht das ca. Faktor 1,6-1,66.
Was hast du denn erwartet? Das GK104 doppelt so schnell wird, wie die 580er und nur halb so viel verbraucht?
Doppelt so schnell geht mit GK110 und entsprechendem Takt. Nur ist dann eben der Verbrauch nicht niedriger. Die Effizienz hat sich trotzdem verdoppelt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh