NVIDIA GeForce GTX 880 vermutlich mit 8 GB Speicher

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.288
Ort
Augsburg
<p><img src="/images/stories/logos-2013/nvidia_2013.jpg" width="100" height="100" alt="nvidia 2013" style="margin: 10px; float: left;" />Während derzeit noch immer alles ganz gespannt dem Launch der <a href="index.php/news/hardware/grafikkarten/30927-erster-benchmark-score-zur-nvidia-geforce-gtx-titan-z-aufgetaucht.html">NVIDIA GeForce GTX Titan Z </a>entgegenblickt, die vermutlich schon morgen offiziell das Licht der Welt erblicken wird, hat sich in diesen Tagen in der Gerüchteküche wieder einiges getan. Nachdem bereits vor knapp vier Wochen die ersten <a href="index.php/news/hardware/grafikkarten/30600-erste-geruechte-zur-nvidia-geforce-gtx-880-schlagen-auf.html">Gerüchte zur NVIDIA GeForce GTX 880 aufkamen</a>, tauchten nun beim indischen Zoll die ersten Testplatinen mit GM204-Chip...<br /><br /><a href="/index.php/news/hardware/grafikkarten/30955-nvidia-geforce-gtx-880-vermutlich-mit-8-gb-speicher.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Worauf beziehen sich die 10%?
 
Das hört sich ja nicht nach Top High end an. 8GB ist Bauernfängerei zur Zeit, aber in der Zukunft mit Sli durchaus interessant. Wenn nicht der veraltete 28nm Prozess wäre und schon deutlich wird das ein Update in 20nm kommt. Warum sollte ich mir diese Karte denn leisten die sicherlich jenseits von 500,- kosten wird? Ich denke das der 28nm Prozess bereits sowas von ausgelutscht ist und nicht viel zu erwarten ist. Massives OC sicherlich nicht. Ich habe das Gefühl das wirklich potente GPUS mit Oculus und Star Citizen im Jahr 2016 zu sehen sind. Im Moment ist es nicht genug für UHD und zu viel für 1080p.
 
Bei dem Preis und den im Vergleich mickrigen Taktraten hat die Karte schon vor Release das Rennen gegen die R9 295X glatt verloren
 
Wichtig wäre wohl auch das die Hardware bereits Displayport 1.3 unterstützt, obwohl diese ohne SLI niemals UHD mit 120hz schafft. Einfach gut genug für jetzt, aber nächstes Jahr eine lahme Gurke. UHD und Oculus kommt und ein ordentlicher Leistungsschub muss her.
 
Bin mal gespannt ob die R9 3XX Serie dann mit GDDR6 kommen wird, da holt man wenigstens Leistung raus, aber 8GB sind im Moment echt unnötig...

Aber wie es dort aussieht wird auf die GTX8XX Serie schon sehr schnell die GTX9XX Serie folgen oder?
 
Das Speicherinterface ist auch etwas mickrig.

Böser Mod! :d Das heißt SI-Krüppel! :fresse2:

Du hast wohl nicht begriffen, was das Moor'sche Gesetzt besagt.

Das besagt gar nichts, das ist nämlich kein wirkliches Gesetz, das ist eine Prognose anhand von Asbach alten Daten. Da sin in der Zwsichenzeit Aspekte in den Vordergrund gerückt, die es da so gar nicht gab. Das wird gerne wie ein Naturgestz angeführt, aber das ist es mit Nichten.
 
Gesetz im Sinne von Gesetzmäßigkeit vllt schon. Es ist aber kein natürlich gegebener Zusammenhang (aka Naturgesetz).
Moore hat ja "nur" anhand von Analysedaten eine Verdoppelung der Komplexität von Schaltkreisen alle 12 bzw. 24 Monate vorrausgesagt.

Bob.Digs Zusammenahng zwischen Moores Law und 10% Leistungssteigerung erschließt sich mir nicht, sorry. ;)
 
die ref 880 kommt sicher nicht zum start mit 8gb...

wenn überhaupt kommt die mit 4gb und später wenn alle eine haben die "neue" mit 8gb. wär ja schon seeehr seltsam, wenn nvidia von 3gb gleich auf 8gb springen würde bei den ref karten.
 
Richtig, nur das was sich der Laie zusammengereimt hat, aka: Reelle Leistung verdoppelt sich alle 12 Monate, wurde wiederlegt.

Dass Maxwell bzw. die 800er Reihe nicht gleich in 20nm kommt, ist ziemlich enttäuschend.. aber naja, wieso sich beeilen wenn man die "selbe" Architektur dann zeimal verkaufen kann - in zwei verschiedenen Strukturbreiten...

Mal sehen was AMD so in der Zwischenzeit macht. Ihre Verbrauchsmonster könnten einen Schrink noch dringender gebrauchen als Nvidia.
 
Da die indischen Zollbehörden entsprechende Dokumente bei der Einfuhr offenlegen, lassen sich nun weitere Rückschlüsse auf einen möglichen Nachfolger der GeForce GTX 780 Ti bzw. GeForce GTX Titan (Black) ziehen.
Wohl eher Nachfolger der GTX 680, wobei das Namenschema der GPUs nicht mehr zu dem alten passt - GK104 != GM204. Einen würdigen Nachfolger gibt es dann vermutlich erst nächstes Jahr mit GM110/GM210.

Was die Performnce für UHD und VR angeht, so werden wir vermutlich auf die darauf folgende Generation warten müssen (2016/17) und damit auf Technologien wie Unified Memory. Maxwell ist auch nicht mehr das was es ursprünglich werden sollte und mMn. nur noch ein Kepler Refresh mit verbesserter Energieeffizienz, DX12 support und dann später mit einer höheren Transistordichte durch den Schrink. Wirkliche Neuerungen und hoffentlich auch große Perforancesprünge kommen dann wohl erst mit Pascal und Volta wenn wir dann bei 14nm/16nm sind.
 
Alles ist immer ein "Refresh" der alten Generation :fresse:
 
DRAM direkt neben dem GPU DIE mit nem 1024bit breiten Bus wäre aber schon mehr als ein "Refresh". Wenn CPu und GPU sich einen Adressraum teilen könnten wäre das auch ein enormer Performancesprung was Nvidia mit Volta und NVLink wohl erreichen möchte. Das werden wir Gamer in Verbindung mit Windoof als Unterbau wohl aber nicht in absehbarer Zukunft nutzen können. Das bleibt dann wohl vorerst dem HPC Bereich vorenthalten.
 
Das wollte ich damit sagen... Bisher wurde Moore jedenfalls nicht widerlegt, oder?

Mir wäre neu, dass sich die Komplexität der integrierten Schaltkreise in den letzten 12-24 Monaten verdoppelt hätte, weder bei CPUs noch bei GPUs. Moore hat halt auch nur eine Prognose abgegeben. Bob.Digs These ist übrigens auch nciht komplett falsch, was meint ihr denn was die erhöhte Komplexität erzeugen soll, wenn nicht mehr Leistung. ;)
 
Nunja, wenn ich den Cache einfach um Faktor 10 vergrößer, dann wird die Cpu sicherlich nicht in gleichem Maße an Leistung zunehmen.
Die Zahl der Transistoren steigt aber massiv an.

Die Leistung nimmt deutlich weniger zu als die Komplexität.
Ob sich die Komplexität in den letzten 24 Monaten tatsächlich verdoppelt hat, müsste man mal prüfen :d

EDIT:
Hatte Langeweile, das kam dabei raus...
Moores "Law" ist fast im soll... ;)

Code:
Graka     Transistoren   Vorstellungsmonat
Titan      7,08mrd.       2/2013
GTX680   3,54mrd.       3/2012
GTX580   3mrd.           9/2010
GTX480   3mrd.           1/2010
GTX280   1,4mrd.        6/2008
 
Zuletzt bearbeitet:
Richtig, nur das was sich der Laie zusammengereimt hat, aka: Reelle Leistung verdoppelt sich alle 12 Monate, wurde wiederlegt.

Wobei das auch nicht ganz falsch ist...
Denn offenbar fährt NV die Politik mittlerweile einen Performancechip zu bringen (GK104 -> GM204) und später dann den TopDog (GK110 -> GM200/210?)
Und man bekommt heute schon von GK104 auf GK110 fast eine Performancederdopplung, je nach Takt von letzterem. Mit 1200-1300MHz verdoppelt sich die Performance ohne CPU limitierung also heute schon.
Nimmt man die üblichen Basistaktraten von GK110 (780TI/TitanBE) und legt ~10% drauf für die neue GM204 ist man ebenso auf ca. diesem Niveau. Nicht ganz aber fehlt nicht viel.

Ergo hat sich die Performance schon verdoppelt.
GM204 als Nachfolgekarte der alten 680er schafft das ebenso. Sind dann zwar keine 2 Jahre zwischen, sondern eher 2,5, aber sei es drum.
Auch GK104 hat das seinerzeit auf den direkten Vorgänger der Performanceklasse schon geschafft.
Und GK110 schafft das auf den GF110 ebenso...

Das einzige, was sich noch rausstellen muss, wie viel schneller wird der Maxwell TopDog im Vergleich zu GK110.
NV spricht von einer Performance pro Watt Steigerung von ca. 70% (Präsentationsfolien der TitanZ)
Heist also 70% mehr Performance bei gleicher Leistungsaufnahme. Das ist alles andere als unrealistisch.

DRAM direkt neben dem GPU DIE mit nem 1024bit breiten Bus wäre aber schon mehr als ein "Refresh". Wenn CPu und GPU sich einen Adressraum teilen könnten wäre das auch ein enormer Performancesprung was Nvidia mit Volta und NVLink wohl erreichen möchte.

Das ist doch alles bestenfalls in GPGPU Anwendungen interessant.
Fürs reine Gamen ist die PCIe Bandbreite eher unwichtig. Ergo auch die Bandbreite zwischen RAM und VRAM.
Zumal beim Gamen die Daten idR genau einmal in den VRAM wandern, und das ist dann, wenn sie benötigt werden. Mittlerweile bedient man sich Mechanismen, die Daten intelligent wärend der Laufzeit des Spiels ohne Performanceverlust in den VRAM zu bringen. Das geht solange gut, wie der VRAM nicht überläuft.

Meine Prognose, gemeinsamer Adressraum für GPU und CPU bringt genau NULL Performancevorteile in Games. Weil es einfach nicht notwendig ist für diese Art der Berechnungen und vor allem nicht für die Dinge, die in Games den VRAM auffressen (Texturdaten)
Das hat auch Kaveri als APU schon gezeigt, welche ja HSA und hUMA kann und damit genau in diese Kerbe schlägt...

Der andere Ansatz, Speicher direkt auf dem GPU DIE dran zu pflanzen und damit potentiell ein sehr breites Interface bereit zu stellen bringt da eher ne ganze Ecke mehr.
Eventuell trennt man ja sogar den VRAM irgendwann mal auf. Sprich eher langsam angebundener Textur Pool + schnell angebundener Pool als Zwischenspeicher für Berechnungen. Das wäre dann aber eher ein Gamer only Feature und dürfte die Profiriege wiederum absolut nicht benötigen. Im GPGPU Bereich kann der VRAM Bedarf deutlich größer als im Gamerbereich sein. Und entgegen dem Gamerbereich ändern sich dort die Daten unter Umständen auch extrem häufig. Auch ist der Zugriffsspeed auf den Speicher entscheidender.
 
Das Speicherinterface ist auch etwas mickrig.

Bin mir nicht sicher ob das so nen riesen Ausschlag geben wird, immerhin hat Nvidia mit Maxwell den Intel Weg mit EmbeddedRam eingeschlagen, welcher dazu fuehert, dass deutlich weniger Daten in den GDDR Ram wandern. Was allerdings die 8GB GDDR total ueberfluessig machen wuerde. Ich denk da fehlt noch ein Puzzleteil oder es wirklich nur ein H4XX0R1337 Feature.

Man darf gespannt sein was erste Benches liefern.
 
Wieso? RAM Größe und Anbindung sind zwei völlig getrennte paar Schuhe und haben nur bedingt überhaupt was miteinander gemein! Bitte nicht alles in einen Topf werfen...

Mit den heute zu kaufenden Maxwell GPUs hat NV gezeigt, das man mit großen Caches die Bandbreitenanforderung stark mindern kann.
GK104 ist klar Bandbreitenlimitiert, GK110 ist es bspw. nicht bzw. nur unwesentlich bei sehr hohen Taktraten. (auch aufgrund von großen Caches)
GM204 wird mit größter Warscheinlichkeit ebenso große Caches haben und somit kann die Bandbreite für die RAM Anbindung durchaus auch schmaler ausfallen...
Das ist aber völlig unabhängig der größe des RAMs. Denn in Games werden dort überwiegend Texturdaten gelagert. Das können je nach Spiel und Einstellung mehrere GB gleichzeitig sein.

Schaut man sich die ganzen aktuellen Titel mal an, erkennt man ein starkes Defizit in Sachen Textur Resulution. Da ist viel viel Luft nach oben. 2-4k Texturen gibts heute idR nur durch irgendwelche Communitymods -> macht aber die Optik um einen großen Faktor besser. Benötigt aber halt VRAM ohne Ende...


Das ganze lässt sich übrigens ziemlich leicht "errechnen"
Hat es für eine Szene eine Anforderung von sagen wir 250MB Texturdaten, benötigt man bei 60 FPS um die 15GB/sec Bandbreite...
Hat es viermal mehr Platz für die Texturen in der gleichen Szene, steigt die Bandbreite aber auch um den Faktor 4. Im Beispiel also 60GB/sec.
Das lässt sich auch mit Caching nicht umgehen, da die Größe der Caches idR viel viel zu klein für große Texturdatenmengen ist!
Unterm Strich sind aber selbst 60GB/sec so wenig im Vergleich zu dem, was ne heutige HigHEnd GPU an Datendurchsatz erreicht, das es nicht ins (Performance) Gewicht fällt, wenn man die Texturauflösung hochschraubt.
 
ist mir vollkommen klar. Aber um HQ Texturen in annehmbaren FPS auf entsprechenden Monitoren darzustellen Bedarf es dennoch einem kleinen bischen Rechenpower. Ob da der riesen Sprung kommt? Ich glaub es nicht. Aber wir werden sehen.
 
Texturgröße allein kostet im Grunde sogut wie gar keine Rechenpower.
Sprich wenn du 0,5k Texturen vs. 4k Texturen bencht bei exakt gleichem Rest wird sich die FPS Rate normal absolut gar nicht verändern ;)
Das kann man bspw. an Games wie Skyrim ziemlich gut nachstellen. Man nehme das Basis Game und kloppe anständige 2-4k Texturmods drauf. Du bekommst nebst mehr BQ durch hochauflösendere Texturen mehr Anforderungen an die VRAM Größe. Die FPS bleiben aber quasi identisch.

PS: und Rechenpower hat das Ding wohl "genug". Auch wenn man im Grunde nie genug haben kann...
Aber angeblich liegt das Teil minimum auf dem Leistungslevel der heutigen HighEnd Riege im SGPU Bereich.
 
Zuletzt bearbeitet:
Ich glaube ja nicht, dass Moore das unter Marketing Aspekten gesehen hat. ;) GK110 gab es als Chip zu dem Zeitpunkt auch schon und bis es einen Chip mit 16 Milliarden Transistoren gebe wird, wird es wohl noch ein zwei Tage dauern.
 
Mir wäre neu, dass sich die Komplexität der integrierten Schaltkreise in den letzten 12-24 Monaten verdoppelt hätte, weder bei CPUs noch bei GPUs. Moore hat halt auch nur eine Prognose abgegeben. Bob.Digs These ist übrigens auch nciht komplett falsch, was meint ihr denn was die erhöhte Komplexität erzeugen soll, wenn nicht mehr Leistung. ;)

bessere effiezienzwerte. das geht wohl aber auch hand in hand.
 
fdsonne schrieb:
Und man bekommt heute schon von GK104 auf GK110 fast eine Performancederdopplung, je nach Takt von letzterem. Mit 1200-1300MHz verdoppelt sich die Performance ohne CPU limitierung also heute schon.
Nimmt man die üblichen Basistaktraten von GK110 (780TI/TitanBE) und legt ~10% drauf für die neue GM204 ist man ebenso auf ca. diesem Niveau. Nicht ganz aber fehlt nicht viel.

Man bekommt bei gleichem Takt etwa 50%, wie du auf fast 100% kommst, ist mir echt schleierhaft.
Wenn man den GK110 übertaktet kommt man ran, aber was bringt das?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh