nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
OC gut und schön... Aber ich habe eher so das Gefühl, das dem Teil die Bandbreite sehr schnell ausgehen wird. Und wohl auch in Sachen VRAM OC nicht soooo viel drin sein wird.
Bei ~50% über ner 680er per default mit den 876MHz Boost + 3GHz VRAM Takt müsste man das Teil analog der 670 zu 680er Bandbreitenlimitierung mit gut und gerne 1150-1200MHz Takten. Denn um 1,75 fache 680er Leistung zu erreichen wären 1,5*1,167 nötig. Nur für diese 1,167 fache Leistung oben drauf, also der Schritt von 50% auf 75% wäre dann ca. 33% mehr Takt nochmals oben drauf nötig. -> warum sollte man sich das ans Bein binden? Zumal wohl der Verbrauch auch deutlich steigen würde. Denn 33% mehr Takt = 33% mehr Verbrauch.
250W x 1,33 = ~333W -> never!

Wie macht man das eigentlich bei der nächsten Generation, wenn noch kein GDDR6 da ist? 512bit? XDR2? :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was hast du immer mit der Bandbreite?
die limitiert nicht in dem Maße bei 384 Bit, 256 lass ich mir gefallen
aber da kommen mal fix 330-360 GB/sec zusammen

was willst du mit mehr?
 
was hast du immer mit der Bandbreite?
die limitiert nicht in dem Maße bei 384 Bit, 256 lass ich mir gefallen
aber da kommen mal fix 330-360 GB/sec zusammen

was willst du mit mehr?

Du hast es immer noch nicht verstanden:d Das 384Bit SI ist da vollkommen egal: GK110 wird zwar 45% mehr Rechenleistung als GK104 haben, aber auch nur 50% mehr Bandbreite. Das verhältnis wird bei GK110 also sehr ähnlich dem der GTX 680 sein. Sprich wird Speicher-OC in etwa genauso viel bringen wie reines GPU-OC.

Mal schauen. Wenn der Speicher mit 1,6 statt 1,5V laufen sollte, sollten 3500MHz wohl sicherlich drin sein, auch bei 6144 MiByte. Bei der großen Vram Menge darf man auch nicht von allzuviel mehr Takt ausgehen. naja, 335GB/s hören sich schon nett an:d
 
Zuletzt bearbeitet:
was hast du immer mit der Bandbreite?
die limitiert nicht in dem Maße bei 384 Bit, 256 lass ich mir gefallen
aber da kommen mal fix 330-360 GB/sec zusammen

was willst du mit mehr?

Du kommst maximal auf 336GB/s mit 7Gbps, der recht teuer sein dürfte. Aktuell gehts noch, aber wenn du die Rechenleistung ggü. Titan dann nochmal um 50+% erhöhst, die Bandbreite aber nur um 16% (6 auf 7 Gbps), wird das sicher limitieren. Schau doch Brolys Test an, da skalieren die fps nur 1:1 mit der Rechenleistung, wenn die Bandbreite zumindest deutlich mitsteigt. Er hat sie analog erhöht, vielleicht reicht auch etwas weniger. Aber um eine deutliche Erhöhung wird man bei der nächsten Generation nicht umhinkommen.
 
Wie macht man das eigentlich bei der nächsten Generation, wenn noch kein GDDR6 da ist? 512bit? XDR2? :d

Steht nicht DDR4 in den Startlöchern?
Weil wenn ja, dann dürfte GDDR6 nicht mehr weit entfernt sein.

Und ich behaupte, wir werden vor Mitte 2014 keine "nächste" Generation sehen. Das wird alles aufgewärmter Kaffee. Erst mit 20nm gehts wohl wieder vorran. Somit müsste der Leistungsbedarf auch auf diese Zeit gesehen absehbar sein, was den VRAM angeht.
Selbst wenn man beispielsweise Maxwell in 28nm vorschiebt, das Teil währe wohl extrem größer als die 28nm Gk110 GPU. Ich kann mir nur schwer vorstellen, das NV sowas macht. Sprich HighEnd Maxwell@28nm.
bestenfalls noch nen Mittelklasseableger um die Architektur grundsätzlich erstmal zu bringen. Aber auch das dürfte den Bandbreitenbedarf nicht sonderlich verändern.


PS:
box, kannst du ne Aussage treffen, wie sich deine 3GB 580er allein auf den VRAM bezogen OCen lassen?
Ist es immernoch so, wie ich mal gelesen habe, das die doppelt bestückten Modelle nicht so viel VRAM Takt machen, wie die einfachen Modelle?
 
ich hab das sehr wohl verstanden und ich kenne deine Speicherbandbreitentest
das Ding limitiert dann wenns eh zu spät ist, bei 24 SGSSAA oder 4k DS oder weiß der Geier wo, da wos keinen interessiert

von 280 zu 330 GB/sec sinds grad mal 20% mehr Bandbreite, aber die resultieren nicht in 20% mehr FPS
die Diskussion ist vollkommen unsinng, wenn es danach ginge bräuchte man 2048 Bit und 20 GHz VRam um ner Limitierung zu entgehen
 
Steht nicht DDR4 in den Startlöchern?
Weil wenn ja, dann dürfte GDDR6 nicht mehr weit entfernt sein.

Und ich behaupte, wir werden vor Mitte 2014 keine "nächste" Generation sehen. Das wird alles aufgewärmter Kaffee. Erst mit 20nm gehts wohl wieder vorran. Somit müsste der Leistungsbedarf auch auf diese Zeit gesehen absehbar sein, was den VRAM angeht.
Selbst wenn man beispielsweise Maxwell in 28nm vorschiebt, das Teil währe wohl extrem größer als die 28nm Gk110 GPU. Ich kann mir nur schwer vorstellen, das NV sowas macht. Sprich HighEnd Maxwell@28nm.
bestenfalls noch nen Mittelklasseableger um die Architektur grundsätzlich erstmal zu bringen. Aber auch das dürfte den Bandbreitenbedarf nicht sonderlich verändern.


PS:
box, kannst du ne Aussage treffen, wie sich deine 3GB 580er allein auf den VRAM bezogen OCen lassen?
Ist es immernoch so, wie ich mal gelesen habe, das die doppelt bestückten Modelle nicht so viel VRAM Takt machen, wie die einfachen Modelle?

Ich hab das mal probiert damals, wenn ich mich recht erinnere, gingen keine 10%, zumindest auf beiden Karten gleichzeitig. Einzeln hab ich nicht versucht. Hab jetzt auch keine Lust, das nochmal zu testen, die Dinger kommen eh spätestens nächste Woche weg.

@Naennon:

Das stimmt doch gar nicht. Da wurde nur mit MSAA getestet und maximal 2560x1600.
 
Zuletzt bearbeitet:
ich hab das sehr wohl verstanden und ich kenne deine Speicherbandbreitentest
das Ding limitiert dann wenns eh zu spät ist, bei 24 SGSSAA oder 4k DS oder weiß der Geier wo, da wos keinen interessiert
Bitte was?:stupid: Das SI wird bei GK110 genauso wie GK104 in sogut wie allen Situationen limitieren, wo Bandbreite von nöten ist, allein schon, wenn man viel MSAA oder hohe Auflösungen nutzt. Wie man in meinem Test sieht, wenn man genau hinsieht, limitiert die Speicherbandbreite sogut wie immer, egal ob bei 100Fps oder bei 20... Bei Gk110 könnte das ein klein wenig anders sein, wegen ders größeren Cache und dem etwas besseren verhältnis (+45% Rechenleistung gegenüber +50% bandbreite)
 
PS:
box, kannst du ne Aussage treffen, wie sich deine 3GB 580er allein auf den VRAM bezogen OCen lassen?
Ist es immernoch so, wie ich mal gelesen habe, das die doppelt bestückten Modelle nicht so viel VRAM Takt machen, wie die einfachen Modelle?

Bei der Frage möchte ich mich einbringen: Ich hatte drei GTX 580 3GB und bei denen konnte ich den VRAM quasi nicht übertakten. 50 MHz mehr liefen nicht mehr, deshalb hab ich es ganz sein gelassen. Keine Ahnung, ob das nur die ZOTAC-Karten betraf (waren alles drei die gleichen Karten) oder ob das herstellerübergreifend so war/ist - mein VRAM hatte quasi keine Reserven. Andererseits könnte es natürlich nur eine Karte gewesen sein, die limitiert hat. Ich hatte schließlich immer mindestens zwei im SLI.
 
915 und über 1000 mhz turbo bei der asus das wäre was.
 
Wahrscheinlicher ist aber wohl doch, dass das nicht stimmt. Denn ich glaub immer noch nicht an den Zufall, dass die Taktraten denen der 690 entsprechen. Damals stand ja auch 512bit in der Listung, das war sicher ein Fehler, den TPU in ihre Datenbank übernommen hat und jetzt käut es jeder wieder.
 
Dachte ab heute 15:00 Uhr fällt die NDA?? Doch nicht?

Zitat eines Mod´s von Overclockers.at vom 15.2.

NVIDIA hat gerade das NDA-Datum für ein "GeForce Produkt" verkündet:

Dienstag, 19. Februar, 15:00 (CET) - News, Details und Bilder des Produkts dürfen ab veröffentlicht werden.
Donnerstag, 21. Februar 2013, 15:00 (CET) - Benchmarks und Co
 
von 280 zu 330 GB/sec sinds grad mal 20% mehr Bandbreite, aber die resultieren nicht in 20% mehr FPS

Richtig, in einigen Titeln aber resultieren 20% mehr Bandbreite in ca. 10% FPS. Und wenn du es andersrum betrachtest, resultiert allein 20% mehr GPU Power bei gleicher Bandbreite ebenso in ca. 10% mehr FPS. Erhöhst du beides zu gleichen Teilen, bekommst du auch ~20% mehr FPS.
DAS! nenne ich schon sehr massiv Bandbreitenabhängig.

Schau dir kleinere GK10x Modelle an. Es zieht sich durch die ganze Palette, bis oben hin. Daran gibts nix zu rütteln.
660 non TI zu 670, ~33% mehr Rechenleistung, ~33% mehr Bandbreite = ~33% mehr FPS.
Dazu 660 non TI zu 660TI = gleiche Bandbreite, ~33% mehr Rechenleistung = ~15% mehr FPS.
660TI zu 670, gleiche Rechenleistung, ~33% mehr Bandbreite = ~15% mehr FPS.

Offensichtlicher gehts doch gar nicht.

Und Titan wird daran zu 99,999% keien Ausnahme machen. Somit werden ~45% mehr Rohpower sowie ~50% mehr Bandbreite auch knappe 50% auf ne 680er drauf legen.
Jedes Prozent mehr Rohleistung wird sich wohl ziemlich sicher deutlich weniger gut (analog den anderen Keplers) in FPS Leistung umsetzen lassen...

Bei der Frage möchte ich mich einbringen: Ich hatte drei GTX 580 3GB und bei denen konnte ich den VRAM quasi nicht übertakten. 50 MHz mehr liefen nicht mehr, deshalb hab ich es ganz sein gelassen. Keine Ahnung, ob das nur die ZOTAC-Karten betraf (waren alles drei die gleichen Karten) oder ob das herstellerübergreifend so war/ist - mein VRAM hatte quasi keine Reserven. Andererseits könnte es natürlich nur eine Karte gewesen sein, die limitiert hat. Ich hatte schließlich immer mindestens zwei im SLI.

Jupp, das bestätigt auch mein Wissensstand zu dem Thema. War meine ich bei den 4GB Modellen der 670/680er auch so.
Wobei es natürlich auch drauf ankommt, was für VRAMs verbaut sind und vor allem, wie hoch die Spannung anliegt.


@Broly, die Toxic hat glaube ich 1,6V auf den VRAMs.
Die default GHz Edition hat laut ht4u.net nur 1,5V!! Ob das überall so ist, weis ich aber nicht.
Die GK104 3GHz VRAMs haben meine ich auch alle nur 1,5V
 
Wahrscheinlicher ist aber wohl doch, dass das nicht stimmt. Denn ich glaub immer noch nicht an den Zufall, dass die Taktraten denen der 690 entsprechen. Damals stand ja auch 512bit in der Listung, das war sicher ein Fehler, den TPU in ihre Datenbank übernommen hat und jetzt käut es jeder wieder.

Jup, sehe ich auch als einfach zu widersprüchlich. Und wie Computerbase letztens nochmal schrieb: die 837Mhz passen einfach zu gut für die 4,5 TFLOPS.

@Broly, die Toxic hat glaube ich 1,6V auf den VRAMs.
Die default GHz Edition hat laut ht4u.net nur 1,5V!! Ob das überall so ist, weis ich aber nicht.
Die GK104 3GHz VRAMs haben meine ich auch alle nur 1,5V
Jup, stimmt so. Allerdings lässt sich bei AMD die Speicherspannung verändern, sodass man den Vram auch mit 1,6V ansprechen kann. Damit müssten, wie gesagt, ach 3500Mhz drin sein.
 
Zuletzt bearbeitet:
die Diskussion ist vollkommen unsinng, wenn es danach ginge bräuchte man 2048 Bit und 20 GHz VRam um ner Limitierung zu entgehen
Nur so übertrieben ist es eben nicht. Man weiß leider nicht, ab wann die Skalierung durch mehr Takt des Speichers nachlässt, da 4000Mhz wohl sogut wie nie funktionieren. Aber wenn GK110 statt 50% 75% mehr Bandbreite bekommen würde, würde man so deutlich stärker aus dem bandbreitenlimit aussteigen. AMDs 7970 skaliert ja bis etwa 1050MHz auch annähernd linear, ohne die Bandbreite erhöhen zu müssen.
 
Die Takterhöhung wirkt sich in der Regel nicht linear auf den Verbrauch aus.

Doch macht es... Nicht ganz 1:1, das stimmt, weil nicht nur allein die GPU Verbrauch erzeugt. Da die GPU aber mit Abstand der größte Verbraucher auf einer Grafikkarte ist! ist es annähernd linear. Und somit auch recht gut hochrechenbar.
Über gegenteilige Belegungen wäre ich dir sehr verbunden. ht4u.net, pcgh usw. mit direkt Kartenmessungen bestätigen dies nämlich ;)


Was willst du mit so nem Durchsatz, wenn die GPU Power nicht mit steigt?
Du sagst doch, du hast es verstanden... Mit der Aussage offenbar nicht ;)
 
Jupp, das bestätigt auch mein Wissensstand zu dem Thema. War meine ich bei den 4GB Modellen der 670/680er auch so.
Wobei es natürlich auch drauf ankommt, was für VRAMs verbaut sind und vor allem, wie hoch die Spannung anliegt.

Bei den 670ern mit 4 GB kann ich anderes berichten. Denn ich habe seit kurzem derer drei davon im Rechner (Zotac GTX 670 4GB im 680-Referenzlayout). Und die fahre ich mit 3.600 MHz VRAM (also genau 20 Prozent OC).

Ich würde hier, wie du schon vermutet hast, auf die Spannung als Ursache tippen (bei den 580ern eben sehr niedrig, bei den 670ern "normal").
 
Nebe der reinen Bandbreitensteigerung könnten auch Verbesserungen bei der Speicherverwaltung oder größere Caches ihren Beitrag leisten.
 
Ich würde hier, wie du schon vermutet hast, auf die Spannung als Ursache tippen (bei den 580ern eben sehr niedrig, bei den 670ern "normal").
Soweit ich weiß, war bei der 580 der Speichertakt an der GPU-Vcore gekoppelt. Zumindest konnte ich meine 580 mit 1,1V Speichermäßig auf 2304Mhz prügeln. Bei der standard Vcore sind nur rund 2050Mhz drin.


Nebe der reinen Bandbreitensteigerung könnten auch Verbesserungen bei der Speicherverwaltung oder größere Caches ihren Beitrag leisten.
Wie gesagt, könnten;) Das dürfte wohl in der Realität einfach Game/Settingsabhängig sein, wieviel der größere Cache bringt.
 
Nebe der reinen Bandbreitensteigerung könnten auch Verbesserungen bei der Speicherverwaltung oder größere Caches ihren Beitrag leisten.

Aber nicht zwischen Kepler und Kepler...
Ihr erwartet einfach zu viel. Das Teil ist GK104 nur etwas größer. Aber bei weitem kein Schritt einer vollständigen Überarbeitung der Architektur. Alles was GK110 kann, kann auch GK104, nur eben in klein. OK fast. Die DP Performance von GK104 ist grottig. Aber das spielt in Games sowieso keinen Rolle... Somit kann man daran sehr analog messen, wie die Leistung wird. Wie auch zwischen GK104 und GK106 oder 107... Das passt wie Arsch auf Eimer zwischen Theorie und Praxis.
 
Zuletzt bearbeitet:
Geil, soll zumindest laut nvidia leiser als eine GTX 680 sein -> wenn der Preis stimmt, ist das ding gekauft:d
 
omg sonne...

ihr redet von einem Limit

wäh hier Limit wäh hier da Limit
das Limit ist weg wenn es keins mehr ist
und das ist es dann wenn soviel Bandbreite da ist, das der GPU die Puste ausgeht

ihr MEINT die Skalierung von Bandbreite mit GPU Takt
natürlich skaliert das eine mit dem anderen, wäre ja auch ziemlicher Unsinn wenn nicht

darum ist die Diskussion um ein Bandbreitenlimit unsinnig, es wird immer eins geben, mit 512 weniger als mit 384 Bit (welch ein Wunder)
aber ein 512 Bit Interface macht den GK110 nicht besser, schneller und billiger
mit 512 Bit sind wir bei ~400-440GB/sec, das resultiert aber nicht in verhältnismäßig mehr FPS, als das es sich für Nv noch für dne User lohnen würde
genau die sinnlose Diskussion mit VRamkrüppel GTX 690 von wegen 4GB

es gibt ganz klare Anwendungsszenarien und für 40000x25000 mit 32 SGSAAA und was auch immer sind die Karten 100% nicht designed
die sind für 1080P/1440P designed und da reicht 1. der Ram und 2. die Bandbreite
die 680 hätte mit nem 384 Bit Interface den Abstand zur 7970 auch nicht verringert
aber eventuell solltet ihr mal bei den Leuten vorsprechen, eventuell geben die euch einen Job als Designer für upcoming Produkte

das fing alles vor paar Jahren auf CB oder PCGh an mit CPU Limit hier, VRam Limit da, dieses Limit hier
irgendwas limitiert immer ;)
zu sagen das der mit seinen 384er Interface aber wieder zu arg limitiert ist - gut hab genug meine Meinung kund getan
 
Soweit ich weiß, war bei der 580 der Speichertakt an der GPU-Vcore gekoppelt. Zumindest konnte ich meine 580 mit 1,1V Speichermäßig auf 2304Mhz prügeln. Bei der standard Vcore sind nur rund 2050Mhz drin.

Mmh, hätte ich wohl mal besser GPU- und VRAM-OC gleichzeitig austesten sollen, was?! :fresse: Aber egal, jetzt sind eh andere Karten drin...
 
Also wenn NV in der Marketingfolie Crysis 3 drauspickt für den Vergleich zwischen 680er und Titan... Und da grob über den Daumen ~30% mehr Leistung bei rum kommen. Fange ich langsam an, das die ~50% realistisch sind :fresse:
Für gewöhnlich kocht NV in den Marketingfolien immer etwas heißer, als gegessen wird.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh