nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Es gab bei PCGH eine Erklärung für Downsampling so wie einen Guid .
4K ist Ultimativ du musst ja so nicht zocken aber sich das mal ansehen.
Ich schreibe schon den ganzen Tag mit meinem Note2 komme nicht an den Rechner weil Prinzessin krank ist sonst hättest du schon ein Paar links.
Du sagst sofort Wow wenn du das erste Bild siehst in der Auflösung.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Leider hat hohes DS immer noch einen imensen Nachteil -es verbraucht teils deutlich mehr Performance als SGSSAA und sieht oft nicht mal ruhiger aus - das beste ist natürlich 4K + SGSSAA xD (Spielbar irgendwann 2020?)
Dallerdings wirken durch DS die Texturen deutlich schärfer und FXAA ist dann plötzlich doch gar nicht mehr so schlimm
 
Bedenkt das jedes 4k-Display zur Zeit nur 30 Hz liefert. Das ist imo ein unübewindbarer Nachteil beim Zocken. Zumindest in shootern.
 
Bedenkt das jedes 4k-Display zur Zeit nur 30 Hz liefert. Das ist imo ein unübewindbarer Nachteil beim Zocken. Zumindest in shootern.

Gut, stimmt auch wieder. Nun ja, bis Single-GPU Karten auch 4k mit MSAA/SSAA flüssig darstellen können, dauerst noch etwas:fresse: DA wird wohl auch GK110 nur wenig ändern können...
 
Eben. Wir reden in 2-3 Jahren noch mal. Jetzt ist erstmal Zeit für die early adaptor im 4k-Bildschirm-Segment. Technisch gesehen sind die Teile kein Wundwerk.
 
eigentlich nicht... in allen games, die ich bisher gespielt habe, hat sich am Sichtfeld nichts verändert. ob ich einen screen mit 1920x1080 mache, oder einen mit 2880x1620->auf beiden Screens wird genau das selbe gezeigt, auf den 1620p screen aber mit mehr Pixeln.

Das Sichtfeld wird nur verändert, wenn man ein anderes Seitverhältnis auswählt.

ja mit anderem Seitenverhältnis ist das logisch ;)
Ich meinte aber eher, das du bei vielen Games auch mehr auf dem Schirm siehst, wenn die Auflösung steigt (bei geleichem Seitenverhältnis)
Das lässt sich gut mit Downsampling nachvollziehen. Oft genau dann, wenn das HUD beim Downsampling immer kleiner wird. Dann bekommst du oft auch mehr Sichtbereich.
Aber wie angesprochen, es gibt da nix, was allgemeingültig ist, mal ists so, mal anders. Skyrim scheint in der Tat ein Spiel mit starrem Sichtbereich zu sein.

Beispielsweise, spiel mal Anno 1404, um so höher die Auflösung, desto mehr siehst du auch. ;)

PS: bei starrem Sichtfeld ändert natürlich die höhere Auflösung auch texturtechnisch was gutes. Weil nämlich mehr Pixel für ein und die selbe Textur herhalten.

Wie sollen denn mehr Details angezeigt werden können als der Bildschirm Pixel hat? Der Downsamplingfilter zerstört die ganzen Details doch wieder.

Neja so kann man das auch nicht sagen...
Der Vorteil ist ja, der Content liegt quasi in nicht festgelegter Auflösung vor und wird dynamisch erzeugt. Auch Texturen werden idR in "hohen" Auflösungen abgelegt und dann dynamisch hingerechnet, das es passt. Somit erzeugst du in der Grafikkarte ein HighRes Bild und der Monitor skaliert dir den Spaß dann runter... Mit Downsampling wird das Bild noch größer und der Effekt verstärkt sich noch.

Gute Praxisvergleiche sind da einfach zu erzeugen. Beispielsweise willst du ein einfaches kleines Banner erzeugen. Bei A) nimmst du ein LowRes Bild und rechnest dies auf die gewünschte Auflösung runter, bei B) nimmst du ein HighRes Bild und machst das selbe.
Um so mehr "Details" die Quelle hat, desto hübscher wird das Endergebnis sein. Analog zu Downsampling auch.


Das größte Problem beim Downsampling ist aber wohl eher, das es sehr viel Leistung kostet und das es bei ungünstigen Auflösungen unter Umständen etwas "mau" ausschaut. Optimalerweise dürften gerade Skaleriungszahlen das beste Ergebnis erzielen. Also 2x2 oder 3x3. Ersteres ist aber vom Ressourcenbedarf schon ziemlich heavy :fresse:

Ich hätte halt gern ne technische Erklärung, warum es einen Unterschied machen soll. 4K auf einem 4K-Monitor ist klar, aber auch nur, wenn der Content mitspielt. Bei gröberen Objekten im Vordergrund wird wohl nicht soviel Unterschied zu sehen sein, eher bei Vegetation oder so.

technisch könnte man schon sagen, das man mehr Details besser runterrechnen kann, als weniger Details. Gerade bei nicht exakt waagerecht/senkrecht verlaufenden Linien (die es ja äußerst selten in einem Game gibt) bleiben bei höherer Auflösung (DS) mehr Details zum erzeugen der Linie.
Übrigens fällt das extrem auf, wenn die Monitordiagonale bei gleicher Auflösung größer wird. Weil man nämlich dann diese kleinen mehr Details eher bemerkt als auf ner Mäusekino 23-24" Glotze :fresse:

Bedenkt das jedes 4k-Display zur Zeit nur 30 Hz liefert. Das ist imo ein unübewindbarer Nachteil beim Zocken. Zumindest in shootern.

Dsa dürfte aber primär an den Anschlüssen liegen, oder?
HDMI ist ja bis 4k bei 24Hz spezifiziert. Mit DualLink DVI bekommst du dann trotzdem noch keine vollen 60Hz hin. -> wohl das größte Problem aktuell.
Keine Ahnung wie es mit DP ausschaut. Laut Wiki benötigt man Version 1.2 mit vier Datenleitungen...

Die HD7970 sowie die 680er GTX unterstützt zumindest DP 1.2... Technisch sollte somit dem erstmal nichts im Wege stehen. Fehlen nur noch die Monitore :fresse:
 
Der Vorteil ist ja, der Content liegt quasi in nicht festgelegter Auflösung vor und wird dynamisch erzeugt. Auch Texturen werden idR in "hohen" Auflösungen abgelegt und dann dynamisch hingerechnet, das es passt. Somit erzeugst du in der Grafikkarte ein HighRes Bild und der Monitor skaliert dir den Spaß dann runter... Mit Downsampling wird das Bild noch größer und der Effekt verstärkt sich noch.

Gute Praxisvergleiche sind da einfach zu erzeugen. Beispielsweise willst du ein einfaches kleines Banner erzeugen. Bei A) nimmst du ein LowRes Bild und rechnest dies auf die gewünschte Auflösung runter, bei B) nimmst du ein HighRes Bild und machst das selbe.
Um so mehr "Details" die Quelle hat, desto hübscher wird das Endergebnis sein. Analog zu Downsampling auch.

Ich sehe auf Brolys Skyrimbildern skaliert auf gleiche Größe schon deutliche Unterschiede. Die Frage stellt sich dann aber, wenn der Monitor den höheren Detailgrad ja anzeigen kann, warum werden die Details dann ohne Downsampling nicht dargestellt? Es würde ja theoretisch gehen, das Raster (physische Monitorauflösung) wäre fein genug. Das hieße, dass die Rasterisierung bei heutigen Auflösungen schlecht arbeitet und Details unnötigerweise "verschluckt", was durch ein feineres Raster wieder ressourcenintensiv "behoben" wird - so nach dem Motto "ein Schritt zurück, einer nach vorne". Ohne Downsampling wäre es nur "ein Schritt zurück".
 
Zuletzt bearbeitet:
Sleeping Dogs hat downsampling sogar im Spiel implementiert man muss er nur an wählen .
Das würde ich mir in jedem Game wünschen.
 
Zuletzt bearbeitet:
ja mit anderem Seitenverhältnis ist das logisch ;)
Ich meinte aber eher, das du bei vielen Games auch mehr auf dem Schirm siehst, wenn die Auflösung steigt (bei geleichem Seitenverhältnis)
Das lässt sich gut mit Downsampling nachvollziehen. Oft genau dann, wenn das HUD beim Downsampling immer kleiner wird. Dann bekommst du oft auch mehr Sichtbereich.
Aber wie angesprochen, es gibt da nix, was allgemeingültig ist, mal ists so, mal anders. Skyrim scheint in der Tat ein Spiel mit starrem Sichtbereich zu sein.

Neja, bei Skyrim verändert sich die Anzeige auch etwas (Siehe Kompass oben). Gut, bei Anno kann es sein, weiß ich nicht. Wäre vllt auch mal interessant, einen vergleich zwischen mehreren Spielen zu machen.

Was interessant ist:
(aus dem 3DCenter)
NVIDIA
S TAIWAN 1235A1
NCM268.M1W
GK110-885-KA-A1
Scheint also A1 zu sein -> und schon recht alt. Könnte bedeuten, dass 15SMX doch warscheinlicher werden.


Sleeping Dogs hat downsampling sogar im Spiel implementiert man muss er nur an wählen .
Das würde ich mir in jedem Game wünschen.
Jup, The Witcher 2 nutzt ebenfalls internes DS -> allerdings sind die heutigen Single-GPUs einfach nicht stark genug dafür, auch mit 1300MHz nicht:( Sieht aber dennoch geil aus:)) Auch Guild Wars 2 bietet Downsampling an, und es wirkt teils wahre Wunder.

Skyrim würde ich auch gerne mit 1620p spielen, aber dann erscheint da so ein blödes "S" im Bild...
 
Zuletzt bearbeitet:
Möchte ja auch gern wieder SLI oder CF zusammenbauen aber jetzt ist nicht mehr der Zeitpunkt da für will die neuen sehen.
Mein CF hatte ich ja im Sommer aufgelöst wegen Nachwuchs war da kaum was zu machen mit Zocken jetzt hat sich alles eingespielt und die Zeit ist Abends da so mit lohnt es sich für mich zu investieren vorher hätte ich nur totes Kapital im Rechner gehabt.

Bin richtig f×××× auf die neuen Karten.
Ein neuer Monitor muss auch her entweder den yamakasi den man bis 120 Hertz pimpen kann bei 2560 oder einen der neuen 4K Monitore wenn sie den kommen und einiger massen zu bezahlen sind.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Erst 2560x2048 auf einem 1280x1024 Monitor und jetzt 2880x1620 auf einem 1080p Monitor. Für 4k reicht die Leistung nicht wirklich mit 580 SLI.

Ich hätte halt gern ne technische Erklärung, warum es einen Unterschied machen soll. 4K auf einem 4K-Monitor ist klar, aber auch nur, wenn der Content mitspielt. Bei gröberen Objekten im Vordergrund wird wohl nicht soviel Unterschied zu sehen sein, eher bei Vegetation oder so.

Ich wollte auch mal downsampling ausprobierend und habe mw3 in max Details(4*AA) in 1920*1080p laufen lassen und einmal in 2880*1620p und ich konnte außer einer kaum zu erkennenden Munitionsanzeige keine Unterschiede feststellen.


^^iPod lässt Grüßen^^
 
@box, ich bekomm die Bilder oben irgendwie nicht auf :fresse:
Kommt immer, Seite kann nicht angezeigt werden... Daher musste ich an den kleinen Screens (wo man soviel ja nicht sieht) schätzen.

Ich denke auch nicht, das es am Monitor liegt, sondern einfach daran, das mehr Auflösung (runterskaliert) eben mehr Details preisgibt.
Das gleiche Verhalten hast du ja auch, wenn du in sagen wir 1280x720 vs. 1920x1080 vergleichst. Ist beides dazu noch native auf zwei Testmonitoren, so bleibt das Verhalten trotzdem gleich.
Sicher verliert man beim Downsampling durch die Skalierung was an Details durch das runterrechnen, was ja logisch ist im Vergleich zur nativen Ausgabe der downsampling Auflösung, aber das sollte immernoch weniger sein, als das Bild native in FullHD zu erzeugen.

Ich habe zwar so viel Ahnung in Sachen Grafikbearbeitung nicht, aber man verwendet ja nicht Grundlos für die Basis diverser Bilder/Logos usw. Vectorgrafiken.

Siehe:

Entgegen dieses Beispielbildes verläuft DS ja genau andersrum. Sprich von groß auf klein.
Aber ein beispielsweise Kreis erzeugt in 500px wirkt "runder" auf dem Schirm als ein Kreis in 250px. Und diese mehr details des größeren Kreises bleiben zu einem Teil beim DS erhalten. Der 250px Kreis native hat nie diese Details erfahren.
 
@Mindfucked
Bei solchen Problemen helfen Optiker:)
 
Zuletzt bearbeitet:
Immer noch? :(
Auf deinen Screenshots aus #1851 sieht man davon nix oder ist es so gut versteckt?

Ne, bei 1,25x1,25 DS noch nicht, sowie bei 1440P auch noch nicht. Erst ab 1,5x1,5 DS tritt dieses "S" auf.
Stimmt, die Bilder lassen sich nicht mehr Aufrufen, ich mach mal direkt neue :)
 
DS bei Skyrim geht bei mir irgendwie gar nicht. Da flackern die Schatten extremst und drehen wild im Kreis, wenn man die Maus bewegt. Könnte aber auch an meinen Mods liegen :fresse:
Bin mir aber ziemlich sicher, das es anfangs nicht so war... :( Habe aber mit der Zeit hier und dort Modtechnisch noch was zugelegt, speziell, was Beleuchtung und sowas angeht.

@Thunder, ich würde beim Monitor keine Kompromisse eingehen.
Speziell was 120Hz und 1440/1600p angeht oder 4k. Das taugt doch alles aktuell nix...
Dann wohl lieber noch was warten bis breite Verfügbarkeit. -> Meine Meinung ;)
 
Warum gibt es eigentlich ne 800€ teure Single-GPU Graka als Titan Version? Das liegt wohl daran, dass gegen die 7970 damals die abgespeckte 680GTX gereicht hat, und das echte Monster gereift und nun auf die Menschheit losgelassen wird?! Ansonsten, woher kommt der Leistungssprung, der ja recht groß sein muss?
Bisher war man mit 10-30% Mehrleistung zufrieden. Diese 10-30% sollten mit der 780GTX für 500€ (falls sowas kommt) machbar sein, dann müsste die Titan bei 50% Mehrleistung mindestens einschlagen?! Schon heftig gut, und teuer :xmas:
 
Ne, bei 1,25x1,25 DS noch nicht, sowie bei 1440P auch noch nicht. Erst ab 1,5x1,5 DS tritt dieses "S" auf.
Stimmt, die Bilder lassen sich nicht mehr Aufrufen, ich mach mal direkt neue :)

Sieht man das auf Screenshots? Ich hab eben mal ein 4k-Video von Skyrim auf Youtube angeschaut, da find ich kein S drauf.

Ich installiere es schnell mal und teste selbst. Hast ein Savegame zufällig? Will nicht ganz von vorne anfangen.
 
Zuletzt bearbeitet:
Es ist aktuell nicht bekannt, was ein möglicher GK104 Nachfolger überhaupt kann.
Für 30%+ müsste wohl in Sachen ALUs schon was passieren. Auch ist an der Stelle fraglich, ob man überhaupt mit soviel mehr GPU Performance bei 256Bit SI nennenswerte Leistungsvorteile erzielen kann. Da wäre wohl 3,3-3,4GHz schneller VRAM das mindeste.

PS: GK104 ist auch nicht abgespeckt. Rückblickend betrachtet man es eher den Eindruck, als hätte NV schlicht nichts anderes. Und die hohen Taktraten auf GK104 bestätigen dies auch. Die Spekulationen ne ganze Zeit vor GK104 Release deuteten ja eher auf 850-900MHz hin. Was schlussendlich gekommen ist, sieht man an der 680er.

Gesetz dem Fall, GK110 aka Geforce Titan legt in 1440/1600p wirklich ~50% auf ne 680er zu, so halte ich 30% für den Mittelklassechip für unrealistisch. Viel eher wird man wohl nen teildeaktiverten Geforce Titan Ableger als kleinen Bruder bringen.

Ich denke GK104 zu nem fiktiven Mittelklassenachfolger wird sich viel eher im Bereich 5-10% einfinden, wenn überhaupt ;)

Ich installiere es schnell mal und teste selbst. Hast ein Savegame zufällig? Will nicht ganz von vorne anfangen.

probier mal das:
http://www.pcgameshardware.de/Spiele-Thema-239104/Tests/Benchmark-Test-CPU-Grafikkarten-744422/24/
 
Zuletzt bearbeitet:
Ich glaube nicht, dass Nvidia einen abgespeckten Titan auf den Desktopmarkt bringt. Die wollen lieber kleine Chips für viel Geld verkaufen. Ein GK204, der 10-15% schneller als ein GK104 ist und für 499-549 verkauft wird, passt doch wunderbar ins Bild. Ich fürchte, die Zeiten, in denen die großen Chips so günstig waren, sind für immer vorbei.
 
fdsonne das Projekt Monitor lasse ich zur Zeit auch noch ruhen.
War aber schwer begeistert vom Yamkasi bei Powerplay zu Hause selbst mein 120 Hertz Benq weist mehr imputlag auf .
Mit zwei Karten konnte Powerplay nahe zu die 100FPS halten bei 100 Hertz und die FPS ging selten drunter in BF3 .
War schwer beeindruckt was die HD7970er@1200 in dieser Auflösung @Ultra 4×MSAA noch abfackeln und die Bildqualität des IPS der HAMMER.
Ganz schön blass vor Neid war ich.

Ob es in absehbarer Zeit so einen geilen Monitor ab Werk zu kaufen geben wird ist stark an zu zweifeln.
 
Zuletzt bearbeitet:
Ich fürchte, die Zeiten, in denen die großen Chips so günstig waren, sind für immer vorbei.

Ich halte das immer noch für ein Gerücht. Ich kann mir einfach schwer vorstellen, dass nVidia so "bekloppt" wäre. Wenn es wie bei der 8800GTX wäre, ok, aber auch Titan wird sicherlich nicht die HD 8970 so schlagen können, wie es damals war. Wer weiß, vllt haut AMD wieder soetwas wie die GHz Ed. raus ->totaler Schrott, Effizienz im Arsch, aber am schnellsten. Ich meine, ne HD 7970 mit 1,5GHz sollte ja schon in etwa so schnell wie ein GK110 sein xD

Sieht man das auf Screenshots? Ich hab eben mal ein 4k-Video von Skyrim auf Youtube angeschaut, da find ich kein S drauf.

Ich installiere es schnell mal und teste selbst. Hast ein Savegame zufällig? Will nicht ganz von vorne anfangen.

jup, auf den screenshot ebenfalls sichtbar: bitte sehr:

(mit FXAA-bei DS ist das gar nicht mal so schlecht:))
1920x1080


2560x1440


2880x1620
 
Zuletzt bearbeitet:
Ich glaube nicht, dass Nvidia einen abgespeckten Titan auf den Desktopmarkt bringt. Die wollen lieber kleine Chips für viel Geld verkaufen. Ein GK204, der 10-15% schneller als ein GK104 ist und für 499-549 verkauft wird, passt doch wunderbar ins Bild. Ich fürchte, die Zeiten, in denen die großen Chips so günstig waren, sind für immer vorbei.

Das hängt wohl alles von der Wirtschaftlichkeit des ganzen ab.
Ein fiktiver 15 SMX Chip als Geforce Titan muss auch 15 funktionierende SMX haben. Da bleibt schlicht keine Luft.

Auch behaupte ich, der Profi/GPGPU Markt ist zwar extrem hochpreisig, aber in Sachen reine Absatzmenge dürfte der Spielemarkt immernoch überwiegen.
Unklar bleibt, wie sich folgekosten für dedizierte Optimierung im Profibereich dort auszahlen. Denn das sind laufende Kosten, die der Hersteller durch den quasi einmaligen Kaufpreis des Produkts reinholen muss... Ob da so viel mehr Reingewinn über ne Nutzungszeit von sagen wir ~3Jahren übrig bleibt, ist denke ich auch nicht 100% klar.

Unterm Strich stellt sich dann für mich die Frage, ist es wirtschaftlicher, zwei Versionen auf GK110 zu bringen um sich ein mögliches Neudesign eines aufgeborten GK104 Nachfolgers zu sparen, oder ob es wirtschaftlicher ist, nur einen vollen (oder fast vollen) GK110 zu bringen und die klaffende Lücke zwischen GK104 mit nem aufgeborten Nachfolger zu füllen.
Denn dieser aufgeborte Nachfolger hat natürlich das gleiche Problem. Der Vollausbau muss auch voll funktionstüchtig sein.
Gerade in Zeiten, wo die Fertigung immer teurer wird, müsste eigentlich die einkalkulierte mehrfachverwendung eines Chips für verschiedene Produktklassen (Leistungsklassen) da eher zum Ziel führen, als dediziert was kleineres neues zu bringen.
Fiktive 2048 ALUs auf nem GK104 Nachfolgechip wären immerhin 33% mehr ALU Fläche. Gepaart mit nem womöglich größerem SI um die Performance auch auf die Straße zu bringen (oder alternativ teuren HighClock VRAMs) dürfte alles in Allem teurer werden, als ein minimales Taktupgrade für GK104 + hier und da ne Verbesserung ohne viel Entwicklungsaufwand reinzupumpen.

Leider lässt sich nur mutmaßen, was die Hersteller da wirklich an dedizierten Kosten zu decken haben.
Ich halte aber die ~500€ Klasse immernoch gut über dem, was der Durchschnittsuser bereit ist auszugeben. Somit wäre der Markt für so einen Chip vergleichsweise klein und womöglich der Absatz rein in Zahlen so gering, das sich die Entwicklung eines nur unwesentlich schnelleren Chips als GK104 gar nicht lohnt.
Denn die Leute, die quasi kompromisslos auf HighEnd setzen, und wohl einen großen Teil der Käuferschicht aktueller ~500€ GPUs ausmachen, würden dann auf Titan setzen.
 
Zuletzt bearbeitet:
Also wer nicht sieht wie detaliert 2880 gegen 1920 ausieht der muss echt zum Optiker.
Das Dach bzw Stroh der Boden die Steine sieht einfach nur Super aus der Zaun das Schild von der Alten geil geil..
In3840*2160 kriegt man dan noch mal so richtig einen vor den Kopf vor allem weil das Pixel Verhältnis noch stimmiger wird und es besser auf 1920 runter skaliert wird.

Danke für die Bilder LSSJBroly.
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Bei Youtube gibt es von pcgh ein 4k-Battlefield3 Video. Mit einer 7970 ohne MSAA um die 40 FPS - und die Grafik - *schmacht*

Das wäre schon was für so eine Titan Karte.
 
So, hier gibts kein S bei 3840x2160 :)

Naja, muss ich auch mal ausprobieren. Aber irgendwie funktioniert bei mir kein 3840x2160 - obwohl ich das im Treiber einstellen konnte, der den test speichert, zeigt der mir keine option an, 3840x2160 auszuwählen:(

Also wer nicht sieht wie detaliert 2880 gegen 1920 ausieht der muss echt zum Optiker.
Das Dach bzw Stroh der Boden die Steine sieht einfach nur Super aus der Zaun das Schild von der Alten geil geil..
In3840*2160 kriegt man dan noch mal so richtig einen vor den Kopf vor allem weil das Pixel Verhältnis noch stimmiger wird und es besser auf 1920 runter skaliert wird.

Danke für die Bilder LSSJBroly.
Kein Problem;)
Interessant ist, dass trotz FXAA, die Texturen wirklich richtig fein werden. 4k und FXAA kann aslo möglicherweise sogar besser als SGSSAA aussehen xD
 
Zuletzt bearbeitet:
Jap so ein paar vergleich bilder 1920 vs. 3840 wären geil.
Damit die Leute sehen wo der Hammer hängt.
 
jup, auf den screenshot ebenfalls sichtbar: bitte sehr:

(mit FXAA-bei DS ist das gar nicht mal so schlecht:))
1920x1080


2560x1440


2880x1620

Sicher, dass die Einstellungen bis auf die Auflösung genau gleich waren? Dass 1080p so verwaschen aussieht...vielleicht sollte ich immer mit 2880x1620 spielen :d

Naja, muss ich auch mal ausprobieren. Aber irgendwie funktioniert bei mir kein 3840x2160 - obwohl ich das im Treiber einstellen konnte, der den test speichert, zeigt der mir keine option an, 3840x2160 auszuwählen:(

Wieviel Hz? Bei unter 60 musst du wohl einen modifizierten Monitortreiber erstellen. Kepler kann das aber locker flockig mit 60 Hz...
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh