nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
@ronin
30 Ampere sollten die Einzelnden Leitungen abwerfen können vor allem wenn man hohes OC betreiben möchte.
Gerade bei 2 Karten wird es interessant.
Mein Altes Antec habe ich ausrangiert und wollte was modulares haben so habe ich mich fürs Platimax 1200W entschieden.

Laut meinem Strommessgerät haben die GTX 580er im SLI @1000MHZ @1.19V 2600K ! 5GHZ je nach Szenario bis zu 1001W ausgeschlagen also Gesamt System.
Mit den HD 7970ern im CF 1350 MZ 1.26 V real 1011W Max erreichter Wert.
Mit VSync je nach hertz konnte man den Verbrauch bis auf 650 bis 700W drücken bei 100Hertz vsync waren es dann immerhin noch 780-850W beim SLI.
Bei einer Sockel 2011 Platform steig der Verbrauch noch mal um gute 150W+an wenn die Cpu ordentlich feuer bekommt.

Der Titan darf so viel nuckeln wie er brauch wen die Leistung stimmt den Rest muss eh eine Wakkü machen weil Lukü lass ich keine Karte bei 300W laufen .
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
800€ wäre gut. Wäre ja übel wenn sich jedes Balg so eine Karte leisten könnte :fresse:

Na aber irgendwann is einfach Schluß. Ich setze mir immer ein Limit. Bei Grakas 450 €. Da bot die GTX580 für 420 Tacken rückblickend betrachtet genug Leistung. Rechne ich die Kosten des custom-cooler mit ein liege ich bei 510 € inkl zwei mal Versand.
Also 500 mit geiler Kühlung. Alles darüber ist für mich Schwachsinn.
Aber es ist eine Frage des Einkommens bzw. der mtl Kosten und meins ist offenbar nicht lux(x)uriös genug ;)
 
Zuletzt bearbeitet:
denkt ihr nen 700 watt nt mit 25 Ampere auf 12v wird für eine karte bei meiner config reichen?
 
Zuletzt bearbeitet:
@Hübi sehe es in etwa ähnlich sollte man für 900 euro knapp an der 690 dran sein gibt es nichts zu meckern mit OC schneller dann ist alles gut .
Liegt man aber deutlich zurück schlägt das Kaufverhalten in Bauchschmerzen um und ich fange an mich zu winden und alles nüchtern zu überdenken.
Man muss erstmal sehen was das Teil stemmt.

@ronin das sollte passen.
Glaube nicht unbedingt das die Karte außerhalb der Pcie Spezifikationen laufen wird.
Das gab es bisher nur bei der GTX590 als Serienkarte.
Mal schauen was NV für schöne Schweinereien für uns parat hat.
 
Zuletzt bearbeitet:
@ronin das sollte passen.
Glaube nicht unbedingt das die Karte außerhalb der Pcie Spezifikationen laufen wird.
Das gab es bisher nur bei der GTX590 als Serienkarte.
Mal schauen was NV für schöne Schweinereien für uns parat hat.

hört sich gut an, denn das olle nt hat auch mal satte 160 euros gekostet
 
Na aber irgendwann is einfach Schluß. Ich setze mir immer ein Limit. Bei Grakas 450 €. Da bot die GTX580 für 420 Tacken rückblickend betrachtet genug Leistung. Rechne ich die Kosten des custom-cooler mit ein liege ich bei 510 € inkl zwei mal Versand.
Also 500 mit geiler Kühlung. Alles darüber ist für mich Schwachsinn.
Aber es ist eine Frage des Einkommens bzw. der mtl Kosten und meins ist offenbar nicht lux(x)uriös genug ;)

Mein Post war nicht wirklich ernst gemeint ;)

Ich werde mir eh keine GK110-basierte GraKa holen, ist mir zu hungrig für Luft und Wakü fällt bei mir aus. Geld spielt bei mir in dem Rahmen nicht die Rolle, aber ich verstehe natürlich dass es z.B. für dich frustrierend ist wenn eine Top-Graka sehr viel Asche kostet.
 
Ja vor allem wenn man so lang wartet, jeden ausquetscht den man kriegen kann, um dann am Ende festzustellen das dass Produkt für mich "out of range" ist. Ich habe zwei Autos, vier Tiere und ne schwangere Frau zu versorgen. Da bleiben einfach keine acht- oder neunhundert Euro übrig.

LG Hübie
 
m.3dcenter.org/news/nvidias-gk110-gamerausfuehrung-kommt-angeblich-als-geforce-titan
nix neues drin falls das nicht schon gepostet wurde.
Techpower up schrieb am 21.Januar sogar etwas von 512 Bit bei 2880 Schadern.
4GB wäre ja krass geil.
Das würde wunderbar zum Preis von 899Dolar passen.
 
Zuletzt bearbeitet:
512bit hat GK110 aber nicht, auch wenn es schön wäre. Wobei GK104 schon recht ausbalanciert ist, der ist nicht so bandbreitenverhungert wie man immer denkt. Wenn man mit Tahiti vergleicht, darf man nicht vergessen, dass die auch bis zu 33% mehr Rechenleistung haben zusätzlich zu den 50% mehr Bandbreite. 512bit würden da wenig bringen, wenn man die Rechenleistung nicht auch verdoppelt bei GK110.
 
512 Bit sehe ich nur einen Vorteil mehr als 3 GB drin um genau zu sein 4GB.
So müsste man nicht auf 6 GB Karten warten aber NV hat ja den Hersteller untersagt eignes Designs zu kreieren.
AGebe die schon Recht deutet ja bisweilen alles auf 384 Bit hin.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

384bit bei 5,2 GHz Takt .... da würden 512bit goar nix bringen. ;)
4GByte fände ich zwar auch toll, aber 3GB tun es auch..

Und bei einem sind sich alle Gerüchte eigentlich einig.... 14 statt 15 SMX Pakete...
Die Güte kann gar nicht so gut sein, dass man 15 SMX für 899$ hinbekommt.
14 reichen auch ;)
 
Zuletzt bearbeitet:
Laut meinem Strommessgerät haben die GTX 580er im SLI @1000MHZ @1.19V 2600K ! 5GHZ je nach Szenario bis zu 1001W ausgeschlagen also Gesamt System.
Mit den HD 7970ern im CF 1350 MZ 1.26 V real 1011W Max erreichter Wert.

Ich biete 1006W unter Volllast mit zwei GTX 470ern auf 750/1500/1550 bei ~1,2V auf der einen, sowie 1,025V auf der anderen. 2600K@4,5GHz@1,368V sowie diversem Rest im PC :fresse:

Aber es ist eine Frage des Einkommens bzw. der mtl Kosten und meins ist offenbar nicht lux(x)uriös genug ;)

Dann setzt du deine Prioritäten falsch :fresse:
Bei mir war es mit der ersten 680er auch nicht unbedingt kostengünstig. Meine damalige GTX 465 mit 470er Bios (und Leistung) + OC gepaart mit ner zweiten 470er hat mich in Summe ~380€ gekostet. Und rein aus Leistungssicht war das SLI idR etwas über ner Single 680er, welche mich 500€ gekostet hat.
Für grob 60-80% Mehrleistung zum alten SLI habe ich somit ~1010€ gezahlt, das ist fast dreimal so viel, wie das alte gespann gekostet hatte :fresse:

512bit hat GK110 aber nicht, auch wenn es schön wäre. Wobei GK104 schon recht ausbalanciert ist, der ist nicht so bandbreitenverhungert wie man immer denkt. Wenn man mit Tahiti vergleicht, darf man nicht vergessen, dass die auch bis zu 33% mehr Rechenleistung haben zusätzlich zu den 50% mehr Bandbreite. 512bit würden da wenig bringen, wenn man die Rechenleistung nicht auch verdoppelt bei GK110.

Wenn man es hochrechnet, dürfte bei ~50% mehr Rohleistung des kommenden Titan GK110 Geforce Modells ja auch die Bandbreite um ~50% steigen. Je nach Takt des ganzen... Somit müsste die Situation ziemlich analog weiterlaufen, wie heute beim GK104. Beispielsweise Metro mit recht starker Speicher OC Skalierung von ~2:1...
Mehr SI kann da sicher nicht schaden... Im Schnitt natürlich würde man wohl vergleichsweise wenig zulegen, da stimme ich zu ;)

Und legt GK110 mehr wie ~50% zu, wird die Situation wohl eher sogar "schlimmer"... Ein 15 SMX GK110 bei OC mit 900MHz+ legt definitiv mehr wie 50% zu. Ob man aber weit höher spezifizierte RAM Module als die aktuellen 3000er verbaut, ist denke ich fraglich. Mit ach und krach könnten da 3,5-3,6GHz drin sein. Wäre aber immernoch was schlimmer als beim GK104 :fresse:

Na ich bin gespannt was wird. -> Kohle liegt parat, zumindest für eine. Um so weniger das Teil kost, desto besser.
Da kann ich dann mal testen, was ne 680er allein für PhysX bringt :fresse:

384bit bei 5,2 GHz Takt .... da würden 512bit goar nix bringen. ;)

Wenn du den Takt bei 384Bit fahren kannst, geht das auch bei 512Bit :p
Mehr ist immer gut und kann nie schaden...
Bei aktuellen Karten bringt mehr Speicherbandbreite ja auch vergleichsweise viel, es gab schon Modelle, da konnte man den Leistungszugewinn bei massivem Speicher OC an einer Hand abzählen. Selbst dann noch, wenn man ein paar Finger an die Kreissäge verloren hatte :fresse:
 
Metro ist ja nur ein Beispiel. Die Benchmarks von Broly kennst du ja, da hat Speicher-OC allein nicht 1:1 mehr fps gebracht, erst mit Core-OC gab es das. Hat mich auch gewundert, aber so ist es halt. Ich gehe nicht von Sonderfällen aus, sondern betrachte lieber 10-20 Spiele. Nvidia dimensioniert ihre Chips sicher auch nicht nach einzelnen Titeln.
 
Wenn du den Takt bei 384Bit fahren kannst, geht das auch bei 512Bit :p
Mehr ist immer gut und kann nie schaden...

Ja sicher.. aber wenn der so scharf angeflankt wird, dann reichen 384 um den Chip ausreichend mit Informationen zu versorgen..
Bei allem "Titaniumisierter" Träumerei - 512 halte ich für unwahrscheinlicher als 15 SMX Pakete. ;)
 
Metro ist ja nur ein Beispiel. Die Benchmarks von Broly kennst du ja, da hat Speicher-OC allein nicht 1:1 mehr fps gebracht, erst mit Core-OC gab es das. Hat mich auch gewundert, aber so ist es halt. Ich gehe nicht von Sonderfällen aus, sondern betrachte lieber 10-20 Spiele. Nvidia dimensioniert ihre Chips sicher auch nicht nach einzelnen Titeln.

PCGH misst ohne GPU OC ne Skalierung von grob 2:1 allein für den Speicher. Klar es ist nur eine Rosine aus dem ganzen Kuchen... Aber der Leistungszuwachs ist an der Stelle schon vergleichsweise groß.
Metro selbst hab ich noch nicht nachgetestet. Skyrim aber beispielsweise skaliert mit meinen Settings weit weniger stark als PCGH misst.
Mir ist aber aufgefallen, das bei mir erst ne idR 99% Auslastungslinie anliegt, wenn ich die VRAMs mindestens mit 3400MHz fahre. Bei 3300MHz sind immer mal ein paar Einbrüche drin. Das hat mich selbst schon ein wenig verwundert.

In der Praxis selbst dürfte, wie ich ja schon anmerkte, reines Speicher OC aber nicht die Masse an Mehrleistung bringen, eher die Kombi aus GPU und Speicher OC oder nur GPU OC überwiegt da ja immernoch.

Ich wollte nur anmerken, das diese Extrembeispiele beim GK104 theoretisch auch auf GK110 zutreffen könnten, speziell, wenn man den VRAM nicht höher taktet als beim GK104, aber mehr wie 50% GPU Power zulegt...

Ja sicher.. aber wenn der so scharf angeflankt wird, dann reichen 384 um den Chip ausreichend mit Informationen zu versorgen..
Bei allem "Titaniumisierter" Träumerei - 512 halte ich für unwahrscheinlicher als 15 SMX Pakete. ;)

definitiv ;)
Denn 15 SMX freischalten wäre mit dem GK110 grundsätzlich ohne schmerzen möglich. 512Bit SI müsste aber erst "erfunden" werden um es mit dem GK110 zu paaren.
Wenn mich nicht alles täuscht, gibts auch keine 512Bit Anbindung mit GDDR5 Speichercontrollern aktuell am Markt :fresse:
 
Metro, Alan Wake und MaxPayne3. Die drei Titel bringen mein 680er SLI so dermaßen zum Kotzen, so das die Ruckelorgien nicht wirklich "Spaß" bringen @ 5760x1080
Es ist schon erschreckend einen älteren Titel zu installieren und gleich zu Beginn lesen zu müssen das mein System nicht die Mindestanforderungen erfüllt.
Selbst bei GK110 werden sicherlich min.2 Karten von Nöten sein um gerade aus dem Ruckelbereich zu kommen, geschweige irgendwelche Eyecandys zu aktivieren.(Mal davon ab das man für 3 TFTs ohnehin 2 benötigt)
Während ne 3. GTX680 in BF3 nicht skaliert, so tut sie es aber bei oben genannten Titeln. Im Vergleich zur 7970 ghz Edit sieht man schon den direkten Unterschied.
Hier werden nur 2 Karten benötigt für sehr ähnliche Leistung (fps im Kommatabereich). Schaltet man Eyecandys hinzu ist der Ram der GTX680 gnadenlos überfordert. Mit drei karten lassen sich zwar bessere fps erlesen, ob es nun dadurch auch gleich angenehmer sich anfühlen mag bin ich mir nicht sicher.

Alleine für diese drei bis vier Titel lohnt sich für mich der Umstieg auf eine Karte mit mehr Rohleistung, höherem SI und Vram. Vielleicht vermag die neue Gen sogar ein wenig Eyecandy dazusteuern zu können.
AlanWake in schön und flüssig wäre traumhaft. Bei aktuellen Karten richtet OC da auch nicht viel aus. Jedenfalls nicht merklich.
 
OC bringt schon was... Gerade bei aktuellen Karten. Es gab nicht viele HighEnd GPUs der letzten jahre, wo du spielend selbst unter Luft 20-30% zulegen konntest. Bei AMD sogar noch was mehr mti ner guten Karte... Nur wenn dein Problem übervoller VRAM ist, kannst du natürlich nix ausrichten ;) Denn VRAM lässt sich weder durch mehr GPUs zustecken noch durch OC irgendwie hinzutakten ;)

Wobei für dich dann theoretisch auch zwei 4GB GK104 GPUs in Frage kommen könnten. Eventuell (sollte GK110 wirklich stark teuer werden) würde sein quasi sidegrade für dich eventuell interessant. Auf den GK104 Nachfolger, welcher ja eventuell ein kleiner Refresh der GPU werden sollte, gepaart mit 4GB Karten. Dürfte rein Preistechnsich eventuell so extrem nicht in den Geldbeutel reinhauen ;) Und die 680er wird man wohl auch noch gut los...
 
ja, als ich zum Release der 680er zulangte gab es 1. noch keine 4GB und zum 2. hatte ich da noch keine 3 TFTs. Jetzt ist es ein hin und her zwischen dem was ich will und auch zahlen kann. 1600,-€ sind in keinster Weise ein Pappenstil. Ich warte ab was die Benches ergeben von GTX780 SLI vs Tiatan SLI. Beiläufig schaue ich mir den Part der roten Fraktion noch an. Vorraussichtlich werde ich aber bei NV bleiben, da CF mich bislang nicht glücklich machte.
Man weiß ja noch nicht inwiefern die 780er dann da bestückt sind. 4GB und 256er SI und Titan only dann mit 384er SI und 6GB? Dann kommt für mich nur eine in Frage. Würde aber auch bedeuten das ich noch ein paar Kröten zusammen kratzen müsste, trotz Verkauf meines SLI. Ich denke mit 640,-€ liege ich da noch im grünen Bereich für mein Päärchen welches an meinen Kollegen gehen soll. Mit 1100,-€ hatte ich ja gerechnet plus etwa 100,-€ pro Karte für Wasser.
 
Man sollte erstmal vernünftige Voraussetzungen schaffen für solch ein SlI minimum 2560 Auflösung oder 3 Monitore es sein.
Dieses Jahr sollen ja auch noch Monitore mit 3840×2160 erscheinen wo bei diese wohl auch erst einmal unbezahlbar werden.

Leider wurde die Cpu die solch ein Gespann in Fps umsetzt unter Full HD noch nicht gebaut.
Die 120 Fps wird man auch nicht mit dem Titan @SLI halten können in BF3.
Es kapitulieren schlicht weg die Cpus.
Die Leistung eines SLI Gespannes muss man zwangsweise über die Grafikqualität aus schöpfen um das zu tun ist man auch auf viel Ram angewiesen.
Oder man nutz gern 3D.
Alles andere ist verbranntes Geld und verpuft.
 
Zuletzt bearbeitet:
Ja vor allem wenn man so lang wartet, jeden ausquetscht den man kriegen kann, um dann am Ende festzustellen das dass Produkt für mich "out of range" ist. Ich habe zwei Autos, vier Tiere und ne schwangere Frau zu versorgen. Da bleiben einfach keine acht- oder neunhundert Euro übrig.

LG Hübie

Das geht nach 9 Monaten vorüber Hübie vertraue mir ich habs schon durch:d

Meine hat mir dabei aber nicht die Haare vom Kopf gefressen,die sind vorher schon ausgefallen:haha:

Beim Preis würde ich jetzt noch gar kein Aufsehen machen,solange noch nicht der erste Releasemonat rum ist,weiß man sowieso nicht wo sie sich einpendeln wird
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

mein Versorgen beginnt in paar Tagen, dann is Sohnemännchen da

er hat aber nix gegen Computerzeug! :d bin ich mir sicher

aber ja, man muss was mehr aufpassen, aber selbst für 2 GTX 690 langts ohne zu hungern, also auch für Titan
 
Das kenne ich auch unglaublich was kleine Babys kosten bin auch seit Sommer Vater.
Die Haare sind aber auch schon vorher gewichen.
Papa hat aber Erlaubnis von der Regierung für ein Spielgeld Konto erhalten.:fresse:
 
Zuletzt bearbeitet:
Eine Prinzessin.Jungs machen JUNGS Männer Mädchen.:love:
Danke scully .
 
Zuletzt bearbeitet:
sag ich ja. Zu Anfangs mit einem 1920x1080er @120hz reichte von der Rohleistung eine auch nicht aus. Selbst ein Quad schafft keine 120hz @ Ultra stabil.
Das CPUs limitieren stelle ich nicht ausser Frage. BF3 @5760x1080 mit nem 690er Quad kommt man gerade mal so an der 70fps Marke vorbei (avg!). Da macht sich dann alles bemerkbar. CPU, GPU Rohleistung und Rammenge. Das SI reicht theoretisch für das Game, aber man spielt ja auch nicht nur EIN Spiel.
Man stellt von Gen zu Gen immer wieder fest man hätte doch besser auf die Karte mit mehr Ram gewartet. Das liegt natürlich auch an einem selbst, denn die eigenen Ansprüche steigen auch immer weiter an als Enthusiast.
Wie das aber immer so ist...boaa, noch 4 Monate warten bis zur 4GB Variante, man kann sich auch doof warten und schon steht die nächste Gen an^^. Also kauft man zu Release, denn das Warten gibt einem schon das Gefühl das sich die Karte(n) nicht mehr wirklich lohnen.
Für Leute mit einem TFT@60hz sind mehr als eine Karte rausgeschmissen Geld, es sei man ist DS Fan. Möglichkeiten gibt es zu genüge die Leistung von Karten in die Knie zu zwingen.
Natürlich denken sich viele wie bescheuert man sein muß 800,-€ in eine Singlekarte stecken zu wollen, doch mit solchen Erfahrungen und Ambitionen zur Kompromisslosigkeit bleibt wohl wenig Ausweg tief in die Tasche greifen zu müssen.
(HWBOTler mal ganz aussen vor). "Fertig" wird man so wahrscheinlich nie werden. Vielleicht schaffe ich es ja mal wieder eine Gen zu überspringen wenn es Titan so bringen sollte :fresse: Ist die Differenz zwischen der 780 und Titan derart marginal, sich im SI und Rammenge auch nicht unterscheiden kann ich mich freuen. Aber wer´s glaubt^^

€dit:
Naennon, alles Gute :)
Haarausfall wegen Kindern ? Nö, ich habe 3 und noch volle Pracht auf dem Kopf :d
 
Zuletzt bearbeitet:
512Bit SI? Ja, das ist extremst wahrscheinlich. Quasie wahrscheinlichst :fresse:
 
wie kommst du auf ein 512er SI ?
 
Für Leute mit einem TFT@60hz sind mehr als eine Karte rausgeschmissen Geld, es sei man ist DS Fan.

Kann ich definitiv nicht bestätigen...
Ich nutze SLI mit zwei 680er, nutze nen 40" TV mit 60Hz und FullHD als Monitor und komme streckenweise nicht nur ans VRAM, sondern auch ans GPU Leistungslimit ;)
Dabei ist Downsampling nicht primär das Mittel zum Zweck. Nutze ich seit GK104 auch nur noch extrem selten bis gar nicht mehr. OK, spiele auch so extrem viel nicht :fresse: wenn aber mal, dann muss es richtig krachen ;)

Skyrim in 8xSGSSAA wären dank riesiger Bilddiagonale des TVs nicht schlecht. Und zu ungunsten der VRAM Problematik musste ich sogar den "Kompromiss" eingehen, dass Basis MSAA im Spiel zu nutzen, anstatt über den Inspector via Bits zu erzwingen. Obwohl da Schlossknackspiele und einige andere Dinge nicht geglättet werden :fresse:
Meine Ansprüche sind also bei weitem noch nicht erfüllt.

Wäre ja auch schlimm wenn, denn dann würde es reichlich langweilig werden :p
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh