nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Sebab,
warum schreibst du mich an? Es wird doch jetzt schon über die GTX680 gerichtet, ohne das es einen Benchmark gibt. Wären das nicht die richtigen Adressaten?

LittleK zeigt jedoch, dass nVidia die Mainstream-Fermi-Chips nahm und ihre theoretische Leistung verdoppelt. GK104 hat also bei gleicher Taktung doppelt soviel Textur-, Rechen-, Pixel- und Geometrieleistung und soll angeblich 50% mehr Bandbreite aufweisen. Das alles wird in entweder 16SM (doppelte Tessellationleistung) oder 32SM (vierfache Tessellationleistung) gepackt.

Und nun überlege dir, wieviel schneller die GTX580 gegenüber der GTX560TI ist. Irgendwas zwischen 30%-45% im Schnitt. Die GTX680 kann man wohl mit heutigem Stand bei einer Leistung von 2x über der GTX560TI einstufen und damit wäre man zwischen 37-53% schneller als die GTX580. Und angeblich soll die GTX680 mit 1006MHz kommen - nochmal eine Taktsteigerung von 18% zur GTX560TI.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im Grunde ist High-End immer das machbar Mögliche in allen Disziplin wobei der Preis keine Rolle mehr spielt.
Sind z.B 190 Watt TDP wirklich die Grenze ? Oder Eine Die-Größe von knapp 300mm² ??
Ein klares Nein !

Deshalb sehe ich weder Tahiti noch GK104 als High-End an. Machbar wäre deutlich mehr auch wenn TSMC dies nicht allzu gewinnorientiert liefern könnte. Aber im wirklichen High-End-Bereich spielt Geld eine weniger große Rolle, denn High-End sind immer die Geräte, die man sich als normal sterblicher nie leisten könnte.
Wer würde schon eine Hifi-Anlage für 50.000 Euro kaufen oder einen LCD-Fernseher für 30.000 Euro ?
Das ist, wie der Name schon sagt, High-End (Höher geht es nicht) !

Die Logik ist aber ziemlich engstirnig, den das setzt vorraus, das du weist, was eben maximal möglich ist... Vor allem, denkt man mal einen Schritt weiter, nur weil es mal >500mm² Chips gab, heist das ja lange nicht, das das auch das max. darstellt. In der Theorie würden auch 1000mm² Chips und größer funktionieren. Sprich das ganze ist eigentlich nach oben hin nicht gedeckelt. Dementsprechend ist es auch nicht möglich, hier nach HighEnd zu klassifizieren.

Viel sinnvoller ist es, eben die Produkte so einzustufen, wie sie auf dem Markt sind. HighEnd ist auf reine Leistung bezogen wohl das schnellste am Markt. Im Moment schaut es so aus, als würde sich GK104 und Tahiti XT dort so extrem viel nicht nehmen.
Das heist dann, das beide auf ähnlichem Niveau agieren und somit beides HighEnd ist. Kommt Gk110 irgendwann mal bzw. AMD mit nem aufgemöbelten Produkt und mehr Leistung, wäre wiederum dies eben die dann neue HighEnd Reihe und das vorhandene wird abgestuft.

Unterm Strich sieht das aber jeder leicht anders. Für mich ist HighEnd das schnellste am Markt. Und das ist aktuell eben Tahiti XT als SingleGPU. Und Kepler GK104 scheint das nicht signifikant toppen zu können, sofern die Folien richtig sind.
 
Ich versteh nicht ganz wieso du dauernd von der GT640m Karte auf die große Kepler-Karte schließen kannst? Das sind meiner Meinung nach zwei verschiedene Welten die man nicht 1:1 vergleichen kann. Du scheinst aber ja ganz schön überzeugt zu sein von der Karte. Wie gut die Leistung der Karte ist baut sich vor allem auf Gerüchten auf und du setzt es fest das dem auch so ist weil du sie mit GT640m vergleichst.

Es gibt zur GTX680 ja nur drei Möglichkeiten:

nein, es gibt noch ne 4. Möglichkeit.
gepimpt und somit gleich auf mit der 7970 und mit OC - Schalter dann schneller ;)

@ Lost DJ
ne, ist nicht ausgeschlossen das ne 4GB Variante kommt, aber dann sicherlich auch erst wieder später. Ob man dann noch ~2 Monate lieber auf den BigK wartet anstatt auf GK104 mit 4GB zu setzen braucht man dann auch nicht lange zu überlegen ;)

Durch die schlechte Leistung in BF3 kommen die AMD Karten für mich nicht in Frage. Außerdem möchte ich gerne 3D und andere Features nutzen die man bei NV bekommt.

---------- Post added at 12:08 ---------- Previous post was at 12:00 ----------

Und nun überlege dir, wieviel schneller die GTX580 gegenüber der GTX560TI ist. Irgendwas zwischen 30%-45% im Schnitt. Die GTX680 kann man wohl mit heutigem Stand bei einer Leistung von 2x über der GTX560TI einstufen und damit wäre man zwischen 37-53% schneller als die GTX580. Und angeblich soll die GTX680 mit 1006MHz kommen - nochmal eine Taktsteigerung von 18% zur GTX560TI.

ach, und wer sagt dir, dass diese Werte nicht schon mit OC-Schalterchen auf an sind ? ;)
dann zieh mal von den 37-53% mal die 18% Leistung ab. 19 bis max 35% schneller als GTX580 wären wir dann. Immernoch ein tolles Ergebnis für eine Performancekarte.
 
Zuletzt bearbeitet:
Was hat AMD's Architektur mit der von nVidia zu tun?
Beide sind vollkommen unterschiedlich und nicht miteinander vergleichbar. AMD's Problem der fehlenden Skalierung ist nicht erst seit, liebevoll von mir genannt, Slow Island bekannt. Schon Cayman hat deutlich mehr Transistoren und deutlich mehr Fläche als Barts und kann sich ebenfalls nicht absetzen.

Dann schau halt auf GF114 zu GF110. Über 60% mehr Leistungsaufnahme bei gerade mal grob 40% mehr Leistung in Games. Cherrypicked mal außen vor ;)
Aber red dir die Sache nur schön... Mir solls egal sein :fresse:

2GB ram ist wohl kaum zu wenig solang man nicht quad SLI betreibt.
Bei dem anderen bist du nicht ganz so im Unrecht. Performance Karte zu HighEnd Preisen...und dann noch die Aussicht das da irgendwann noch ein dicker chip anrollt

Problematisch ist einfach, das stand heute zwei 1,5GB 580GTXen in ganz paar aktuellen Games mit gehobenen Settings schon voll am Limit laufen.
Schau mal folgenden Thread:
http://www.hardwareluxx.de/community/f14/wie-viel-sind-500-mb-vram-der-praxis-wert-878689.html

Skyrim ohne groß übermäßige Auflösungen einfach stino max. Details und schnödes 4xSGSSAA.
Für zwei HighEnd GPUs sollte das durchaus machbar sein. Nur bricht irgendwann die FPS Rate derart weg, das es keinen sonderlichen Spaß mehr macht. Und das ist Stand heute.
Wer weis was in 1-2Jahren mal in Sachen VRAM Verbrauch kommen wird...
Klar sind 2GB da mehr. Betrachtet man das aber mal aus reiner Leistungssicht, wäre ein 4GB Modell gerade im SLI deutlich mehr von Vorteil. Man bekommt GPU Leistung für kommende Games, muss aber ggf. Details zurück schrauben bzw. kann bei der Auflösung/dem AA nicht in die Vollen gehen, obwohl genügend GPU Reserven da wären.

Für den stino Anwender und ne Single GPU ist das aber durchaus erstmal ausreichend ;)
Ich frag mich aber immer wieder, preislich kommt das Teil womöglich mit 400€+ und zielt damit eindeutig auf die User mit gehobenen Ansprüchen. Dann muss das Teil das auch abkönnen und nicht wegen so einer Lapalie mit zu wenig VRAM einbrechen...

ach, und wer sagt dir, dass diese Werte nicht schon mit OC-Schalterchen auf an sind ? ;)
dann zieh mal von den 37-53% mal die 18% Leistung ab. 19 bis max 35% schneller als GTX580 wären wir dann. Immernoch ein tolles Ergebnis für eine Performancekarte.

Was dann sogar realistisch klingen würde anstatt diese 60%+ auf GTX580 Leistung ;)
Aber mir solls wurscht sein, überzogene Erwartungen darf jeder für sich selbst haben. Wenn er dann entäuscht wird, ist das auch sein Problem...
 
Zuletzt bearbeitet:
Dann schau halt auf GF114 zu GF110. Über 60% mehr Leistungsaufnahme bei gerade mal grob 40% mehr Leistung in Games. Cherrypicked mal außen vor ;)
Aber red dir die Sache nur schön... Mir solls egal sein :fresse:

Seit wann sagt der Stromverbrauch etwas über die Leistung aus? :hmm:
Stromverbrauch ist ein Resultat aus den schaltenden Transistoren. Viel wichtiger ist es doch erstmal die theoretischen Werte zu vergleichen.
 
@fdsonne

also da hast du schon recht, 2Gb sind nicht viel. In nem Jahr oder zwei kann das schon deutlich zu wenig sein, auch wenn man nur eine drin hat. Siehe 5870 zum beispiel. GPU Power reicht noch für normale Settings aber der Vram spielt nicht mit.

Da steht die 7970 momentan echt besser da. Mir solls aber egal sein,solang bleibt eh keine Karte bei mir im PC :d. GK104 wäre wenn eh nur bis August dann drin.
 
prima fdsonne, da sind wir ja gleicher Meinung.
Das Teil wird es aber nicht abkönnen, weil es eigendlich ein Performancechip ist. Da wäre er auch gut aufgehoben und dann wundern sich einige warum man mosert wenn man plötzlich 200,-€+ für den gleichen Chip hinlegen soll. Die gehobenen Ansprüche kann man sich (oder NV) damit aber schenken. Sollte eine 4GB Version direkt mitgelauncht werden, wovon ich erstmal nicht ausgehe, dann hätte NV gerade nochmal die Kurve bekommen.
Unklar ist ja auch noch die GTX690 ob die nun mit verkrüppeltem 2x 2GB VRAM kommt, oder mit 2x4GB. Vielleicht haben die ja draus gelernt warum es kaum Abnehmer der GTX590 gab. Aber VRAM ist ja auch nicht das Einzige Problem gewesen.
 
Seit wann sagt der Stromverbrauch etwas über die Leistung aus? :hmm:
Stromverbrauch ist ein Resultat aus den schaltenden Transistoren. Viel wichtiger ist es doch erstmal die theoretischen Werte zu vergleichen.

Hab ich sowas behauptet?
Stromverbrauch sagt was zur Effizienz aus.
Offensichtlich kann Tahiti XT ihre theoretische Leistung beispielsweise in GPGPU Anwendungen voll und ganz auspielen. Genau so wie es auch schon Cayman usw. kann. Da sieht die NV kein Land dagegen.
Was du hier machst, ist cherry picking sondersgleichen ;) Du pickst dir offenbar spezielle Fälle raus um die eine Seite gut, die andere Seite schlecht dastehen zu lassen... Das macht absolut keinen Sinn bei GPUs, welche zum einen für den Gamermarkt, zum anderen für den Profimarkt herhalten müssen.

prima fdsonne, da sind wir ja gleicher Meinung.
Das Teil wird es aber nicht abkönnen, weil es eigendlich ein Performancechip ist. Da wäre er auch gut aufgehoben und dann wundern sich einige warum man mosert wenn man plötzlich 200,-€+ für den gleichen Chip hinlegen soll. Die gehobenen Ansprüche kann man sich (oder NV) damit aber schenken. Sollte eine 4GB Version direkt mitgelauncht werden, wovon ich erstmal nicht ausgehe, dann hätte NV gerade nochmal die Kurve bekommen.

Die Frage ist aber natürlich, wenn die 580er als aktuelle HighEnd GPU von NV für das ganze herhalten muss, GK104 aber offensichtlich etwas schneller wird im Schnitt, warum diese dann dafür nicht herhalten können sollte ;)
Ob das nun Performance Chip oder nicht ist, spielt dabei ja primär weniger die Rolle. Zumindest bis der GK110 kommt.

Zwei 2GB GK104er schraub ich mir aber definitiv nicht ins Case. Wenn dann 4GB Modelle. Wobei das Zeitlich wohl dahingehend hinaus läuft, das man dann gleich auf GK110 warten kann...
Heute steh ich vor dem Problem, das damals ausreichende 1,25GB für ne 470er bei zwei Karten im SLI zu wenig sind, um die GPU Leistung mit Features wie SGSSAA auszufahren. Den Fehler will ich nicht nochmal begehen :fresse:
 
Zuletzt bearbeitet:
Hab ich sowas behauptet?
Stromverbrauch sagt was zur Effizienz aus.

Und das sagt genau was über die Leistung aus?! Du hast es angebracht, also muss ja dahinter etwas verborgen sein.

Offensichtlich kann Tahiti XT ihre theoretische Leistung beispielsweise in GPGPU Anwendungen voll und ganz auspielen. Genau so wie es auch schon Cayman usw. kann. Da sieht die NV kein Land dagegen.
Was du hier machst, ist cherry picking sondersgleichen ;) Du pickst dir offenbar spezielle Fälle raus um die eine Seite gut, die andere Seite schlecht dastehen zu lassen... Das macht absolut keinen Sinn bei GPUs, welche zum einen für den Gamermarkt, zum anderen für den Profimarkt herhalten müssen.

Ich betreibe keine "cherry picking". Ich erörtere nur, dass wir es bei Kepler anscheinend um Fermi-1.5x2 handelt. Und wenn man sich dann anschaut, wie sich die GTX560TI zur GTX580 verhält, es offensichtlich ist, dass die GTX680 eine deutliche Mehrleistung zur GTX580 bieten wird.
 
Heute steh ich vor dem Problem, das damals ausreichende 1,25GB für ne 470er bei zwei Karten im SLI zu wenig sind, um die GPU Leistung mit Features wie SGSSAA auszufahren. Den Fehler will ich nicht nochmal begehen :fresse:

jup ich werd auch auf 3- 4 GB karten warten nachdem ich gesehen habe was crysis sich bei 5760x1080 anständige 2,9 GB VRAM gönnt kommt nichts unter 3 mehr ins case.

Wird dann wohl bei mir auch der GK110 werden so wies im moment ausschaut aber mal abwarten
 
wenn sich der preis der 680 bewahrheitet,dann ist es momentan echt schwer was gutes für sein geld zu bekommen. Ne 680 für 450€ rum ist ja noch schlimmer da dann im august ne 685(GK110) kommen soll,die kostet dann auch 500€ rum und schwupps fällt die 680 auf 300€. Das wären dann 150€ verlust in 4 Monaten.

Was mich wundert das es dann von GK110 keine kleinere Version geben wird, zumindestens ist noch nicht die rede von. Könnte aber eine 675 werden und im Dezember kommen dann die 8xxx Karten von AMD. Man muss sich momentan echt überlegen was man kauft -.-.

da kann ich dir nur zustimmen


@fdsonne
der GK104 scheint ja derzeit die schnellste GPU zu werden. Alles schön und gut. Wenn wir aber nicht wüssten das es nur ein Performancechip wäre und der Preis somit eigendlich 200,-€(+) weniger kosten sollte, dann wäre man auch nicht angepisst, sondern nur enttäuscht das nicht so viel wie erwartet bei rum gekommen ist bei NewGen+DIE Shrink (als High-End) ;)
Die 2GB Besetzung gehört auch nur in den Performancebereich.
 
Und das sagt genau was über die Leistung aus?! Du hast es angebracht, also muss ja dahinter etwas verborgen sein.



Ich betreibe keine "cherry picking". Ich erörtere nur, dass wir es bei Kepler anscheinend um Fermi-1.5x2 handelt. Und wenn man sich dann anschaut, wie sich die GTX560TI zur GTX580 verhält, es offensichtlich ist, dass die GTX680 eine deutliche Mehrleistung zur GTX580 bieten wird.

Wohl eher zur 480 GTX aber zur 580er werdens durchschnittlich keine 60% werden, wie du vorhin geschrieben hast...

Gesendet von meinem LG-P990 mit der Hardwareluxx App
 
wenn sie dann kommt wird sie schneller sein als die 580gtx aber wer hier behauptet 60% mehrleistung der raucht nur schleches gras
und schaltet im kopf auf traummodus " ich hätte gern soviel mehrleistung":).

eine 560gtx-ti mit einer 580gtx zu vergleichen ist genau so als wenn ich nen i3 mit einem i7 sixcore vergleiche
2 völlig unterschiedliche preisklassen und zielgruppen .

genauso sinnlos ein vergleich der mobilen karten und das auf die desktop-modelle ableiten oder was dazudichten :)

MfG
 
Und das sagt genau was über die Leistung aus?! Du hast es angebracht, also muss ja dahinter etwas verborgen sein.

Ich betreibe keine "cherry picking". Ich erörtere nur, dass wir es bei Kepler anscheinend um Fermi-1.5x2 handelt. Und wenn man sich dann anschaut, wie sich die GTX560TI zur GTX580 verhält, es offensichtlich ist, dass die GTX680 eine deutliche Mehrleistung zur GTX580 bieten wird.

Ist es das?
Keine Ahnung woher du diese Annahme hast ;)
Fermi ist nicht Kepler... Das sollte Fakt sein. Skalierungen kannst du also in keinster Weise davon ableiten. Macht deine Argumentation also reichlich spekulativ. Mit deinen 60%+ zur 580er scheinst du aktuell auch ziemlich allein dazustehen ;)


PS: mal eine kleine Gedankenstütze
Ich find's nur trollig, dass man weiterhin glaubt, dass die GTX680 kaum schneller werden würde. GK107 rennt bei ca. 1/3 des Stromverbrauchs auf GTS450 Niveau. Alleine das sollte schon reichen um zu erkennen, dass da mehr Leistung in Kepler steckt als einige zur Zeit noch glauben.

Ich habe dir an der Stelle zwei Beispiele gebracht, einmal NV, einmal AMD, das du kleine GPUs nicht 1:1 auf große GPUs hochrechnen kannst. Weil die Effizienz eben nicht linear bleibt.
Das Thema Stromverbrauch hast du also ganz allein ins Rennen gebracht ;)
 
Zwei 2GB GK104er schraub ich mir aber definitiv nicht ins Case. Wenn dann 4GB Modelle. Wobei das Zeitlich wohl dahingehend hinaus läuft, das man dann gleich auf GK110 warten kann...
Heute steh ich vor dem Problem, das damals ausreichende 1,25GB für ne 470er bei zwei Karten im SLI zu wenig sind, um die GPU Leistung mit Features wie SGSSAA auszufahren. Den Fehler will ich nicht nochmal begehen :fresse:

Wo bitte soll das sein? Schwer vorstellbar, oder mit irgendwelchen Texturmods?
 
Jaaaaa, zerfleischt euch ! Das ist geil ! Kurz vor Veröffentlichung geht es hier Rund im Käfig, wie vor der Löwenfütterung !:fresse:

Und dann als erster schön 600 € direkt hinblättern, und sich dann schwer einen keulen:lol:

Mir geht es genauso bei der 685 GTX :xmas:

Sorry, habe gerade erfahren, mein Benz Biturbo ist ab dem 28.03. abholbereit in Bremen Jaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa:banana::banana::banana::btt:
 
Zuletzt bearbeitet:
@blaire: Wie erst kürzlich in einem anderen Thread erörtert, ist das z.B. bei Skyrim der Fall ;) Mit Texturmods verschlimmert sich das ganze noch. Ich kann mit SGSSAA auch nicht die ganze Rohleistung meiner beiden 480er ausfahren, weil 2x sie noch nicht komplett auslastet und 4x den vRAM sprengt... in meinem Fall mit Skyrim HD Mod. Zum Glück gibts ja noch Downsampling :d
 
Ist es das?
Keine Ahnung woher du diese Annahme hast ;)
Fermi ist nicht Kepler... Das sollte Fakt sein. Skalierungen kannst du also in keinster Weise davon ableiten. Macht deine Argumentation also reichlich spekulativ. Mit deinen 60%+ zur 580er scheinst du aktuell auch ziemlich allein dazustehen ;)

Zwei Dinge: Kepler wird sehr stark auf Fermi aufbauen. Ungefähr so wie G7x auf NV4x. Fermi war ein Architekturumschwung, der alle 3-5 Jahre geschieht bei nVidia. Kepler ist daher einfach nur die auf effzient getrimmte Fermi-Version.

Mit den Ergebnissen von LittleK muss man nicht mehr spekulieren, ob die Karte schneller als die 7970 wäre, sondern nur noch wieviel. Laut PHK benötigt AMD angeblich 1150MHz um mit der GTX680 mithalten zu können: nV News Forums - View Single Post - No GTX680 until Q2 2012

PS: mal eine kleine Gedankenstütze
Ich habe dir an der Stelle zwei Beispiele gebracht, einmal NV, einmal AMD, das du kleine GPUs nicht 1:1 auf große GPUs hochrechnen kannst. Weil die Effizienz eben nicht linear bleibt.
Das Thema Stromverbrauch hast du also ganz allein ins Rennen gebracht ;)

Das Thema Stromverbrauch sollte zeigen, dass nVidia in 190 Watt eben sehr viel Leistung quetschen kann. So wie es aussieht nämlich mehr als 2x zur Vorgängergeneration - hier also GTX560TI. Ob es sich um GK104 schon um BigK handelt oder nicht, muss abgewartet werden.
 
Wo bitte soll das sein? Schwer vorstellbar, oder mit irgendwelchen Texturmods?

Skyrim ohne HighRes Texturen als Beispiel.
2xSGSSAA laufen (mit teilweise massiven Nachladerucklern), 4xSGSSAA laufen nicht (~9FPS), obwohl da im Schnitt wohl mindestens 25-30FPS rum kommen müssten. Was beispielsweise ein nur unwesentlich schnelleres 480GTX SLI schafft. (ganz davon ab, das ich die Karten noch OCed habe)

Zwei Dinge: Kepler wird sehr stark auf Fermi aufbauen. Ungefähr so wie G7x auf NV4x. Fermi war ein Architekturumschwung, der alle 3-5 Jahre geschieht bei nVidia. Kepler ist daher einfach nur die auf effzient getrimmte Fermi-Version.
Die architektonischen Änderungen, sofern der HotClock nun wirklich weg ist, ist ne ganze Ecke höher, als das lapidare angepasste von GF100, was quasi ein G80 ohne MUL ist.
Es ist und bleibt ein nicht 1:1 vergleichbarer Ansatz. In wie weit Kepler die Einheiten überhaupt im Stande ist zu befeuern im Vergleich zu den einfach lapidar nur hochgetakteten ALUs von Fermi ist im Moment völlig unklar. Heist nicht, das du nicht recht haben könntest. Aber bitte verkaufe diese Annahme nicht als Fakt, weil es genügend gibt, was dem entgegen spricht. ;)

Das Thema Stromverbrauch sollte zeigen, dass nVidia in 190 Watt eben sehr viel Leistung quetschen kann. So wie es aussieht nämlich mehr als 2x zur Vorgängergeneration - hier also GTX560TI. Ob es sich um GK104 schon um BigK handelt oder nicht, muss abgewartet werden.

Es bleibt dennoch die Tatsache, das mobile GPUs einerseits nicht vergleichbar sind, und andererseits das eben um so höher man in der Leistungsklasse steigt, die Effizienz immer schlechter wird. Da kann irgend ein GK107 mini Kepler noch so gute Werte liefern. Über GK104 sagt das nichtmal im Ansatz was aus.
Wie schon angesprochen, mobile Fermi Quadro war/ist auch "massiv" mehr Effizienz, als die dicken Desktop GPUs schlussendlich. Rechnet man diese Werte hoch, müsste GF100/110 bei ähnlicher Leistung ebenso unter 200W kommen. Tut es aber nicht... Und das ist entgegen deiner Spekulation ein Fakt ;)

Übrigens wurde das Argument mit den mobilen Ablegern seitens scully seinerzeit analog vorgetragen ;) mit dem selben ernüchternden Ergebnis.
 
Die architektonischen Änderungen, sofern der HotClock nun wirklich weg ist, ist ne ganze Ecke höher, als das lapidare angepasste von GF100, was quasi ein G80 ohne MUL ist.
Es ist und bleibt ein nicht 1:1 vergleichbarer Ansatz. In wie weit Kepler die Einheiten überhaupt im Stande ist zu befeuern im Vergleich zu den einfach lapidar nur hochgetakteten ALUs von Fermi ist im Moment völlig unklar. Heist nicht, das du nicht recht haben könntest. Aber bitte verkaufe diese Annahme nicht als Fakt, weil es genügend gibt, was dem entgegen spricht. ;)

Sry, aber GF100 hat mit G80 kaum noch etwas zu tun. Vollkommen anderer Rechenarchitekturaufbau und ein vollkommen überarbeitetes Front-End. Das wäre so als wenn man sagt, G80 ist auch nicht mehr als nur ein gepimpter G71 mit HotClock.
Und wie man an LittleK sieht, kann Kepler seine Einheiten ausnutzen. Immerhin soll GK107 viermal mehr Recheneinheiten als GF108 haben.

Es bleibt dennoch die Tatsache, das mobile GPUs einerseits nicht vergleichbar sind, und andererseits das eben um so höher man in der Leistungsklasse steigt, die Effizienz immer schlechter wird. Da kann irgend ein GK107 mini Kepler noch so gute Werte liefern. Über GK104 sagt das nichtmal im Ansatz was aus.
Wie schon angesprochen, mobile Fermi Quadro war/ist auch "massiv" mehr Effizienz, als die dicken Desktop GPUs schlussendlich. Rechnet man diese Werte hoch, müsste GF100/110 bei ähnlicher Leistung ebenso unter 200W kommen. Tut es aber nicht... Und das ist entgegen deiner Spekulation ein Fakt ;)

Ich bezweifel, dass du je etwas über mobile Fermi Quadro-Karten vor den Desktop-Versionen gelesen hast. Keine Ahnung, auf was du dich daher beziehst. Ansonsten sollte man auch verstehen, dass GF110 und GF114 sich in vielen Bereichen deutlich unterscheiden. Und daher die These auch nicht übertragbar ist.

Natürlich ist es von mir gemein mit der TDP von GK107m. Aber die ähnlich getaktete GT525m soll bei 25 Watt liegen. Und die kam zu Zeiten als es um 40nm schon sehr gut bestimmt war.
 
Zuletzt bearbeitet:
Huhu,

vor der ganzen V-Ramdiskussion stand ich auch vor einigen Monaten und entschied mich zu allem Übel für ein GTX460 Gespann, warum? Inkl. Wakü für unter 300€ zu haben und weit schneller als eine GTX580 es jemals sein könnte, auch mit OC, Problem-> zu wenig V-Ram->Fazit: keine qualitätssteigernde Einstellungen nutzen und für kommende Spiele die nächsten 2-3Jahre komplett auf AA etc. verzichten und mit Downsampling, falls möglich, zufrieden geben. Nach 3 Monaten suche und keiner Findung eines Kühlers, warte ich jetzt einw enig, bis Kepler kommt oder schnappe mit ein GTX470 SLI Gespann, welches vom Stromverbrauch noch im Rahmen bleiben würde, GTX480 verbraucht VIEL zuviel.

Andere Möglichkeit, GTX570 2,5GB oder GTX580 3GB als SInglekarte einsetzen, da genug Power für die nächsten Jahre und ausreichend V-Ram allerdings steht Kepler vor der Tür, die Preise sinken und generell wäre das eine teure Investition, die zu allem Überfluss weniger Leistung als das 460er Gespann hätte, aber mir Freiraum bei den Einstellungen lässt.

Insofern muss jeder selbst entscheiden, was ih die Einstellungen und damit verbundenen Aufpreisen Wert ist. Ich verbraue mir garantie kein GTX570/580 SLI Gespann heute, da viel zu teuer und von der Bildqualität nicht dramatisch besser, als von einer Engine zur Neueren. Außerdem wäre der Stromverbrauch jenseits von Gut und Böse.

Anderer Punkt, verzichtet man auf PhysX, nutzt den MSI Afterburner um die fps zu cutten, nutzt keine besonderen EInstellungen, wäre der Griff zu einem Crossfiregespann bestehends aus 2 6950 wieder eine gute und günstgie Wahl.

- Entweder Leistung zum kleinen Preis mit Verzicht auf V-Ram (Leistung kann nicht ausgespielt werden, da die V-Ram vorher dicht macht)
- Singlekarte mit weniger Lesitung und viel V-Ram (V-Ram kann nicht ausgespielt werden, da vorher die Leistung dicht macht)
- SLI Gespann mit viel V-Ram (unverhältnis teuer für die gebotene Leistung)


Jetzt muss jeder selbst schauen, wo er hin möchte.
 
wir sind im Luxx, da gibbet nur Punkt 3 :fresse2:

spaß,
Ich denke schon, dass Kepler als Singlekarte mittlerweile genug Rechenpower hat um mit ner Singlekarte Downsamplen zu können.
Wir sahen ja schon ein paar Ansätze mit DS, fps Limiter und so. Da wäre es nur traurig wenn man da zu wenig ram hat und so die Karte ausgebremst wird.
 
Zuletzt bearbeitet:
Ich hab ein TRI-SLI GTX570 System mit je 1,28GB. Ist einfach in einigen Spielen zu wenig. :(
 
genau an dem Punkt findest du dich mit 2GB bei GK104 in spätestens in nem Jahr auch wieder ;) ... mit dem tollen Teil welches dir 60% Mehrleistung schenkt und sicherlich nicht einbrechen kann^^

Cryengine4 wird auch nicht ohne sein
 
Zuletzt bearbeitet:
ich hab eine singel gtx470 mit 1,28gb. ist in den meisten spielen einfach zu wenig :(
irgendwann wird gk110 auch mal erschwinglich sein. aber dann ist meine gtx nurnoch 50 euro wert
 
genau an dem Punkt findest du dich mit 2GB bei GK104 in spätestens in nem Jahr auch wieder ;) ... mit dem tollen Teil welches dir 60% Mehrleistung schenkt und sicherlich nicht einbrechen kann^^

Cryengine4 wird auch nicht ohne sein

Mit 60% mehr zur GTX580 wäre die Karte ca. so schnell wie 2xGTX570 Karten im SLI. Und ich sehe bei meinem System, dass 2GB reichen. Bin eben kein MM-Fan. Die Fischoptik gefällt mir nicht. Da Spiele ich eher mit 24:9, 4xMSAA + SSAA.
 
2GB sind schon garnicht so schlecht weil ich glaube eher das 4Gb nix bringen wird da dem chip dann die bandbreite und auch die leistung fehlen würde um da angemessene FPS raus zu drücken!
Bei 3 oder 4Karten mag das anders sein aber 2GB sollte für jeden FullHD user deutlich reichen sollange nicht Texturemods und sachen wie SGSSAA bis zum erbrechen getestet werden!
 
Zuletzt bearbeitet:
Haha,

nein nein, habe auch noch andere Hobbys, das geht einfach nicht. Wobei, ohne Wasserkühlung und den ganzen Bestellungen aus der USA, hätte ich mir auch 3x GTX580 3GB inkl. Intel 6 Kern CPU kaufen können :fresse:

Downsampling ist gar kein Problem bei mir, kein Spiel haut mich von den Socken (außer BF3/CrysisII/Metro2033). Für 16x AA und solche Spielereien etc. reicht natürlich weder Leistung noch V-Ram aus. Ich finde eher erschreckend, warum man von 2-3 GTX580 unbedingt auf die neue Gen. wechseln muss :xmas:

i5-750@2Ghz - 2GTX460 - Auflösung 2880*1620
Anhang anzeigen 186086Anhang anzeigen 186087Anhang anzeigen 186088Anhang anzeigen 186085
 
Zuletzt bearbeitet:
2GB sind zu wenig, 4GB zuviel. Die AMD liegt genau in der Mitte. ;)
 
Wenn ich einen abnehmer für eine Karte von mir finden würde würde ich wohl auch eine Ati 3GB kaufen... muss leider durch die 3 Monitore mehr Vram besitzen. Ansonsten reichen 1,5GB schon locker für 5870x1080 ohne AA und die Leistung vom Sli ist auch nicht ohne, da macht wirklich vorher der Vram dicht was man ja aushebeln kann.

Die 4GB sollten dann beim Sli erst zum nutzen kommen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh