nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Nun, Ihr vergesst das bei der aktuellen Version der GTX Karten die MultiGPU abgeschaltet ist, nun mit GK110 wird dies wieder drinnen sein, ebenso wird auch der Verbrauch und die Wärmeentwicklung bei der Neuen Karte, Monsterkarte steigen und somit auch viel Teurer machen als es die GTX 670 / 680 derzeit ist.
Mann kann wohl von erneutem Gleichstand ausgehen, mit dem Vorteil dass ATI die MultiGPU bereits im Chip integriert hat und damit optimieren kann.

Was schreibst du da für einen Schwachsinn zusammen, das gibts ja nicht.

Erstens meinst du verbesserte Compute-Fähigkeiten, nicht "MultiGPU".
Zweitens nehmen die nur Platz weg und beeinflussen den Verbrauch nicht so sehr wie du dir das denkst.
Drittens wirken sich Verbrauch und Wärmeentwicklung nicht auf den Kaufpreis aus.
Viertens kratzt AMD mit der 7970 GHz bereits an einer Verbrauchsmarke, die nicht weit von der GTX480 entfernt ist.
Fünftens gibt es schon TDP-Werte von GK110, und die sehen ziemlich gut aus.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habe mich nicht richtig ausgedrückt, stimmt!
Wollte nur hinweisen dass der Verbrauch sicher nicht mehr so TOP sein wird wie derzeit der Fall ist und AMD einfach zu viel Volt seinen Karten gibt.
 
Habe mich nicht richtig ausgedrückt, stimmt!
Wollte nur hinweisen dass der Verbrauch sicher nicht mehr so TOP sein wird wie derzeit der Fall ist und AMD einfach zu viel Volt seinen Karten gibt.

Natürlich wird der Verbrauch steigen, ist doch auch logisch... Was aber bleibt ist die effizienz. GK110 könnte, z.b. 50% mehr als eine GTX 680 leisten und dabei 50% mehr verbrauchen->selbst bei 250 Watt wäre die Karte also effizienter als eine HD 7970 non GHz.
 
Das ist aber das Problem, wenn man 50% im Schnitt über GTX680 liegt (mehr kann ich mir wirklich nicht vorstellen), kann man keine 900$ verlangen. Schon die GTX680 ist P/L mäßig eine Katastrophe, aber das wäre ja der Supergau.
 
Das ist aber das Problem, wenn man 50% im Schnitt über GTX680 liegt (mehr kann ich mir wirklich nicht vorstellen), kann man keine 900$ verlangen. Schon die GTX680 ist P/L mäßig eine Katastrophe, aber das wäre ja der Supergau.

Dann bist du einfach nicht die Zielgruppe, Schnellstes High-End war schon immer Teurer. Wenn sie bis zu 85% einer GTX690 (wie angegeben) in den fordernsten Settings leisten sollte, ist der Preis durchaus angemessen. Abgesehen davon, kann sich bis zum Launch da auch noch einiges am Preis ändern. Mal abwarten, High-End kostet nunmal... so war es immer... erinnere mich da noch an eine Geforce2 Ultra für 1600 DM etc. ;)
 
Zuletzt bearbeitet:
Dann bist du einfach nicht die Zielgruppe, Schnellstes High-End war schon immer Teurer. Wenn sie bis zu 85% einer GTX690 (wie angegeben) in den fordernsten Settings leisten sollte, ist der Preis durchaus angemessen. Abgesehen davon, kann sich bis zum Launch da auch noch einiges am Preis ändern. Mal abwarten, High-End kostet nunmal... so war es immer... erinnere mich da noch an eine Geforce2 Ultra für 1600 DM etc. ;)

Ich würde nicht mal im Traum daran denken eine 900$ Graka zu kaufen, die dann in 1 Jahr v. einer 300€ Karte geschlagen wird. Zumal wir ja die bei Hardware typische $/€ Umrechnung kennen. Also insofern bin ich m. Sicherheit nicht die Zielgruppe dieser Karte, aber ich finde auch das man hier nicht den Jubelperser geben muss u. alles was NV tut verteidigen u. rechtfertigen muss. Ich halte zwar diesen Leak insgesamt f. BS, aber mich ärgert einfach, dass sich schon jetzt wieder genug Leute finden die selbst so einen Stunt v. NV bis aufs Blut verteidigen würden. Man sollte sich doch einen Rest v. Objektivität bewahren können, selbst wenn "Fan" einer bestimmten Fa. ist.
 
AMD Fan Charlie schreibt ja dass Sea Islands schon sogut wie fertig und launchbar sei und man nurnoch abwarte bis die alten Karten aus dem Lager abgeholt werden.

Ob das stimmt, keine Ahnung, aber nach immerhin schon 13 Monaten nach HD 7970 launch dürfte man doch eigentlich schon die Nachfolgerkarte sogut wie fertig haben.

Schön für Charlie

Was hat die AMD Propaganda Story just hier zu suchen?

---------- Post added at 23:19 ---------- Previous post was at 23:17 ----------



Hast du aber laaange zurückgehalten,da die Jungens ja nicht die aktuellsten sind:asthanos:
 
Das lustige ist ja, dass "Titan" nicht weit oben stehen kann, weil die Specks ja schon so gut wie durchgesickert sind.
Wo soll denn die Karte landen?

Das können maximal 10 bis 20% Merhleistung gegenüber einer HD 8970 sein, wenn man den 85% der Leistung einer GTX 690 glauben schenken mag.

Ich denke anders als viele hier, dass es auf einen Patt zwischen HD 8970 und "Titan" hinauslaufen wird.

Natürlich denkst du das. Man sah ja, wie das bei GTX680 und 7970 ausging. Schon vom Schock erholt, dass die GTX680 schneller ist? :rofl:

Natürlich wird GK110 als Geforce schneller sein. Aber hey, im Trolltasien läuft eben alles ein bisschen anders. :fresse:
 
Hmm, sollte das Ding real sein wären es doch nur 14 SMX. 863 MHz sehen auch sehr human aus. Mit den Daten sollte man gut 40-50% vor einer 680er landen.
 
Ich würde nicht mal im Traum daran denken eine 900$ Graka zu kaufen, die dann in 1 Jahr v. einer 300€ Karte geschlagen wird. Zumal wir ja die bei Hardware typische $/€ Umrechnung kennen. Also insofern bin ich m. Sicherheit nicht die Zielgruppe dieser Karte, aber ich finde auch das man hier nicht den Jubelperser geben muss u. alles was NV tut verteidigen u. rechtfertigen muss. Ich halte zwar diesen Leak insgesamt f. BS, aber mich ärgert einfach, dass sich schon jetzt wieder genug Leute finden die selbst so einen Stunt v. NV bis aufs Blut verteidigen würden. Man sollte sich doch einen Rest v. Objektivität bewahren können, selbst wenn "Fan" einer bestimmten Fa. ist.

Wie gesagt, schau dir das 7970 Preisleistungsverhältnis zum Launch an, das war bezogen auf den Vorgänger genauso beschissen. Aber wirklich haargenauso ;)
Erst später mit der Preissenkung und der GHz Edition wurde es erträglich, wobei ich immer noch nicht bereit wäre, für 50% im Schnitt zur GTX580 mehrere Hundert Euro hinzulegen. 50% sind ein Witz, da hat die GTX480 ja noch mehr ggü. ihrer Vorgängerin geschafft.

Ich finde die 899 auch nicht gut, aber man sollte nicht mit zweierlei Maß messen und der Titan dieselben 6 Monate zugestehen, die AMD auch hatte, um ein attraktives Angebot zu bieten. Außerdem würde ich mal gern AMDs Preise sehen, wenn die einen solchen Chip entwickelt hätten...

---------- Post added at 07:03 ---------- Previous post was at 06:58 ----------

titan_1zirnz.png


Eben gefunden. ;)

MfG
Edge

Wo? :)
Wieso noch ein 310er Treiber? Launchtreiber wäre sicher 313er Serie.
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread] (1. Seite lesen!)

Edge schreibt..., "eben gefunden ;)"

... und keiner merkt es. :lol:
 
Release Date : 21. Feb 2013. Ob das echt ist??
 
Dazu brauchen wir keinen Marc. :drool:
Sorry Jungs, es juckt einfach zu sehr in den Fingern mit jeder neuen Gen. :fresse:

Nun ja, einige Ungereimtheiten wie Launchtreiber gäbe es eh - aber zumindest die Daten könnten hinkommen - da sollten die Tage aber mehr Infos kommen. :)
Hm, ich glaub, ein Update ist notwendig. :d

Fragt sich halt, ob Titan eventuell so limitiert wird, dass auch ein Vollausbau möglich wäre, aber die Tatsache, dass selbst K20X mit "nur" 14 SMX kommt, macht das fraglich, dass dieser im Desktop Verwendung findet. Auch in wie weit die Taktraten hinkommen - freilich kann man bei GeForce auch mit 3GB statt 6GB @ 384 Bit SI eine höhere TDP als bei K20X erwarten und ebenso höhere Taktraten.

E: So sieht das oben ein bisschen besser aus, wenn auch nicht perfekt - 0.6.8 sollte es sein, das lässt sich aber mit den einfachen Mitteln nicht so schnell anpassen. :fresse:

MfG
Edge
 
Zuletzt bearbeitet:
Also gerade wenn ich SLI kaufe und dann nur FullHD mit 4xAA fahre bin ich selber schuld. Für was den dann überhaupt soviel Geld ausgeben? Ich sah bei meinen vier GPUs 99% Auslastung, was dann der maximal möglichen Skalierung entspricht, also es ist echt nicht so schlimm, was das angeht.

Absoluter Quatsch... Ich kann zwei GK104 GPUs bei fast 1,3GHz im SLI spielend auf unspielbarkeits FPS Regionen drücken in FullHD. Wozu also mehr?
Und es ändert nix an der Tatsache, das (laut Steam Hardwareumfrage) gut 1/3 aller genutzten Monitore nur FullHD kann. Es ist also die mit Abstand meist genutzte Monitorauflösung. Also muss sich die Hardware daran auch messen.

Und ganz ehrlich, nicht jeder möchte mit nur 30 FPS spielen ;)
Mit einer einzigen GK104 GPU bei ~1,3GHz und 3,6GHz Speichertakt schaffe ich in einigen Games gerade mal diese FPS Raten, wenn man SGSSAA drauf haut.

Also bitte, 690 in Full-HD...schau mal bei HT4U in 1440p, da ist die 690 im Schnitt 80% schneller als die 680 ;)
Und komm, für den Preis MUSS das Ding 50% schneller als die 680 sein, alles andere macht doch keinen Sinn.

Klar für den Preis muss das richtig abgehen...
Wobei der Prestigefaktor ja noch im Raum steht.
Aber wie schon gesagt, die Gründe, warum für mich FullHD der Vergleichsfaktor ist, habe ich ausreichend benannt. Wenn das bei anderen anders ausschaut, ist das völlig OK. Dennoch muss sich die Karte bei mir (wenn ich denn mal eine oder zwei habe) mit genau dieser Auflösung messen.

PS: CB testet sogar mit 4,5GHz auf nem 3770K und schiebt dazu ein CPU Limit noch ne Ecke nach hinten raus. Soll ja auch Leute geben, die nicht OCen ;) Da siehts dann wohl noch mauer aus.
Ich erinnere da noch an die ersten Reviews der HD5970 als Dual GPU. Welche sich nur unzureichend von ner HD5870 absetzen konnte, weil schlicht oft die CPU massiv limitiert hatte.
Ähnliches könnte in "normalen" Settings auch nem GK110 bevorstehen. Abzusehen bei 85% einer GTX 690 wäre es, denn die zeigt ähnliches Verhalten. (genau so wie 670/680 SLI)

Das Problem ist, viel mehr als 4,5GHz sind aktuell nicht mit Sandy/Ivy/Sandy-E ;)
Selbst 5GHz wären nur poplige 11% mehr CPU Power. Das macht schlussendlich den Kohl nicht fett.

Drittens wirken sich Verbrauch und Wärmeentwicklung nicht auf den Kaufpreis aus.
Viertens kratzt AMD mit der 7970 GHz bereits an einer Verbrauchsmarke, die nicht weit von der GTX480 entfernt ist.
Fünftens gibt es schon TDP-Werte von GK110, und die sehen ziemlich gut aus.

3. -> also mehr Verbrauch bedingt auch mehr Kühlleistung. Das hat indirekt schon was mit dem Preis zu tun. Ne simple mini Single Slot Kühlerversion mit kleinem günstig Lüfter wird Kostentechnisch deutlich weniger verschlingen als ein fetter Kupferkühlblock. Ich denke dabei beispielsweise an ne HD4870X2 mit zwei fetten Kupferkühlkörpern.
4. -> was reitet ihr alle so auf dem Verbrauch rum? Bei Fermi wurde das noch billigend in Kauf genommen um die Leistung zu rechtfertigen... Und es heist lange nicht, das AMD nicht dort Verbesserungspotential hat. Zumindest laut den Spekulationen soll es ja deutlich besser werden in Sachen Effizienz. Ob das realistisch ist -> kein Plan.
5. -> neja TDP von K20X sieht zwar OK aus, aber für eine potentielle mehr ALU Leistung von ~21,5% ausgehend von der 680er im default Turbo liegt der Verbrauch immernoch gerade mal gleich auf. (TDP Vergleich)
Real könnte es da mieser ausschauen. Da die 680er mit ~170W real zu Buche schlägt, wärend 21,5% mehr gerade mal 206W wären... Was etwas wenig wäre für die TDP Einstufung.

http://www.abload.de/img/titan_1zirnz.png

Eben gefunden. ;)

Schaut zwar realistisch aus, aber der Treiber scheint nicht zu passen -> fake!?
Die Werte ansich sehen aber in sich schlüssig aus. Speziell Takt zu Einheiten und deren erreichte Leistungen...
Damit wäre das Teil rechnerische 51% über der 680er. Plus den Vorteil des breiteren SIs...

Die Frage ist, ob das reicht. Denn 51% mehr ALU Power + 51% mehr Bandbreite sind 1:1 nach oben gesetzt. Heist, das Teil würde ebenso von einer Bandbreitenerhöhung profitieren wie GK104. Speziell Metro als Beispiel mit fast linearer Skalierung.
Das könnte zwar OC technisch richtig abgehen das Ding, weil niedriger Basistakt, aber die Leistung würde dann zum Teil wie beim GK104 verpuffen, wenn die Bandbreite limitiert :(
 
Aha du warst also diesmal der Fakebandit nicht traditionsgemäß der Herr Sauter:)

Ja - so Update draußen. Ich tippe ja eher auf Ende Februar - nach dem chinesischen Neujahresfest (geht bis zum 25.) und da NV am liebsten Dienstag oder Donnerstag launched. :)

Schaut zwar realistisch aus, aber der Treiber scheint nicht zu passen -> fake!?
Die Werte ansich sehen aber in sich schlüssig aus. Speziell Takt zu Einheiten und deren erreichte Leistungen...
Damit wäre das Teil rechnerische 51% über der 680er. Plus den Vorteil des breiteren SIs...

Die Frage ist, ob das reicht. Denn 51% mehr ALU Power + 51% mehr Bandbreite sind 1:1 nach oben gesetzt. Heist, das Teil würde ebenso von einer Bandbreitenerhöhung profitieren wie GK104. Speziell Metro als Beispiel mit fast linearer Skalierung.
Das könnte zwar OC technisch richtig abgehen das Ding, weil niedriger Basistakt, aber die Leistung würde dann zum Teil wie beim GK104 verpuffen, wenn die Bandbreite limitiert :(

Ja, die Werte könnten so in etwa hinkommen (der Baseclock steht u.a. auch in der NV-Taktraten-Tabelle), beim Treiber war ich aber etwas zu oldschool. :d
Laut den 85% einer GTX 690 sollte die Karte ja leicht über 50% vor einer GTX 680 liegen, also im Rahmen des Erwarteten.

MfG
Edge
 
Zuletzt bearbeitet:
Ja, die Werte könnten so in etwa hinkommen (der Baseclock steht u.a. auch in der NV-Taktraten-Tabelle), beim Treiber war ich aber etwas zu oldschool. :d
Laut den 85% einer GTX 690 sollte die Karte ja leicht über 50% vor einer GTX 680 liegen, also im Rahmen des Erwarteten.

MfG
Edge

Zumindest wenn die SLI Skalierung bei ~80% auf eine Single 680er liegt würden 85% der 690er Leistung ca. 50%+ einer 680er entsprechen... Mal gucken was bei rum kommt.

Ich denke aber mal, 863MHz und 915MHz Turbo sind nicht zu schaffen bei 14 SMX und 250W TDP. Das sind immerhin 24,5% mehr Takt im Turbo als K20X. Takt skaliert bei gleicher Spannung und gleichem Rest bekanntermaßen 1:1 mit dem Verbrauch. Die Einstufung müsste somit bei ~290W liegen.
Selbst ohne Turbo wären noch ~275W nötig... -> das passt net.
 
Man könnte natürlich auch 300W TDP geben, will man wirklich 85% an eine GTX 690 herankommen, auch wenn es natürlich sehr viel für eine SGPU wäre, aber da Titan eh eine Art Prestigeobjekt wie damals etwa die 7800 GTX 512 MB oder 8800 Ultra zu werden scheint...

Bin mal gespannt, 15 SMX käme dem Verbrauch entgegen, man bräuchte ~ 5% niedriger takten für die gleiche Leistung.
Auf den Screen bezogen hätte man bei 15 SMX und 824 MHz in etwa die gleiche Leistung, was aber immer noch über 250W liegen würde. ;)

Die Taktraten werden auf jeden Fall Werten in der Clockrate-Tabelle, hier zu sehen, entsprechen:

gk-taktratenrgrq9.png


Sie werden oberhalb der 732 MHz von K20X liegen und sicherlich auch höher als bei der 580er ausfallen, die Frage ist halt, um wieviel.


@ boxleitnerb: Bitte Bilderquote entfernen - ist eh nicht mehr up to date. :fresse:
 
Zuletzt bearbeitet:
Klar für den Preis muss das richtig abgehen...
Wobei der Prestigefaktor ja noch im Raum steht.
Aber wie schon gesagt, die Gründe, warum für mich FullHD der Vergleichsfaktor ist, habe ich ausreichend benannt. Wenn das bei anderen anders ausschaut, ist das völlig OK. Dennoch muss sich die Karte bei mir (wenn ich denn mal eine oder zwei habe) mit genau dieser Auflösung messen.

PS: CB testet sogar mit 4,5GHz auf nem 3770K und schiebt dazu ein CPU Limit noch ne Ecke nach hinten raus. Soll ja auch Leute geben, die nicht OCen ;) Da siehts dann wohl noch mauer aus.
Ich erinnere da noch an die ersten Reviews der HD5970 als Dual GPU. Welche sich nur unzureichend von ner HD5870 absetzen konnte, weil schlicht oft die CPU massiv limitiert hatte.
Ähnliches könnte in "normalen" Settings auch nem GK110 bevorstehen. Abzusehen bei 85% einer GTX 690 wäre es, denn die zeigt ähnliches Verhalten. (genau so wie 670/680 SLI)

Das Problem ist, viel mehr als 4,5GHz sind aktuell nicht mit Sandy/Ivy/Sandy-E ;)
Selbst 5GHz wären nur poplige 11% mehr CPU Power. Das macht schlussendlich den Kohl nicht fett.

3. -> also mehr Verbrauch bedingt auch mehr Kühlleistung. Das hat indirekt schon was mit dem Preis zu tun. Ne simple mini Single Slot Kühlerversion mit kleinem günstig Lüfter wird Kostentechnisch deutlich weniger verschlingen als ein fetter Kupferkühlblock. Ich denke dabei beispielsweise an ne HD4870X2 mit zwei fetten Kupferkühlkörpern.
4. -> was reitet ihr alle so auf dem Verbrauch rum? Bei Fermi wurde das noch billigend in Kauf genommen um die Leistung zu rechtfertigen... Und es heist lange nicht, das AMD nicht dort Verbesserungspotential hat. Zumindest laut den Spekulationen soll es ja deutlich besser werden in Sachen Effizienz. Ob das realistisch ist -> kein Plan.
5. -> neja TDP von K20X sieht zwar OK aus, aber für eine potentielle mehr ALU Leistung von ~21,5% ausgehend von der 680er im default Turbo liegt der Verbrauch immernoch gerade mal gleich auf. (TDP Vergleich)
Real könnte es da mieser ausschauen. Da die 680er mit ~170W real zu Buche schlägt, wärend 21,5% mehr gerade mal 206W wären... Was etwas wenig wäre für die TDP Einstufung.

Es ist aber Banane so eine Karte auf 1080p zu bewerten bzgl. der Performance und das weißt du auch. Mit 4xSGSSAA sind es dann auch in 1080p 85%, also was soll's?

3. Bei der 580 kostete ein Kühler knapp 35 Dollar. Bitte, das ist ja schon hart am Trollen. Bei 899 sind selbst 50 Dollar ein Fliegenschiss, die mit dem Preis praktisch nix zu tun haben. Berni hat irgendwas vor sich hingebrabbelt und ich habe ihn korrigiert, that's it.
4. Hättest du meinen Post richtig gelesen, hättest du festgestellt, dass es hier um den Spielraum geht, den AMD und Nvidia haben. Nicht um die absolute Bewertung des Verbrauchs an sich. Wenn AMD eine Karte bauen will, die 270W braucht, fein. Dann kann man sicher zu Titan aufschließen.
5. Wir werden sehen. Ich kann es nur zum Hundertsten Mal wiederholen: 3GB GDDR5 bei 5-6 GHz brauchen Strom, nämlich 8-10W pro GB. Das darfste gleichmal abziehen, ich bin nämlich zu 99.9% sicher, dass Titan keine 6GB haben wird, da dies vollkommen sinnlos ist.

Außerdem, Geforce kommt NACH Tesla. Prozessverbesserung, evtl. neues Stepping? Ich hab gehört, K20(X) ist A1. A2 oder A3 halte ich nicht für ausgeschlossen. Und wenn der Verbrauch nur um 5% sinkt dadurch, das ist doch schonmal was.
 
Zuletzt bearbeitet:
ich zähle die Minuten bis der "Edge"-Screen auf einer Webseite innerhalb einer "NEWS" auftaucht.. :lol:
 
Wobei wir ja aus China schon deutlich schlechtere Fakes gesehen haben - hm, GPU-Z müsste man noch aktualisieren, das stimmt, mit Paint aber zuviel Gefrickel bei der Farbanpassung auf 0.6.8. :d

E: Wir nähern uns - Aero macht es einem aber auch nicht leicht:

titanpzzud.png


Ok, back to Topic. ;)
 
Zuletzt bearbeitet:
das mit der Dual GPU lassen wir jetzt mal so dahingestellt. Glaube nach der Unterhaltung von heute Morgen ja auch nicht dran das eine kommen wird. 700-750$ klingen schon eher nach nem High-End Releasepreis. Wer kauft sich ne Single GPU im Wert von 1000,-$.
Wir sind ne Hand voller bekloppter Enthusiasten und tun sich schon schwer mal eben 1100,-€ für ein neues SLI hinzulegen. Da soll dann eine Singlekarte fast 1000 kosten.. Glaubt ihr selbst nicht das NV da Käufer für findet wenn AMD mit 400,-€ ankommt.
Die Umrechnung 1000,-$ zu € klappt ja nicht wirklich und wird zu 95% 1 zu 1 übernommen. Ich weiß auch das 1000,-$ 750,-€ sind. Interessant wäre auch da die Preisspekulation zur Titan. 750,-$ = 750,-€ Releasepreis !? ;)

Abwarten und Tee trinken. Mehr als 1100,-€ für ein neues SLI (Luft) lege ich nicht hin.


ich passe genau in die bekloppte zielgruppe von den highend nvidia karten.
sli ist für mich ein "must have".

gruss
kemen
 
Es ist aber Banane so eine Karte auf 1080p zu bewerten bzgl. der Performance und das weißt du auch. Mit 4xSGSSAA sind es dann auch in 1080p 85%, also was soll's?

3. Bei der 580 kostete ein Kühler knapp 35 Dollar. Bitte, das ist ja schon hart am Trollen. Bei 899 sind selbst 50 Dollar ein Fliegenschiss, die mit dem Preis praktisch nix zu tun haben. Berni hat irgendwas vor sich hingebrabbelt und ich habe ihn korrigiert, that's it.
4. Hättest du meinen Post richtig gelesen, hättest du festgestellt, dass es hier um den Spielraum geht, den AMD und Nvidia haben. Nicht um die absolute Bewertung des Verbrauchs an sich. Wenn AMD eine Karte bauen will, die 270W braucht, fein. Dann kann man sicher zu Titan aufschließen.
5. Wir werden sehen. Ich kann es nur zum Hundertsten Mal wiederholen: 3GB GDDR5 bei 5-6 GHz brauchen Strom, nämlich 8-10W pro GB. Das darfste gleichmal abziehen, ich bin nämlich zu 99.9% sicher, dass Titan keine 6GB haben wird, da dies vollkommen sinnlos ist.

Außerdem, Geforce kommt NACH Tesla. Prozessverbesserung, evtl. neues Stepping? Ich hab gehört, K20(X) ist A1. A2 oder A3 halte ich nicht für ausgeschlossen. Und wenn der Verbrauch nur um 5% sinkt dadurch, das ist doch schonmal was.

Es ist doch völlig wurscht, was ich weis und was nicht... Genau so ist es völlig egal, was du oder andere für Ansprüche an die Karten stellen. Das Teil muss sich genau so wie alle anderen Produkte auch an gängigen Standards (Standard Settings) messen.
Wenn das Teil leistungstechnisch unter einer 690er ansiedelt, warum soll es nicht erlaubt sein, auch FullHD zu bewerten? Was soll der Quark? Deswegen wird das Teil nicht in höheren Settings langsamer... Warum also die Werte von FullHD unter den Tisch kehren? Das macht keinen Sinn...

3. -> es zwar nur ein Einwand. 50$ von 900$ sind immerhin über 5%. Und dabei ist ja nichtmal die Marge der Boardpartner mit einberechnet, die ja auch verdienen wollen und müssen. Und ich behaupte, bei dem Preis wird die Marge nicht nur für NV vergleichsweise hoch sein.
4. -> mir gehts um die permanenten Seitenhiebe von wegen, AMD braucht ja jetzt schon so viel Strom. Das ist wenig objektiv, vor allem, da man zu Fermi Zeiten den Verbrauch spielend in Kauf nahm um die Leistung zu rechtfertigen. Es geht dabei auch nicht primär um dich, sondern völlig im allgemeinen ;) immer ruhig blut.
5. -> und ich kann nur zum ebenfalls mindestens hundertsten mal wiederholen das zwischen K20 und K20X genau 10W TDP Unterschied liegen, die laut dieser Theorie allein schon durch das eine GB mehr VRAM aufgefressen werden. Der mehr Takt, die mehr ALUs sowie alles was noch dran hängt, nicht! mit einberechnet. Dazu steht dem Argument auch die Anzahl der VRAM Bausteine entgegen, was noch dazu kommt mit 10 vs. 12 bei K20 vs. K20X.

Neues Stepping sowie weiter entwickelter Prozess, da gehe ich mit. Behaupte aber, das damit keine Welten Unterschied reinzubekommen sind ;)
PS: um nochmal hier zu 4. zu kommen, das dürfte folglich dazu auch bei AMD gelten, zumindest rein den Prozess betreffend.
 
Zuletzt bearbeitet:
Es ist doch völlig wurscht, was ich weis und was nicht... Genau so ist es völlig egal, was du oder andere für Ansprüche an die Karten stellen. Das Teil muss sich genau so wie alle anderen Produkte auch an gängigen Standards (Standard Settings) messen.
Wenn das Teil leistungstechnisch unter einer 690er ansiedelt, warum soll es nicht erlaubt sein, auch FullHD zu bewerten? Was soll der Quark? Deswegen wird das Teil nicht in höheren Settings langsamer... Warum also die Werte von FullHD unter den Tisch kehren? Das macht keinen Sinn...


Nicht unter den Tisch kehren aber unter der Prämisse betrachten,das hier bereits je nach Game,u Laune der CPU Taktung ein Limit vorliegt,was zur Verfälschung der Leistung führt

Für Full HD ist diese Leistungsriege oversized,u man könnte mit der nächst kleineren Gattung,auch zum selben Ergebniss kommen,was zwangsläufig zu Fehlinterpretationen führt

Den selben Trick,nur im umgekehrten Sinne wollte man doch beim Bulldozerrelease auch anwenden,falls du dich noch entsinnen kannst.
 
Zuletzt bearbeitet:
Ist schon was zu den Monitoranschlüssen bekannt?
4 Monitor sollten ja wie bei den normalen Kepler Karten funktionieren, wäre nur schön 4 vollwertige (DVI-DL oder DP) zu haben.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh