nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Durchaus, da gehe ich mit, nur händelt es sich mit 2x~200W deutlich einfacher als mit 2x300W :fresse:
Diesen Unterschied hat jeder miterlebt, der von 2x Fermi auf 2x GK104 gewechselt ist. -> neben der doch ordentlichen Mehrleistung auchnoch deutlich weniger Verbrauch/Abwärme/Kühlaufwand.

Interessant wird halt, wie sich der GK114 (wenn er denn so heißen mag und überhaupt kommt) platzieren wird. Weil ein paar mehr Ausführungseinheiten, ggf. etwas mehr Grundtakt bei ähnlich aggresiven Turbo und schon packst du dort dicke 20% drauf auf die 680. GK110 fehlen grobe 25-30% allein vom Takt. Die müssen wie gesagt erstmal mit Einheiten kompensiert werden. Und mehr Transistoren brauchen auch Strom ;) Vllt nicht so viel mehr wie mehr Takt inkl. Spannung, aber an der Stelle sollte nicht primär nur der ALU Teil betrachtet werden. TMUs, TAUs, ROPs usw. bleiben bei Tesla Karten quasi unbeachtet. Da arbeiten idR mehr oder weniger nur die ALUs. Legt man dort Last drauf, so erzeugt das auch Stromaufnahme sowie Abwärme.

Ich glaube nicht, dass man einem GK104 Refresh mehr Einheiten spendiert. Der wird leicht hier und da verbessert, Takt so, dass die TDP bei ca. 160W liegt, das wars. Passt dann prima als GTX760 Ti (natürlich nicht abgespeckt wie in der 660Ti, sondern Vollausbau bei Interface und Einheiten). Würde man den Refresh von GK104 zu stark machen, würde GK110 zu angreifbar werden, das ergibt imo wenig Sinn.

Richtig, daher auch die Frage, ob man wirklich GK110 im Gamerbereich bringt, bzw. ob es sich für NV lohnen würde, dies zu tun. Einfach aus dem Grund. Für über 1000€ bleibt das Teil im Laden, jede Wette. Bei HighEnd üblichen 500-600€ hingegen ist die Luft in Sachen Marge deutlich geringer als bei einem nur halb so "fetten" GK104 bzw. dessen Refresh. Und wenn dann der Abstand nicht wirklich ordentlich wird, stellt sich auch für den Hersteller die Frage, warum.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
zwischen 500 und 1000 euro gibts doch noch genug beträge, 700 euro würde ich für ultimatimative GK110 power zahlen
 
Richtig, daher auch die Frage, ob man wirklich GK110 im Gamerbereich bringt, bzw. ob es sich für NV lohnen würde, dies zu tun. Einfach aus dem Grund. Für über 1000€ bleibt das Teil im Laden, jede Wette. Bei HighEnd üblichen 500-600€ hingegen ist die Luft in Sachen Marge deutlich geringer als bei einem nur halb so "fetten" GK104 bzw. dessen Refresh. Und wenn dann der Abstand nicht wirklich ordentlich wird, stellt sich auch für den Hersteller die Frage, warum.

Stimmt schon, aber ich bin nach wie vor der Meinung, dass man mit einem aufgebohrten GK104@256bit die 8970 nicht angreifen kann. Man liegt jetzt schon in hohen Auflösungen mit viel MSAA bei einigen Spielen um 20-30% zurück. Wenn man das aufholen will, muss man auch ein dickes bzw. dickeres Schiff bringen.
 
Wenn man dem gk110 1.21 V geben könnte würde ich jetzt schon im Vorfeld behaupten das man die 1200 mhz unter einer starken Wakkü erreichen könnte :shot:
Das würde rocken.
Wenn es aber eine Spannungsspere geben wird bleibt es ein Traum.
 
Gemessen daran, das wohl was um die 800MHz Basistakt realistisch sein dürften, wären 1200MHz aber 50%+ OC :fresse:
Leistungsaufnahme skaliert mit dem Takt 1:1... Mit der Spannung im Quadrat. Stell dich also auf deutlich über 300W ein ;) Sofern überhaupt machbar.
 
Stimmt schon, aber ich bin nach wie vor der Meinung, dass man mit einem aufgebohrten GK104@256bit die 8970 nicht angreifen kann. Man liegt jetzt schon in hohen Auflösungen mit viel MSAA bei einigen Spielen um 20-30% zurück. Wenn man das aufholen will, muss man auch ein dickes bzw. dickeres Schiff bringen.

Sehe ich auch so. Wie man schon bei GK104 sehen kann, bring reines GPU-OC deutlich weniger, in einigen Games bringen 15% GPU-oc gerade mal 3% mehr Leistung. Da ist das 256Bit SI einfach zu klein. Und jetzt einfach mehr Einehiten draufpacken bringt auch nichts, wenn der Chip dann vollkommen an Speicherbandbreite verreckt. Selbst jetzt bringt Speicher-OC bei der 680 schon soviel wie reines GPU-oc (laut PCGH) :)

@fdsonne
Ein refresh der GTX 680 als GTX 760 Ti mit ebenfalls den gleichen Spezifikationen @1536 Shader, 2GiB Vram und auch einen Boost von rund 1100MHz schätze ich bei etwa 150-160 Watt, wie boxleitnerb auch.

Wie gesagt, ich glaube, dass ein GK110 @14SMX-2688 Shader bei 850MHz Boost in unter 250 Watt möglich sind. Allein schon, weil man z.B. für 850 MHz deutlich weniger Spannung braucht als für 1100 MHz (1,175V bei der GTX 680)
 
Zuletzt bearbeitet:
:)Wenn es nicht um 300 W wären würde es ja auch langweilig werden grosser.
Ist natürlich schon einkalkuliert.
Bei meiner EX HD 7970 z.b in Alan Awake 8×SSAA1390 MHZ und anliegenden 1.26V hatte mir Aida 64 278W in den Spitzen attestiert für die Karte das bei max 38°C GPU und 48°C Spawa.
So ein Lüfter auf der Karte weniger bringt auch noch mal ein paar W.
 
Zuletzt bearbeitet:
Ich glaube er wollte mehr auf die neuen FirePro Karten hinaus, sonst sieht man bisher noch nichts von einer Alternative.

Und eben jene machen nur bedingt eine gute Figur.

Äh ja. Danke dass du es herausgestellt hast ;) War im Kopf schon etwas weiter geflogen als meine Finger schreiben konnten. Da es aktuell ja nur im Computing-Segment richtig brennt bin ich natürlich dort.

@boxleitnerb: Ich bin mir nicht sicher ob es wirklich so teuer wäre, aber laut Ailuros lohnt es meist nicht einen Chip extra aufzulegen. Aber ich spekuliere und beziehe dabei einfach alle Möglichkeiten ein. Alle die durchs Raster fallen werden noch mal überprüft und erst dann verworfen. ;) Will euch eben nix vorenthalten - daher meine Hypothese zum GK20x.

@fdsonne: Die Effizienz wird stark vom finalen Takt abhängen. Ich las dass die yields "terrific" (hervorragend) sind, was den Schluß zuließe eine 15 SMx-Variante käme nun doch noch. Dann kannst du natürlich nicht weit an den GHz-Bereich gehen (obwohl ALUs sich deutlich weniger auswirken). Rechnerisch würde man bei ca. 860 MHz (15 SMx) bzw. 885 MHZ (14 SMx) landen. Turbo dann on top. Als vllt 940 MHz mit Turbo.

Wie immer: Reinste Spekulation meinerseits ;)
 
Zuletzt bearbeitet:
Sehe ich auch so. Wie man schon bei GK104 sehen kann, bring reines GPU-OC deutlich weniger, in einigen Games bringen 15% GPU-oc gerade mal 3% mehr Leistung. Da ist das 256Bit SI einfach zu klein. Und jetzt einfach mehr Einehiten draufpacken bringt auch nichts, wenn der Chip dann vollkommen an Speicherbandbreite verreckt. Selbst jetzt bringt Speicher-OC bei der 680 schon soviel wie reines GPU-oc (laut PCGH) :)
Welchen Test meinst du genau?
Weil es gilt hier klar zu differenzieren. Der Turbo spuckt dir gewaltig in die Suppe. Nämlich wenn die Last nicht hochgenug ist, greift A nicht die höchste Turbostufe und B bekommst du keinen FPS Anstieg.
CB misst übrigens im Schnitt bei FullHD + 4xMSAA 13% weniger Leistung ausgehend von der 670GTX zur 660TI bei gleichem Takt wenn ich das sehe aber 25% weniger Speicherbandbreite. Das ist zwar viel, aber lange noch nicht extremst wie ich finde.

Wie gesagt, ich glaube, dass ein GK110 @14SMX-2688 Shader bei 850MHz Boost in unter 250 Watt möglich sind. Allein schon, weil man z.B. für 850 MHz deutlich weniger Spannung braucht als für 1100 MHz (1,175V bei der GTX 680)

Das kommt auf den Standpunkt drauf an... Das Problem ist eher, man kann es nicht so pauschal sagen... Wenn NV für den Turbo 1,175V anlegt, damit ~1,1GHz laufen heist das lange nicht, das die GPU mit ~850MHz bei so extrem viel weniger Spannung läuft, das es sich ausgeht. Denn die Rechnung lässt sich auch andersrum treiben. Beispielsweise auf OC bezogen. Meine beiden 680er laufen mit knappen 1,3GHz bei gleicher Spannung noch absolut stabil. Warum liegen also 1,175V schon per default an? ;) Müsste ja deutlich weniger sein...

Das wird wohl alles eine Frage der Reserve sowie der Fertigungsschwankungen, welche man abdecken muss...

@fdsonne: Die Effizienz wird stark vom finalen Takt abhängen. Ich las dass die yields "terrific" (hervorragend) sind, was den Schluß zuließe eine 15 SMx-Variante käme nun doch noch. Dann kannst du natürlich nicht weit an den GHz-Bereich gehen (obwohl ALUs sich deutlich weniger auswirken). Rechnerisch würde man bei ca. 860 MHz (15 SMx) bzw. 885 MHZ (14 SMx) landen. Turbo dann on top. Als vllt 940 MHz mit Turbo.

Wie immer: Reinste Spekulation meinerseits ;)

rein rechnerisch ergibt aber schon der NV Ansatz so schon keinen logischen Sinn... Wenn K20 mit ~700MHz bei 13SMX, 320Bit SI sowie 5GB Speicher auf 225W eingestuft wird, wie kann dann ein ~5% höher getakteter Chip mit ~8% mehr ALUs, 20% mehr Speicherinterface sowie 20% mehr RAM Bausteine und dazu noch ~4% mehr Speichertakt mit gerade mal knappen ~4,4% mehr auf 235W eingestuft werden!?
Also entweder die K20 Einstufung ist zu hoch, oder die K20X Einstufung ist zu niedrig ;) beides passt nicht ins Bild... Effizienzsteigerung hin oder her. Das würde bedeuten, der K20X Chip ist trotz mehr in quasi allen Belangen deutlich effizienter als der non X K20... -> das halte ich für unmöglich.

Es wird wohl eher so laufen, das diese X Chip sofern die Angaben für den non X Chip halbwegs der Realität entsprechen, gut was über den 235W liegen dürfte. Zumindest was die Volllast Szenarien angeht.
 
Welchen Test meinst du genau?

Test in der PCGH 06/12:
GTX 680
GPU-OC: +16% -> +8% mehr Fps
RAM-OC: +18% -> +7% mehr Fps
erst zusammen kommen 17% mehr Fps raus. (alles durchschnittswerte aus 8 Games)

Im gegensatzt die HD 7970:
GPU-OC: +35% -> +21% mehr Fps
RAM-OC: +31% -> +4,5% mehr Fps
zusammen dann 29%. Bei der Radeon HD 7970, die sowieso eine hohe Bandbreite besitzt, kommt durch GPU-OC deutlich mehr Performance raus, als bei GPU-OC der 680.
 
rein rechnerisch ergibt aber schon der NV Ansatz so schon keinen logischen Sinn... Wenn K20 mit ~700MHz bei 13SMX, 320Bit SI sowie 5GB Speicher auf 225W eingestuft wird, wie kann dann ein ~5% höher getakteter Chip mit ~8% mehr ALUs, 20% mehr Speicherinterface sowie 20% mehr RAM Bausteine und dazu noch ~4% mehr Speichertakt mit gerade mal knappen ~4,4% mehr auf 235W eingestuft werden!?
Also entweder die K20 Einstufung ist zu hoch, oder die K20X Einstufung ist zu niedrig ;) beides passt nicht ins Bild... Effizienzsteigerung hin oder her. Das würde bedeuten, der K20X Chip ist trotz mehr in quasi allen Belangen deutlich effizienter als der non X K20... -> das halte ich für unmöglich.

Es wird wohl eher so laufen, das diese X Chip sofern die Angaben für den non X Chip halbwegs der Realität entsprechen, gut was über den 235W liegen dürfte. Zumindest was die Volllast Szenarien angeht.

Ich kann dir versichern dass K20x innerhalb dieser Spec läuft - ja unter Volllast ;) K20 ist vielleicht etwas zu hoch angesetzt. Bedenke aber dass beide auch unterschiedlich PCBs haben (auch layer).
 
Ich kann dir versichern dass K20x innerhalb dieser Spec läuft - ja unter Volllast ;) K20 ist vielleicht etwas zu hoch angesetzt. Bedenke aber dass beide auch unterschiedlich PCBs haben (auch layer).

Wo kann man das nachlesen!?
Ich mein, GF100 bzw. GF110 hat sich nicht gerade mit Ruhm bekleckert, was die Einhaltung der Spezifikationen angeht.
Die Chance bleibt zumindest 50/50, das es hier ähnlich läuft. Und wie gesagt, ALU Belastung only lässt sich ggf. nichtmal ganz mit Gamerbelastung vergleichen.
 
Gibts schon was konkreteres zu einem möglichen Release Date? Will mir nen neuen PC kaufen und überleg mir gerade bis Februar/März zu warten.
 
GF100 und GF110 laufen doch als Geforce innerhalb ihrer Spec. Ich verstehe nicht, wieso da immer drauf rumgeritten wird. Erstens geht es um den Anwendungsbereich, in dem diese Karten vermarktet werden, und das sind Spiele und nicht Furmark & Co. Zweitens ist die TDP ein Mittelwert, d.h. Spitzen sind da gar kein Problem. Wenn man nur die Karte vermisst, kommt man über mindestens 6 Spiele gemittelt auf 223W für die 580 und 238W für die 480, siehe hier:
Eine Neubetrachtung des Grafikkarten-Stromverbrauchs | 3DCenter.org

Aber jetzt kommt fdsonne gleich wieder und erzählt uns, wie gern er Furmark spielt ;)
Intensive GPGPU-Lasten sind imo eher für die Karten relevant, die für diesen Bereich auch gedacht sind, nämlich Quadro und Tesla. Bei Kepler mache ich mir im Übrigen auch keine Sorgen, der Turbo regelt bei 196W ab bei einer TDP von 195W, siehe der Test auf ht4u.
 
NV definiert also für den Endkunden, was er mit der Karte machen darf und was nicht!?
Wäre mir neu...

Und nein, es gibt sicher nicht nur Furmark. Fakt ist, es gibt Stand heute und auch schon Stand gestern Programme, mit dehnen du die Karten deutlich überhalb der Spezifikationen betreiben lässt. Daran gibt es nichts zu rüttel. Ob mit den Anwendungen nun der geneigte Durchschnittsgamer was anfangen kann oder nicht, spielt doch absolut keine Rolle.
Noch dazu lässt sich nichtmal definieren, das es nie ein Game geben wird, was diese Grenzen ebenso überschreitet... Ich denke da speziell an Gamebenches usw.
Was gibts an der Sache eigentlich zu diskutieren!? Kann ich nicht nachvollziehen...

In meinen Augen hat der Hersteller die Aufgabe hier die Angaben so zu definieren, das die Karte da drunter bleibt. Und nicht so unsinnig, das es mal so mal so sein kann. Dann hätte man das ganze auch weglassen können ;)

Thema GK104. Mir ist bewusst, das hier dicht ist. Das würde bei gleicher Verfahrensweise aber auch bedeuten, das eben GK110 bei entsprechender Belastung dann keine wirkliche Luft nach oben hat ;) Außer man hebt das Limit an, sofern möglich.
 
warum sollte das Limit denn schon erreicht sein ?
Mehr Spannung und die Karte geht ab wie ein Zäpfchen....wenn man es hinbekommt das die Spannung auch übernommen wird dan Hardmod oder so. Waren doch ellen lange Diskussionen darüber das sie letztendlich zum Refresh wahrscheinlich nur mehr Spannung frei geben müssen um der Karte entsprechenden Taktfreiraum zu geben um quasi mit der gleichen Karte nochmal abkassieren zu können.
 
Sie definieren es über die Serie. Geforce ist für Gaming, das ist jetzt sicherlich nicht neu. Also spielt das sehr wohl eine Rolle. Ich nehme auch keinen 911er Porsche und beschwere mich, die angegebene Beschleunigung oder Höchstgeschwindigkeit im Gelände bei Matsch, Unebenheiten und Geröll nicht zu erreichen. Dafür ist das Auto nicht gedacht, das ist nicht sein Einsatzzweck. Mir scheint, das willst du nicht verstehen. Es gibt Tesla für GPGPU, Quadro für Workstations und Geforce für Spiele. Daran orientiert sich auch die TDP. Du kannst die Karte auch abseits ihres vermarkteten Einsatzzweckes benutzen, dann kannst du aber auch nicht so pingelig sein. Nur weil eine GPU auch GPGPU-Programme laufen lassen kann, heißt das noch lange nichts. Derselbe Chip wird in unterschiedlichen Segmenten für unterschiedliche Einsatzzwecke verbaut. Und jeweils dort muss er bewertet werden. Wenn du eine Teslakarte mit einem fordernden Anwendungsprogramm über die TDP bringst, kannst du ja gerne einen Beschwerdebrief schreiben.
 
Zuletzt bearbeitet:
neja, ich finde ja die Ergebnisse der ersten Classified GK104 Karte, wo der EVBot noch lief nicht wirklcih berauschend. Da waren auch "nur" ~1350MHz hier im Luxx Review bei ich glaube 1,3V zu sehen. Da machen meine stino Zotak 680er mit 1,175V per default schon 1296MHz über Stunden Dauervolllast stabil. Könnte zwar Glück sein, das zufällig beide Karten von mir ähnliche Ergebnisse bringen, aber irgendwie haut mich das nicht vom Hocker ;)

Man muss halt das PowerTune Limit da mit anheben, sonst geht halt nix... Mit ~1,3GHz schramme ich teils schon an den 130%. Zumindest zeigt der Afterburner da schonmal ein paar Spitzen...

Aber mal abwarten. Sofern GK110 wirklich halbwegs zeitnah kommt, und die Leistung bei ~50%+ über GK104 liegt, würde ich ggf. sogar nen Wechsel vornehmen. Liegen da nur 20-30% Vorsprung vor, behalte ich die beiden Karten lieber... Der Mehrpreis sowie die mehr Verlustleistung/Abwärme geht sich unter Luft dann bei mir wohl nicht aus :fresse:

Sie definieren es über die Serie. Geforce ist für Gaming, das ist jetzt sicherlich nicht neu. Also spielt das sehr wohl eine Rolle. Ich nehme auch keinen 911er Porsche und beschwere mich, die angegebene Beschleunigung oder Höchstgeschwindigkeit im Gelände bei Matsch, Unebenheiten und Geröll nicht zu erreichen. Dafür ist das Auto nicht gedacht, das ist nicht sein Einsatzzweck. Mir scheint, das willst du nicht verstehen. Es gibt Tesla für GPGPU, Quadro für Workstations und Geforce für Spiele. Daran orientiert sich auch die TDP. Du kannst die Karte auch abseits ihres vermarkteten Einsatzzweckes benutzen, dann kannst du aber auch nicht so pingelig sein. Nur weil eine GPU auch GPGPU-Programme laufen lassen kann, heißt das noch lange nichts. Derselbe Chip wird in unterschiedlichen Segmenten für unterschiedliche Einsatzzwecke verbaut. Und jeweils dort muss er bewertet werden. Wenn du eine Teslakarte mit einem fordernden Anwendungsprogramm über die TDP bringst, kannst du ja gerne einen Beschwerdebrief schreiben.

Und welche Klasse von Produkten deckt dann bitte "Wald und Wiesen" Benchmarks ab!? Und ja Furmark ist in erster Linie ein Benchmark...
Irgendwie riecht das stark nach schöngerede... Ganz ehrlich... Warum muss man sich hier rechtfertigen, wenn ein Hersteller unter einigen Bedinungen nicht ihre angegebene Werte einhalten kann!? Was bringt dir das!?
Furmark auf ner Quadro sprengt genau so die TDP Angabe wie Furmark auf ner Geforce... Mit Klassen hat das irgendwie auch wenig zu tun...
Vor allem geht es ja nichtmal darum, das ich sage, das wird definitiv so sein, sondern ich sagte ledigtlich, das bei GF100/110 dies schon der Fall war, und es dementsprechend auch wieder so sein könnte

Übrigens hinkt dein Autovergleich massivst... Weil es nicht um Leistung geht (Höchstgeschwindigkeit) sondern um Verbrauch.
Passender wäre wohl beispielsweise die Annahme, das man bei einem Auto beispielsweise nur Reifen bis 160km/h freigibt, obwohl der Wagen spielend deutlich mehr schafft. Weil ja das Tempolimit üblicherweise drunter liegt und somit auch nie im Leben jemand auch nur im Ansatz auf die Idee kommt, schneller zu fahren. ;) Blöd nur das selbst in nicht deutschen Ländern gern mal schneller wie 160 gefahren wird.
Da kommt auch niemand auf die Idee zu sagen, ja, also das Auto wird ja nur für Tempolimitierte Straßen vermarktet, deswegen interessieren alle anderen Anwendungsfälle absolut nicht.
 
Zuletzt bearbeitet:
Es ist kein Schöngerede, es ist eine nüchterne Betrachtung ohne die Hysterie und das Cherrypicking. Wenn 99,99% mit ihren Geforces und Radeons nur spielen, warum sollten Nvidia und AMD bei diesen Produkten und deren Spezifikationen nach irgendwas anderem richten? Ich kann diesen Krampf nicht mehr lesen, echt.

Ob Verbrauch oder Leistung ist doch Schnuppe, es war nur eine Illustration, dass die beworbenen Parameter eines Produkts unter gewissen Gesichtspunkten gültig sind und nicht absolut gültig sein müssen. Mehr sag ich nicht dazu, dich kann man eh nicht überzeugen.
 
Mal zum Hintergrund meiner Sache, ich bin an der Stelle ein gebrantmarktes Kind. Meine beiden 470er (225W) Einstufung ließen sich im SLI Betrieb mit moderatem OC und Stock Kühlung nahezu nicht bändigen. Und da bin ich gerade mal 750MHz gefahren, die obere Karte gar mit nur 1,05V... Und mich persönlich stört an der Sache, das selbst in Games dort Temperaturen von über 100°C die Karten an die absolute Grenze gebracht hatten. (Empire: Total War brachte 106°C) Mit zwei 480er wäre das womöglich gar nicht gelaufen :fresse:

Wie gesagt, ich sag sowas ja nicht aus Spaß. Und meine Befürchtung ist eben, das GK110 an der Stelle analog anknüpfen könnte und mit dem Limit so kein anständiger Betrieb zustande kommt :fresse:
Und Furmark dient an der Stelle mir meist als Mittel zum Zweck um das maximale auszuloten. Beispielsweise wusste ich, das mein 470er SLI bei 114°C abschmiert ;) Und in einem realen Game ohne Hochsommer Raumtemperaturen schon 106°C zu erreichen, ist an der Stelle schon nicht mehr ganz feierlich, meine ich.
Empire habe ich an der Stelle dann sogar mit VSync gespielt, damit die FPS Rate bei 60 FPS gehalten wird um die Belastung zu senken. Für Dauerhaft ist das aber keine Alternative. Und da hat ganz klar NV geschlampt. Klar das ganze bezieht sich auf OC, sollte also differenziert betrachtet werden.

Überzeugen brauchst du mich an der Stelle übrigens nicht. Das macht NV schon selbst, wenn es passt ;) Oder es enttäuscht halt, wenn es nicht passt.
 
Ich kann mir beim besten Willlen nicht vorstellen das sie sich dazu herablassen bei solch exklusiven Produkten Angaben nicht der Wahrheit entsprechend zu tätigen

Die Kundschaft würde den Konzern mit Klagen überdecken das sie "grün" vor Angst werden,wenn der Knoten plötzlich nicht mehr ausreichen würde um alle Steckkarten zu versorgen,bei Vollast

Immerhin sind das Spezifikationen der Tesla/Quadro Rige und nicht der Geforce Sektor
 
Zuletzt bearbeitet:
scully kennst du reale Messungen aktuell von GK110 Produkten!?

Tät mich mal interessieren, was da wirklich bei rum kommt ;)
 
Aktuell nicht aber ich verwette mein rosa Popöchen darauf das im Profisegment die Angaben dem entsprechen was dort auch abgedruckt ist:)

Das ist mit Nvidias Hauptstandbein,wenn sie das verlieren würden bzw Marktanteile einbüßen,aufgrund von fehlerhaften Spezifikationen,würde sich die "Katze" in den Schwanz beißen
 
Zuletzt bearbeitet:
Hübie hat vermutlich Zugang zu einer K20(X), ich vermute mal er arbeitet an ner Uni oder sowas. Vielleicht kann er mal was dazu sagen, wie er so sicher sein kann :d
 
Mich würde an der Stelle primär interessieren, wieso die Einstufung nur 10W höher an der Stelle ist, obwohl rechnerisch da mehr bei rum kommen sollte.
Bleiben zwei Vermutungen, K20X agiert über dem Wert, oder K20 non X agiert unter dem Wert.
Alternativ, die Theoretische Rechnung passt nicht :fresse:
 
Hübie hat vermutlich Zugang zu einer K20(X), ich vermute mal er arbeitet an ner Uni oder sowas. Vielleicht kann er mal was dazu sagen, wie er so sicher sein kann :d

Nicht ganz. Ich arbeite bei Europas größtem Aluminium-Veredeler. Aber hier haben wir keine K20x. Sonst würde ich höchst persönlich daran fummeln und Bilder posten ;-)
Ein früherer Benchmark ohne optimierten code ergab 208 Watt. Das steigerte sich nun schon (Wert is mir gerade entfallen muss nachher zuhause schauen). Ebenso die Perfomance. Der bench ist ein run einer Simulation. Es geht um Materialforschung.

LG Hübie
 
:haha: So in etwa. Wir designen nicht sondern konstruieren. Unsere Kunden kommen aus allen möglichen Industriezweigen. Hauptsächlich Automotive-, Solarenergie- und Baubranche. Aber wie gesagt haben wir bei uns keine K2049 und auch keine K20x im Hause. Es bilden sich nur die seltsamsten Kontakte wenn du quer durch die Industrie Kunden hast.

Frag doch mal bei Bang & Olufsen an ob die nicht interesse hätten. Und wenn die nur das Kühldesign übernehmen... :xmas:
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh