nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Ha! GA-Thrawn. Beat Street.Magen (AMD)Magen
Bitter.

---------- Post added at 01:31 ---------- Previous post was at 01:26 ----------

GK 110 Big Valley Beat Street.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich weiss garnet was er von mir will, bin wohl zu alt für die sprache^^
evtl muss er seine minderwertige hardware, va im grafik und mobilbereich ja kompensieren^^

@Hübie: Das das net gegen ihn gerichtet war sondern spass war denk ich klar, sry
 
Zuletzt bearbeitet:
Ja das hab ich schon so aufgefasst, keine Sorge ;) Ich musste da nur zwangsläufig an die Situation denken. Was will uns ONE_FOR_ALL sagen? Ich verstehe Null Komma Null von dem was er da schreibt :d
 
Tja man meint, man braucht gar keine neue Highend Karte. Dann sieht man, wie Hitman Absolution oder Far Cry 3 oder auch Assassins Creed 3 laufen und schon denkt man an ne neue Karte....

Nvidia und co. gehen einfach zu verdammt kleine Schritte, so kommt man selbst bei 1080p nicht allzu sauber hinterher. Klar laufen die Spiele grob ganz gut, aber bei weitem nicht im absolut zufriedenstellenden Bereich. Das liegt aber natürlich sicher auch an den Entwicklern, die diese ganzen Spiele durch den verdammten Konsolendrecksmarkt ziehen und die Performance darunter stark leidet. Das sind ja alles keine sauber optimierten Spiele. Die werden so grob aufn PC portiert mit ner Performance, die unter aller Sau ist.

Was soll man jetzt mit nem GK110, der nur um die 20% schneller als die 680 ist im März 2013? Das ist doch viel zu lahm!!! 30-60% muss das Teil draufpacken sonst kommen wir nicht weiter :mad:
 
Zuletzt bearbeitet:
Tja man meint, man braucht gar keine neue Highend Karte. Dann sieht man, wie Hitman Absolution oder Far Cry 3 oder auch Assassins Creed 3 laufen und schon denkt man an ne neue Karte....

Nvidia und co. gehen einfach zu verdammt kleine Schritte, so kommt man selbst bei 1080p nicht allzu sauber hinterher. Klar laufen die Spiele grob ganz gut, aber bei weitem nicht im absolut zufriedenstellenden Bereich. Das liegt aber natürlich sicher auch an den Entwicklern, die diese ganzen Spiele durch den verdammten Konsolendrecksmarkt ziehen und die Performance darunter stark leidet. Das sind ja alles keine sauber optimierten Spiele. Die werden so grob aufn PC portiert mit ner Performance, die unter aller Sau ist.

Was soll man jetzt mit nem GK110, der nur um die 20% schneller als die 680 ist im März 2013? Das ist doch viel zu lahm!!! 30-60% muss das Teil draufpacken sonst kommen wir nicht weiter :mad:
Wie hier immer über den Konsolenmarkt hergezogen wird, ist echt köstlich. Ohne Xbox360 und PS3 wäre der PC Markt so ziemlich tot, aber okaay.

Ganz ehrlich: wenn mein Spiel auf Konsolen 2-3 Millionen Leute kaufen und 50.000 auf dem PC (+1Mio über Torrent), dann würde ich mir keine Mühe machen das Spiel noch gross für den PC zu optimieren.
 
Dass sich die Konsolen für Entwickler deutlich mehr lohnen, ist klar. Das ändert aber nichts an der Sichtweise der PC Spieler, die den Mist kritisieren müssen und dürfen.
Und tot oder nicht....das kann man so wohl überhaupt nicht einschätzen, da man nicht weiß, wie sich das Ganze entwickelt hätte. Auf jedenfall wären wir alle deutlich weiter, wenn die Konsolen in kürzeren Abständen aktualisiert würden. Ja, Entwickler müssen sich dann in kürzeren Abständen an neue Techniken anpassen. Pech :)
 
allein schon "affig" das ganze in "lager" zu teilen. ich für meinen teil kann mich nit an einen tag ohne computer und spielkonsolen erinnern.. nicht einer in fast 30 aktiven jahren. und ich kaufe sogar spiele doppelt.. betonung auf "kaufe". skyrim und die GTAs sind da solche beispiele.. liegen hier original für xbox + PC. für mich gibts spieler und die teilen sich nicht in lager.. heute ist es natürlich leicht, konsolen zu belächeln, aber das ändert sich auch wieder.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Wie hier immer über den Konsolenmarkt hergezogen wird, ist echt köstlich. Ohne Xbox360 und PS3 wäre der PC Markt so ziemlich tot, aber okaay.

Ganz ehrlich: wenn mein Spiel auf Konsolen 2-3 Millionen Leute kaufen und 50.000 auf dem PC (+1Mio über Torrent), dann würde ich mir keine Mühe machen das Spiel noch gross für den PC zu optimieren.

das ist mal ein käse, wäre der pc die einzigste möglichkeit zu zocken würden zwar weniger spiele insgesamt verkauft werden ,aber immer noch extrem viel mehr pc spiele als jetzt, einfach weil die zocker keine alternative hätten. dann würden wir auch auch mehr grafikkracher sehen.
ich hab selbst ne ps3, aber der pc ist und bleibt zockmittelpunkt und ohne konsolen könnte ich sehr gut leben
 
es gibt unglaublich viele menschen, die mit dem pc gar nicht spielen wollen. wir erinnern uns? -> einstöpseln und läuft, ohne folgeinvestitionen für 5-10 jahre..


(..)

mfg
tobi
 
lies mal meinen post nochmal genauer, ich schreibe ja das weniger spiele verkauft würden ,das beeinhaltet eben die die das nicht wollen..
wobei ich denke das es auch in der hinsicht am pc verbesserungen gegeben hätte in diesem falle, sprich plug and play, istja auch bei fertig gaming pcs nahe dran oftmals, nur hätts fast nur vorteile für uns pc gamer
 
Mit Steam und Co hast du sowas ja quasi schon. Sprich anmelden und losspielen. Ohne CD/DVD im Laufwerk und von jeglicher Hardware weltweit. Würde der PC Gamermarkt lange Tot sein, wäre sowas gar nicht erwachsen. Und ich muss persönlich sagen. Steam ansich als Plattform (nun unabhängig ob man damit klar kommt oder nicht) ist nicht verkehrt. Da kann keine Konsole in meinen Augen mithalten. Oder geht sowas da mittlerweile auch?
Ein Vorteil von Konsolengames wie keine Accountbindung schwindet ja mittlerweile auch. Und der Gamermarkt hat auch erkannt, dass man sich mittlerweile in eine Sackgasse bewegt. Daher auch der Umschwung hin zu f4p, was ja einige große Spieleschmieden für ganz paar Titel angekündigt haben.

Aber nun gut, das hat alles so gar nix mit GK110 zu tun. Also :btt:
 
ja natürlich hast du das auf konsolen auch.. bei xbox-live seit ende 2005 -> DLC, classic games und auch vollwertige 360-spiele als download.


(..)

mfg
tobi
 
bei quasi fast allen!?
Steam ist ja mittlerweile bis auf ein paar Ausnahmen so groß, das es das nahezu alles gibt :fresse:
Mit Ausnahme von EA Titeln. Wobei das auch erst seit BF3 der Fall ist, die Vorgänger gabs auch auf Steam. Ala BF:BC2...

Aber sei es drum. Mal schauen was draus wird...
 
Gibts da was neues bezüglich der Termine?

Oder ist März 2013 noch Stand der Dinge für "Big K" :)

Bin echt gespannt was die 680er Nachfolgerin so drauf haben wird...
 
mir ist nix bekannt. Bleibt also vererst bei den alten Spekulationen...
 
Na ja Bäume werden halt nicht ausgerissen. Die Perf/Watt Realtion wird sich etwas verschieben und die Performance wird steigen. Also eigentlich nüchtern betrachtet nichts spektakuläres, was wir nicht aus vergangenen refresh-chips kennen ;) Das liegt vor allem an der lahmen Software-Industrie.
Interessant könnte es werden wenn game-engines vermehrt auf computepower setzen. HyperQ und dynamic paralism sind features die, richtig eingesetzt, 15% Schub geben. Wenn nicht noch mehr.
 
Die Frage ist aber eher, kann sich das die Spieleindustrie erlauben?
Gutes Beispiel PhysX (finde ich zumindest)
Willst du richtig fett auftragen mit PhysX, sollte es schon ne GPU ziemlich weit oben im Leistungsregal sein. Greifst du da zur Mittelklasse, hat die GPU allein schon zu tun um überhaupt das Bild flüssig rüber zu bringen...
Klar ist alles eine Frage der Ansprüche, dennoch sieht man schon denke ich ganz gut, wohin die Reise geht... Die GPU mit noch mehr Aufgaben zu überfordern, halte ich für den falschen Weg aktuell. Denn um so mehr Aufgaben die GPU nebenbei noch zu tun hat, desto weniger Luft bleibt allein für die Bildberechnung... Dazu kommt, die Sprünge zwischen den Generationen selbst werden irgendwie langsam kleiner und somit sinkt wohl auch die Wechselrate der GPUs beim Endkunden...

Ich bin da eher für mehr Optimierungen, aber das kostet Geld und bringt den Spieleentwickler wiederum nur ärger :fresse:
 
Also CB schreibt folgendes in ihrem 680er Review:
"Auf der GeForce GTX 680 verbaut Nvidia die GK104-GPU, die anders als gewohnt nicht die schnellste Ausbaustufe darstellt. Dies trifft erst auf den GK110 zu, der den neusten Gerüchten zu Folge allerdings noch einige Monate auf sich warten lässt – frühestens im dritten Quartal soll er aufschlagen, vielleicht aber auch später."

Je nachdem ob die sich da weit aus dem Fenster lehnen oder nicht erwarte ich da im Sommer nix, weil es untypisch wäre. Herbst + das was noch an Zeit drauf geht, um mögliche Probleme in den Griff zu bekommen.

Leistungstechnisch erwarte ich wie schonmal gesagt nicht zu viel vom GK110.
GK104 bei ~200W und 1536 ALUs, 128TMUs und 32ROPs bei ~1GHz ist schon ziemlich weit oben in der Liste.
Bekommt GK110 deutlich mehr Ausführungseinheiten, wie teils spekuliert über 50% mehr, dann wird beim Takt deutlich was an Federn gelassen werden müssen, um die 300W nicht zu sprengen.
Ich rechne sogar mit nem Quadro/Tesla Ausbau von ~225-250W im Max. Der Gamerpart ggf. Fermilike mit etwas mehr Ausführungseinheiten und etwas höherer Leistungsaufnahme.
Dennoch bleibt von ~200W nur maximal 50% Luft nach oben. HighEnd GPUs waren nie effizienter als die Mittelklassechips. Also wenn überhaupt kommen da 30-40% Mehrleistung rum. Oder man nimmt wirklich die 300W+ und zieht den Chip noch höher. Was aber Marketingtechnisch auch daneben wäre, die Konkurenz schafft man stand heute mit GK104. Wozu also mit GK110 zu weit vorpreschen, wenn man sich damit bequem auch nächstes Jahr noch potentielle Kunden angeln könnte!?

Man sollte jedoch bedenken das nVidia bis jetzt zeit hatte das design auf transistorebene weiter zu optimieren und der GK110 in seiner jetzigen revision in der er erscheinen soll im verhältnis wieder weniger strom verbrauchen wird als der gk104-7 in seiner anfänglichen revision... die fermi refreshes in form der gtx 5xx waren schließlich auch die besseren fermis wo doch die architektur im vergleich zur gtx 4xx serie identisch geblieben ist.

ebenso war es bei der 5er generation möglich die taktrate zu steigern und dabei im grunde sogar noch strom zu sparen...

deine vermutung das der vollausbau der kepler demnach viel zu viel energie konsumieren würde bei ähnlichen taktraten halte ich demnach nicht unbedingt für haltbar ;)
 
Zwei Punkte:
1. Fermi v1 war "kaputt", da bestand viel Verbesserungspotential, Kepler ist ok.
2. Ein breiteres Design mit niedrigerem Takt hat Effizienzvorteile, weil die Spannung niedrig gehalten werden kann. Über den Takt Leistung zu generieren ist IMMER ineffizient im Vergleich.

K20X schafft mit 6GB und 732MHz 235W. Nimmt man ca. 15W weg für die zusätzlichen 3GB, könnten wir bei 250W rauskommen für ca. 850 MHz. 40% bei 250W sind mMn garantiert drin, vielleicht 50%.
 
K20X schafft mit 6GB und 732MHz 235W.

Zumal das Design auf absolute Sicherheit getrimmt ist,der Geforce muss nicht zwingend das selbe Vcore Verhältniss haben,wie der Tesla Chip

Allein dadurch ergibt sich nochmals Spielraum für Takt,und oder aktivierte Shadercluster,wenn man das forciert
 
Zuletzt bearbeitet:
Man sollte jedoch bedenken das nVidia bis jetzt zeit hatte das design auf transistorebene weiter zu optimieren und der GK110 in seiner jetzigen revision in der er erscheinen soll im verhältnis wieder weniger strom verbrauchen wird als der gk104-7 in seiner anfänglichen revision... die fermi refreshes in form der gtx 5xx waren schließlich auch die besseren fermis wo doch die architektur im vergleich zur gtx 4xx serie identisch geblieben ist.

ebenso war es bei der 5er generation möglich die taktrate zu steigern und dabei im grunde sogar noch strom zu sparen...

deine vermutung das der vollausbau der kepler demnach viel zu viel energie konsumieren würde bei ähnlichen taktraten halte ich demnach nicht unbedingt für haltbar ;)

schau dir an, was ich im März spekuliert habe und schau dir an, was K20 heute auf GK110 Basis ist...
- K20(X) landet mit 225/235W TDP genau dort, wo ich ihn sah.
- Takttechnisch hat K20 massiv Federn gelassen, wie von mir spekuliert
usw.

Es bleibt weiterhin abzuwarten, wie sich der Spaß entwickelt. Denn wenn man einen GK110 mit viel Transistorbalast im Gamermarkt effizienter hinbekommt, wie einen GK104 in der "ersten Version", wäre ein Refresh von GK104 mit mehr Effizienz genau so denkbar.
Noch dazu war damals im März davon auszugehen, das GK100 bzw. 110 als Topmodell oben drauf kommt, nicht wie man heute spekuliert, als 700er Karten aufschlagen. Dementsprechend liegt also auch die Vermutung nahe, das man am GK104 etwas optimieren wird. Sollten da mehr wie 40% Leistung über Top GK104 rum kommen, muss irgendwas noch dazwischen kommen um die Lücke zu schließen. Die Sprünge wären untypisch groß zwischen den Klassen.

PS: es ist nichtmal 100% klar, ob man die Effizienz von GK110 als K20 Tesla GPU überhaupt 1:1 auf ein Gamermodell übertragen kann. Ich sag mal so, im GPGPU Bereich werden fast ausschließlich die ALUs genutzt, mit ein bisschen drumrum wie dem Speicherinterface usw.
Im Gamerbereich arbeiten noch ganz paar mehr Einheiten neben den ALUs und dem SI. ;) Die fallen quasi gänzlich aus der Effizienzbetrachtung.
Auch ist stand heute nicht klar, was GK110 mit dem Turbomodus macht bzw. ob es einen geben wird. Die Warscheinlichkeit liegt sicher hoch, das es einen geben wird. Aber verhält sich dieser analog zu GK104, so dürfte Spannungstechnisch durchaus wieder gut eine Reserve mit einkalkuliert werden. Ob man damit die Effizienz der fix getakteten K20 Modelle hält, ist also nochmals unwarscheinlich.

Es bleibt also weiterhin spannend. Vor allem, wo sich AMD platzieren wird. Nach letzten Gerüchten könnte die AMD Karte gar später als GK110 kommen, mit dem Vorteil, das man seitens AMD dann mit dem Takt agieren kann um die Lücke zu verkleinern/zu schließen oder gar um sich vor GK110 zu platzieren. Analog wie es GK104 seinerzeit gemacht hat. ;)
Ich denke auch, das so um die 800-850MHz Takt bei 14, ggf. sogar vollen 15 SMX drin sein werden. +-40-50% in normalen Settings zum GK104 wären damit sicher realistisch. Und ne TDP ~250W.
Ggf. wird man aber auch mit 14 SMX leben, einfach um Reserven in der Fertigung zu haben und um die Ausbeute zu erhöhen.
In wieweit man dort nen refresh GK104 nochmals effizienztechnisch verbessern kann um einerseits die Lücke zu verkleinern und andererseits die Leistungsaufnahme zu verbessern, steht aber auf einem anderen Blatt.
 
Es könnte so kommen:

GK114/204 (kleine SKU): GTX680+0%
GK114/204 (große SKU): GTX680+10-15%
GK110 (kleine SKU): GTX680+30-35%
GK110 (große SKU): GTX680+45-50%

Ganz normal also. Dass die kleineren Chips weiter verbessert werden, ist anzunehmen.
 
PS: es ist nichtmal 100% klar, ob man die Effizienz von GK110 als K20 Tesla GPU überhaupt 1:1 auf ein Gamermodell übertragen kann. Ich sag mal so, im GPGPU Bereich werden fast ausschließlich die ALUs genutzt, mit ein bisschen drumrum wie dem Speicherinterface usw.
Im Gamerbereich arbeiten noch ganz paar mehr Einheiten neben den ALUs und dem SI. ;) .

Ich kann dir aus Erfahrung bescheingen,das der GPGPU Bereich ressourcenfressender,sprich nen höhere Last/Verbrauch erzeugt,wie es je ein Spiel liefern kann.

Das heißt wenn eine Tesla Karte in ein 235Watt Budget passt,schafft das erst recht ein Geforce
 
Zuletzt bearbeitet:
Ich kann dir aus Erfahrung bescheingen,das der GPGPU Bereich ressourcenfressender,sprich nen höhere Last/Verbrauch erzeugt,wie es je ein Spiel liefern kann.

Das heißt wenn eine Tesla Karte in ein 235Watt Budget passt,schafft das erst recht ein Geforce

Gibt es dazu auch Nachweise? ;)
Es gibt viele Möglichkeiten die ALUs zu belasten... Und wenn es einige sicher nicht hören wollen, auch ein Furmark oder ähnliche Tools sind Programme, mit dehnen sich eine GPU potentiell mal rumschlagen muss. Bis jetzt hat das mehr oder weniger sauber geklappt. Und ich behaupte, ein Hersteller wird nicht gefahr laufen, eine GPU derart ans Limit zu fahren, nur um das letzte FPS aus dem Teil zu holen, aber sich Schaden/Problemfälle an Land zu ziehen mit Sachen, die irgendwer irgendwann mal auf den GPUs ausführt.
Abwarten was draus wird...

PS: viele der Benches die mir so spontan über den Weg liefen, zeigen keine erhöhte Leistungsaufnahme bei GPGPU ;) Noch dazu kommt eben die Tatsache, das volle GPGPU Auslastung auch erstmal generiert sein muss. Schlecht optimierter Code und die Kiste läuft nur mit Teillast. Trifft natürlich auch auf Games zu, keine Frage ;)
Wie man ja jüngst an den S10000 AMD FirePro Benches werten sah, wo die Karte teils gut hinter dem theoretischen maximum lag.

Ggf. wird man auch einfach wieder ne Leistungsbremse einbauen, um nicht über das Ziel hinaus zu schießen :fresse:
 
Zuletzt bearbeitet:
Kepler riegelt recht rigoros ab, da darfste dann auch Furmark drauf laufen lassen ;)
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index26.php

Selbst Furmark ist nicht in der Lage die beiden Modelle an das Limit von 225 Watt zu treiben. Wir erblicken Regionen von bis zu 196 Watt, so dass sich uns die Vermutung aufdrängt, dass die von NVIDIA genannte TDP von 195 Watt sich als Maximum für Spiele bei hoch gesetztem Power Target versteht.

TDP liegt bei 195W, auf das eine Watt ist geschissen.

Wo gab es diese Werte zur S10000? Bitte natürlich mit Leistungsaufnahmemessung der Karte(n) selbst.
 
Zuletzt bearbeitet:
Ich meine den 3,6kW Vergleich... Da gabs doch danach nochmal ein Update mit der Aussage, das durch Optimierungen am Speed noch was gedreht werden konnte.

PS: auf meinen GK104 Karten schlägt die Power Target Kurve bei Furmark oder OCCT beispielsweise weniger aus als wenn ich Skyrim mit gleichen Taktsettings spiele :fresse:

Das Abriegeln halte ich übrigens für ne Verarsche... Einfach weil man Gefahr läuft, doch mal gedrosselt zu werden. Gabs meine ich sogar bei einigen AMD Modellen mal.
 
Wo war das noch, hast nen Link?

Jetzt musste ich grad mal lachen - du musst dich nämlich schon entscheiden. Jetzt hält man sich an die TDP und es ist auch nicht recht. Ich glaub langsam, du weißt gar nicht, was du willst. Solange das Ding in Spielen nicht abriegelt (sprich unter den garantierten Basistakt fällt), gibts kein Problem. Alles andere ist Sturm im Wasserglas imo.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh