nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Hihi. Lustig. Will noch wer :popcorn:

Ihr und eure Bandbreite. Ihr wisst schon dass GB/s != GB/s ist oder? Mal sehen wer als erster drauf kommt. Ich setz auf box :bigok:

GK110 nutzt seine Bandbreite durch die größeren Caches besser aus? Bzw. kann Daten länger on-chip halten und muss erst "später" zum VRAM gehen? :d
Damit könnte man evtl. viele dieser kleinen Dateitransfers (die aber wohl alle eine Mindestdauer haben, Stichwort Zugriffszeit und Mindestblockgröße beim VRAM) vermeiden.

Entsprechend wäre der Vorteil eines 384bit Interfaces evtl. überproportional groß, weil man mit mehr Breite mehr Sachen gleichzeitig machen und damit diese Transfermindestdauer etwas umschiffen kann.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Karte los zu werden ist mein geringstes Problem wen Titan für 900 Euro dann auch bitte Vollausbau wo man weis das bis Mitte Ende 2014 nichts mehr kommt in 22 NM .
Ich möchte gerne auch das Maximum aus dem Silizium haben .
 
GK110 nutzt seine Bandbreite durch die größeren Caches besser aus? Bzw. kann Daten länger on-chip halten und muss erst "später" zum VRAM gehen? :d
Damit könnte man evtl. viele dieser kleinen Dateitransfers (die aber wohl alle eine Mindestdauer haben, Stichwort Zugriffszeit und Mindestblockgröße beim VRAM) vermeiden.

Entsprechend wäre der Vorteil eines 384bit Interfaces evtl. überproportional groß, weil man mit mehr Breite mehr Sachen gleichzeitig machen und damit diese Transfermindestdauer etwas umschiffen kann.

hatte die ja hier schon angesprochen:d

Natürlich hat GK110 mehr ROPs und mehr Bandbreite und mehr Cache
 
@Hübie
in den PCGH Benchwerten für Metro spielt doch PhysX keine Rolle... Weil es aus ist um Vergleichbar zu AMD zu sein.

Und auch ist es eher uninteressant, welcher MC für welches Vorhaben besser geeignet wäre ;) Denn wir sprechen hier so oder so nur über theoretische Bandbreiten. CPU like dürfte vom theoretischen Maximum der Bandbreite der GPUs so oder so was liegen bleiben. Latenzen, Caches usw. ebenso völlig ungeachtet gelassen.

Aber dennoch verstehe ich nicht so recht, worauf du hinaus willst...
Bei VRAM Taktgleichheit bleiben 50% mehr SI durch nen breiteren Controller. Es ändert somit an der Theorie doch absolut gar nichts.

PS: auch das zur Rate ziehen der Auslastungen, sofern sowas überhaupt messbar ist, bringt da niemanden weiter ;) Denn Metro skaliert so wie es ist. Da nutzt alle Theorie nix :fresse:
 
@Hübie
in den PCGH Benchwerten für Metro spielt doch PhysX keine Rolle... Weil es aus ist um Vergleichbar zu AMD zu sein.

Und auch ist es eher uninteressant, welcher MC für welches Vorhaben besser geeignet wäre ;) Denn wir sprechen hier so oder so nur über theoretische Bandbreiten. CPU like dürfte vom theoretischen Maximum der Bandbreite der GPUs so oder so was liegen bleiben. Latenzen, Caches usw. ebenso völlig ungeachtet gelassen.

Aber dennoch verstehe ich nicht so recht, worauf du hinaus willst...
Bei VRAM Taktgleichheit bleiben 50% mehr SI durch nen breiteren Controller. Es ändert somit an der Theorie doch absolut gar nichts.

PS: auch das zur Rate ziehen der Auslastungen, sofern sowas überhaupt messbar ist, bringt da niemanden weiter ;) Denn Metro skaliert so wie es ist. Da nutzt alle Theorie nix :fresse:

Wer sagt was von PhysX? Das ist immer an. Das belastet ja auch nicht. Lies noch mal ;) Es geht um die erzeugten Threads. Und ja genau bei dieser Engine ist der Bandbreitenvorteil mit genügend ALUs entsprechend groß. Fermi verreckt an den TFLOPs und Kepler an Speicherbandbreite. Wer mit einer GTX 680 hat mal Lust bei 211 GB/s nachzumessen? Das wäre das Äquivalent zu meinem Speichertakt/Datendurchsatz.

Edit: Die 4A-Engine ist ein kleines Meisterwerk wenn mans so nimmt.

Edit2: Brainfart. GK104 hat ja wieder andere SMs :d Ihr müsst also kurz gesagt entweder Spiel für Spiel betrachten oder das Gesamtbild heranziehen. Ein Spiel ist einfach cherry-picking und deutet erst mal auf rein gar nichts hin. Metro macht mit seiner 4A-Engine einen völlig anderen Ansatz.
Da fällt mir ein: Dirt Showdown ist auch ein interessanter Kandidat.
 
Zuletzt bearbeitet:
Wie können Fermi und Kepler an unterschiedlichen Dingen kranken in dieser Engine, wenn sie gleich schnell sind? Kepler ist trotz doppelter Rechenleistung nur 5% schneller als Fermi - das würde bedeuten, dass Fermi auch schon bandbreitenlimitiert ist, sonst könnte Kepler da etwas mehr Vorteil rausziehen.
 
Zuletzt bearbeitet:
Siehe mein Edit ;) Gibts für nVidia keinen Gratis-debugger? Bei AMD gabs ja GPUView oder wie das hieß...
 
Zuletzt bearbeitet:
Der Titan wird mit Sicherheit sehr sehr schnell werden,- und in etwa auch die Geforce 690 erreichen können, dementsprechend auch der Preis.
Vielmehr interessanter wird aber die GTX 780 ? oder wie auch immer werden,- und falls Titan so kommt als angenommen, wird die GTX 780 wohl ca. 25-30% schneller als die GTX 680 werden.
Dies ist nicht unbedingt viel, aber dies muss AMD auch erst erreichen... Und es wird recht spannend werden!

Hoffe das der Preis bei der GTX 780 Karte in etwa stimmt und die 450 Euro nicht überschreitet.
 
Bei den meisten Produkten würd ich jetzt sagen, dass man doch in den nächsten 1 bis maximal 2 Wochen echte Details zur Leistung und dem Preis kriegen müsste, falls da was Ende Februar erscheinen soll.
Letztes Jahr wars aber doch so, dass man bis zur Cebit nahezu nichts wusste, selbst ob der GK110 noch kommen würde war nicht 100% klar. Die lassen einen also wieder bis ans Limit zappeln und strampeln. Die Bombe wird wohl erst in ein paar Wochen platzen, obwohl man jetzt schon heiß ist :mad:
 
Am Renderer von Dirt Showdown hat AMD direkt mitprogrammiert, das taugt sicherlich nicht für einen Vergleich zwischen AMD und Nvidia.
 
Das Argument verstehe ich nicht...
Die GTX 690 ist aktuell die schnellste Serienkarte am Markt... Und somit muss diese auch für einen Vergleich im Extremfall herhalten.
Das GK110 schneller als GK104 Single GPU wird, steht wohl außer Frage.

Und dabei passt der Vergleich sogar recht gut. Da eben GK104 und GK110 zu vielen Teilen ähnlich aufgebaut sind. Nur das letzterer eben breiter wird, aber es ändert sich wie bei einem Fermi Vergleich wenig bis nichts an der Technik selbst.

Warum ich den Vergleich gemacht habe, hab ich oben schon erleutert. SLI auf der 690er bietet den 1A Vorteil, das es vorhersagbar ist. Einfach weil man schlicht zwei Bilder zur selben Zeit berechnet. Und 100% der Ressourcen von GPU A für Bild A zuständig sind, wärend 100% der Ressourcen von GPU B für Bild B zuständig sind.
Somit ergibt sich eine 1:1 Vorhersagbarkeit (ohne störende CPU Limits) von Single GPU zu SLI.

Beim GK110 passt das rechnerisch aber nicht. Denn die ~80% SLI Skalierung würden bedeuten, das GK110 um die 950-1GHz Takt benötigen würde im Vollausbau. Sowie ne Speicherbandbreite von ~360GB/sec. Das dürfte aber weit über der Realität liegen. Speziell die Bandbreite.
Eher legt GK110 im Schnitt um 50% zu. Rein bei den ALUs vllt was mehr.
Zählt man 1:1 zusammen, wird es damit nicht reichen ;) das dürfte offensichtlich sein.

PS: zumindest in der "Rosine" Metro, was trotz Bandbreitenlimit auf ner Single GK104 GPU im SLI oder Quad/4-Way SLI sehr gut skaliert!

na, da wäre SLI vs quad SLI dann ja schon interessanter. Gerade weil es bei der 690er ja immernoch sehr gut skaliert
 
Am Renderer von Dirt Showdown hat AMD direkt mitprogrammiert, das taugt sicherlich nicht für einen Vergleich zwischen AMD und Nvidia.

Das mag sein, aber dennoch ist diese Engine sehr interessant. Und vor allem hübsch :) Metro frisst viel Performance in Realtion zur Optik. Habe eben mal die Shader-files von Metro extrahiert. Leider kommt man da nicht mit einem Texteditor ran... wäre ja zu schön um wahr zu sein.
 
Zuletzt bearbeitet:


Auch ein Kandidat wo der GK110 überzeugen sollte.
Gibt so einige Titel wo der GK104 stark hinterher hinkt.

Man sieht wieder gut wie schwachbrüstig die GTX680 ist wenn das ganze Taktbereinigt wäre zur GTX580 hier wird auch mit Bokeh Compute-Shadern berechnet bei Tiefenunschärfe.

Gespannt ob man das mit dem Titan auf den Seailand auf holen kann wen der launch bei beiden erfolgt ist.
 
Zuletzt bearbeitet:
Pc games hat auch so getestet von da her ich schaue nie auf eine Seite und suche die Mitte.
Zu mal es mir um die 580 und die 680 ging.
 
Zuletzt bearbeitet:
Ich denke wenn der Titan wirklich so kommt mit seinen 240TMUs und 2880 shadern dann wird AMD wohl ganz schön platt gemacht weil ich glaube der Tahiti hat im vergleich zu den shadern einfach zu wenig TMUs und kann sich deswegen teilweise kaum von der GTX680 absetzen obwohl dieser 1536Shader hat und auch weniger Bandbreite besitzt.
Der Titan bekommt ja dann 240TMUs und der Seailand nur 160TMUs von daher glaube ich wird der Titan wirklich brutal schneller!

Meiner erfahrungen wahren seit der 8800er das meist die shader nicht mehr richtig scallierten wärend die TMUs immer für einen gewaltigen schub gesorgt haben.

Das sieht man ja auch teilweise beim Tahiti vs GK104 gleiche TMU anzahl und nahezu gleiche leistung
 
Ich glaub nicht, dass es an den TMUs liegt. Tahiti kann sich schon ein Stück absetzen, halt erst bei höheren Auflösungen (Frontend) und viel MSAA (Bandbreite).
Mir ist zwar klar, dass ein architekturübergreifender Vergleich nicht so einfach ist, aber schau mal Kepler und Fermi an. Doppelt soviele TMUs und mehr Takt wie GF110 aber im Schnitt 35% mehr Speed, maximal 50% in ausgewählten Titeln/Settings. Oder GF114 und GF110 - gleiche Füllrate, aber GF110 ist 40% flotter. Die TMUs sind es also wohl nicht.
 
Wer sagt was von PhysX? Das ist immer an. Das belastet ja auch nicht. Lies noch mal ;) Es geht um die erzeugten Threads. Und ja genau bei dieser Engine ist der Bandbreitenvorteil mit genügend ALUs entsprechend groß. Fermi verreckt an den TFLOPs und Kepler an Speicherbandbreite. Wer mit einer GTX 680 hat mal Lust bei 211 GB/s nachzumessen? Das wäre das Äquivalent zu meinem Speichertakt/Datendurchsatz.

Eigentlich sind die Threads ziemlich egal...
Denn eine Grafikkarte lebt davon, das sie massivst mit parallel ausgeführten "Anweisungen" befeuert wird. Und wie du die Last nun erzeugst, ist schlussendlich ziemlich nebensächlich. Das ganze wird "unter der Decke" in für die ALUs ausführbaren Code umgesetzt und kommt dann quasi ohne Zusammenhang über den Scheduler auf die ALUs. Ob du dabei Auslastung via Grafik-Shadercode oder via OpenCL/Cuda erzeugst, ist den ALUs dabei vollkommen wumpe. Auch gibt es meine ich keine Priorisierung an der Stelle...

Und ja, Metro ist nur eine Rosine des ganzen Kuchens. Sollte in dem Fall aber als ein Extrembeispiel herhalten. Und das tut es auch sehr gut.
Auffallend ist bei Metro übrigens auch, Fermi skaliert ebenso vergleichsweise stark über die Bandbreite. Ich habe das damals selbst erlebt, weil meine 465er zur 470er geflasht trotz GPU OC nur 1550MHz VRAM Takt mitmachte. Es war somit ca. GTX 480 GPU Leistung drauf. Aber mit nur ~69% der Bandbreite einer echten GTX 480.
In Metro lag ich extrem weit hinter den Leistungen der 480er zurück...
So pauschal zu sagen, bei Fermi limitiert die GPU in Metro ist also nicht ;) Leider kann ich die Benches nicht mehr nachstellen ohne den ganzen PC umzubauen -> worauf ich keine Lust habe.

Aber ggf. kann box ja mal was nachstellen. Ich gehe jede Wette ein, mit ner 580er oder 580er SLI skaliert der Spaß ähnlich extrem über die reine Speicherbandbreite wie GK104 in Metro.


PS: um bei Metro zu bleiben, bei 20% OC beim VRAM Takt, erreicht man mit GK104 in Metro schon ca. 10% mehr Leistung. Leider kann man den VRAM nicht so hoch stabil OCen, um zu sehen, wann die Kurve wegbricht. Mit nachstellbaren Werten bleibt die Skalierung recht stabil...
Und aufbauend auf dieser Taktsache, behaupte ich, GK110 wird es in Metro ebenso schwer haben massive FPS Mehrleistung zu bringen. Zwei GK104 skalieren bei exakt doppelter Hardware im SLI mit grob 80-90% und das auch nur, weil die Hardware unabhängig von einander zwei Bilder berechnet. GK110 wird diesen Vorteil nicht haben und müsste für ähnliche Leistungen einer 690er aus grob spekuliert ~50% mehr Rohleistung in fast allen Bereichen (außer bei den ROPs) 80-90% mehr FPS zaubern. -> das wird nix ;) Und wenn ja, dann Hut ab :fresse:
 
Ich kann Metro mal mit Standardtakt und weniger VRAM-Takt benchen (mehr geht nicht stabil leider). Den integrierten Benchmark möchte ich nicht benutzen, der gibt nur Käse aus. Soll ich einfach irgendeine Stelle nehmen oder gibts Vorschläge?
 
im Thread von Broly gibts ein Save... Da kannst die Stelle von PCGH nachstellen ;)
Standardtakt für GPU reicht ja. Interessant wäre, was passiert, wenn du dem Teil mal sagen wir 50% Bandbreite klaust. Denn die 580er hat ja ca. 50% der ALU Leistung von GK104 bei gleicher Bandbreite.
Ich gehe fast jede Wette ein, die Performance wird ähnlich massiv wegknicken, wie sie mit VRAM OC beim GK104 steigt.
Auch ein Run mit vllt 25% weniger Bandbreite als Mittelding zum default Zustand wäre gut um so sehen, ob es linear skaliert.

PS: PhysX natürlich aus, rest auf max.
FullHD + AA oder 1440/1600p + AA. Wobei letzteres wohl keine spielbaren FPS Raten mehr bringen würde :fresse: zumindest nicht mit einer Karte.
 
Zuletzt bearbeitet:
Ich glaub nicht, dass es an den TMUs liegt. Tahiti kann sich schon ein Stück absetzen, halt erst bei höheren Auflösungen (Frontend) und viel MSAA (Bandbreite).
Mir ist zwar klar, dass ein architekturübergreifender Vergleich nicht so einfach ist, aber schau mal Kepler und Fermi an. Doppelt soviele TMUs und mehr Takt wie GF110 aber im Schnitt 35% mehr Speed, maximal 50% in ausgewählten Titeln/Settings. Oder GF114 und GF110 - gleiche Füllrate, aber GF110 ist 40% flotter. Die TMUs sind es also wohl nicht.

der hotclock ist ja auch weggefallen beim GK104 und war es nicht so das beim Fermi die TMUs im bestfall zwei operationen beweltigen konnten und sie dadurch deutlich effizienter sind genauso ist auch mit den 512Shadern welche durch denhotclock eben sau stark sind und beim GK104 nur mit 1064Mhz laufen dafür aber gefüttert werden wollen. Ist wie mit nem 3930K vs. 2700K werden nur 3 Threads angefordert sind beide gleich schnell.
Ich schätze die 1536shader werden nicht immer voll ausgelastet deswegen ist der Fermi teilweise dicht dran.
Der Fermi ist sowieso eine sehr gut ansprechbare GPU
 
Manche Games verlangen auch noch viel Bandbreite, hier ist GK104 aufgrund der hohen Rohleistung aber im Vergleich zu GF110 nicht gesteigerten Speicherbandbreite im Nachteil. Siehe den Test von Broly -> Metro 2033 etwa. Dort waren es iirc glaube an die 10% Mehrleistung bei einer 680er mit 1752 MHz vs. 1502 MHz GDDR5. Weitere ~ 7% noch einmal mit 1250 MHz GPU-Takt zum VRAM-OC vs. default Baseclock/Boost und VRAM-OC. In solchen Games wird GK110 auch ordentlich nachlegen. :)

Aber ich denke ebenso, dass der fehlende Hotclock auch einen gewissen Einfluss ausübt.
 
Zuletzt bearbeitet:
@Powerplay
GK104 hat theoretisch die doppelte SP Leistung wie GF110. Unterm Strich in Games bleiben ca. 30-35% für ihn übrig. -> sollte klar sein, das dort die ALUs nicht vollumfänglich ausgefahren werden :fresse:

Wobei aber auch dazu kommt, steigende Einheitenanzahl skaliert idR nicht 1:1 mit der Leistung. Eine Verdopplung wird idR nicht doppelte Leistung bringen. Und wir sprechen hier ja von einer Verdreifachung...

Diesen Umstand musste AMD aber auch schon ein paar mal miterleben. Nämlich das um so mehr ALUs verbaut werden, um so häufiger flacht die Skalierungskurve etwas ab...
 
Pc games hat auch so getestet von da her ich schaue nie auf eine Seite und suche die Mitte.
Zu mal es mir um die 580 und die 680 ging.

Schon klar, allerdings zeigen die aktuellen Entwicklungen, das man nicht nur auf Balkenlänge starren, sondern die Spielbarkeit in der Vordergrund stellen sollte, genau das macht HardOCP ganz gut.
 
Wo sind denn dann jetzt die bombigen Ankündigungen zum GK110 Titan? Wann gehts denn los? Wenn die wirklich in 4 Wochen Gummi geben wollen, dann wirds Zeit. Aber nein, da kommt nix. Warum? Weil der Titan erst April-Juni kommt, oder gar nicht so schnell ist, wie angenommen! So wirds doch kommen, machen wir uns doch nix vor :(
 
Ja das ist ja auch klar das viel ALUs auch viel futter haben wollen und wenn die Speicheranbindung zu schlapp ist kommt auch nix rum!
Von Engine zu Engine wird es immer was geben was der limitierende faktor ist!
Echt schade das der GK104 damals nicht 384Bit bekommen hat...

Beim Titan würde ich auch behaupten damit der voll aufdrehen kann brauchste 512Bit bei 2000Mhz RAM takt!
Naja allerdings werden wir auch bald neue engines bekommen wegen PS4 und XBOX3 und vieleicht scalliert das alles ja dann ganz anders
 
Zuletzt bearbeitet:
@blair was haben 20 Fps minimum mit Spielbarkeit zu tun.
Der screenshot oben in Full HD sagt genauso aus ob spielbar oder nicht da die min fps mit angezeigt werden da für brauche ich keinen Frameverlauf schon gar nicht von ca 30-60 Sekunden Benchmarks.
Also Essig.

@Supermax
Mir brennt es auch schon unter den Nägeln.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh