nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das Upgrade von 3 auf 6GB kost sicherlich auch 150,-€ (GTX680 von 2 auf 4 waren ja 100,-€). Titan mit 6GB (150,-€ Ramaufschlag) plus 100-150,-€ Aufschlag für Mehrleistung, dann kann man schon fast mit 800,-€ leben für die Karte :fresse2:
Skyrim habe ich nur mal kurz angezockt, war aber nichts für mich weswegen es von der Platte flog.
Andere Beispiele wären für mich jetzt interessanter.
 
Thunder, was hattest du denn vor den 580ern?
Kommt ja immer drauf an, was man als Basis hat für den Wechsel ;)


@News. Das ja nur aufgewärmter Kaffee.
Vor allem das Bild und dessen Untertitel ist putzig. Die TDP basiert also auf ner vorsichtigen Schätzung, blöd nur, das da k.A. drin steht :fresse:
Macht irgendwie nen komischen Eindruck.
Vom technischen her kommt es schon hin. GK110 ist ja quasi bekannt... Die wichtigen Sachen, also Takt, VRAM Takt, Turbo und TDP fehlen aber wie immer ;)
 
Die Angaben zu der Chipfläche, den Taktfrequenzen und dem TDP des GK110 (im Vollausbau) beruhen auf vorsichtigen Schätzungen

Nabend allerseits


Vorsichtige Schätzungen nennen die das:haha:

Wie schätzen sie denn dann in optimistischer Stimmungslage

Wenn dat Dingens so erscheint heiß ich Moses oder AMD muss sich schleunigst nach mehr Leistung um sehen

Vollausbau mit 700MHZ lass ich ja noch durchgehen bloß bei denen taktet das Titanchen mit schlanken 900MHZ:asthanos:
 
@fdsonne
8800GTX
HD5970 Dual GPU
2*HD6950 geflascht @HD6970
Dann 2*580GTXen leider zu wenig Ram mit 1,5GB
7*HD7970
Und jetzt Lightning zum Übergang auf die neuen ich teste alles auser die 680er habe ich mich strickt geweigert weil es für (mich) keine Highend ist.
 
Zuletzt bearbeitet:
Bei scullys 700MHz und 15 SMX würde ich sogar sagen wäre ne Gamer TDP Einstufung der 3GB Version von ~225W durchaus drin.
Mit 700MHz packt das Teil aber nur grobe 24% rechnerisch auf GK104 im default Turbo... Ich denke nicht, das das langen wird ;)
 
Bestimmt ich Arbeite hart genug um mein Hobby zu fröhnen,.
 
Bei scullys 700MHz und 15 SMX würde ich sogar sagen wäre ne Gamer TDP Einstufung der 3GB Version von ~225W durchaus drin.

Fakt ist mit 15 Clustern u 900Mhz u lasst den Turbo so aggresiv agieren wie bei der 690er,hätte man nicht die gemutmaßten ~85% sondern man wäre drann wenn nicht gar drüber durch das besser skallierende Singelcoredesign mit der hohen Bandbreite

Wenn sie das schaffen dann Chapeau!

Aber das waren ja eh "vorsichtige" Schätzungen stellen wir uns lieber auf 1GHZ im Frequenzgang ein:fresse:
 
Zuletzt bearbeitet:
Fakt ist mit 15 Clustern u 900Mhz u lasst den Turbo so aggresiv agieren wie bei der 690er,hätte man nicht die gemutmaßten ~85% sondern man wäre drann wenn nicht gar drüber durch das besser skallierende Singelcoredesign mit der hohen Bandbreite

Wenn sie das schaffen dann Chapeau!

könnte schon stimmen...
87,5% mehr ALUs als Single GK104. Die 690er hat doppelt so viele. Aber ein klein wenig weniger Takt. Skaliert im Mittel ohne CPU Limit wohl gegen ~80% durch SLI.

Die Frage bleibt halt, wie die Bandbreite zum tragen kommt. Auch die ROPs steigen ja "nur" um 50%. Fällt der Takt niedriger aus (als GK104), wovon auszugehen ist, legt man auch prozentual weniger zu.
Der "Vorteil" der 690er ist ja schlicht, das sie unabhängig zwei Bilder berechnet. Somit bestenfalls auch doppelte Performance bringen kann. Und gerade der Bandbreitenbedarf somit auf zwei Interface aufgeteilt wird.
Beim GK110 Vollausbau verschiebt sich das ALU Performance zu ROP/SI Verhältnis etwas mehr in Richtung ALU Power.

Ich glaube mit 900MHz übertrumpft man ne 690er noch nicht, bei den Rohdaten... Das müsste grob für gleichstand sorgen. Sofern SLI gut funkt und die CPU nicht rumfuscht.
 
Um das vergleichen zu können, müsste ich Screenshots machen und runterrechnen. Welchen Filter benutzt Downsampling bei Nvidia?

IMHO am besten so:
Nvidia_2x2DS@Nativ.GIF


Das sollte ein fast 1:1 Ergebnis erzielen.

Code:
[URL="http://www.oc-burner.de/ftp/Pictures/3D-Center/Thread%20for%20downsampling/DS_vs_OGSSAA/Half-Life2/2x2DS@2560x1440@1280x720___NvidiaDS_by_Capturecard.png"]2x2DS@2560x1440@1280x720___NvidiaDS_by_Capturecard.png[/URL]
[URL="http://www.oc-burner.de/ftp/Pictures/3D-Center/Thread%20for%20downsampling/DS_vs_OGSSAA/Half-Life2/2x2DS@2560x1440@1280x720___VirtualDub-Bilinear.png"]2x2DS@2560x1440@1280x720___VirtualDub-Bilinear.png[/URL]

[URL="http://www.oc-burner.de/ftp/Pictures/3D-Center/Thread%20for%20downsampling/DS_vs_OGSSAA/Half-Life2/2x2OGSSAA@1280x720___by_Capturecard.png"]2x2OGSSAA@1280x720___by_Capturecard.png[/URL]
[URL="http://www.oc-burner.de/ftp/Pictures/3D-Center/Thread%20for%20downsampling/DS_vs_OGSSAA/Half-Life2/2x2OGSSAA@1280x720___by_Fraps.png"]2x2OGSSAA@1280x720___by_Fraps.png[/URL]

[URL="http://www.oc-burner.de/ftp/Pictures/3D-Center/Thread%20for%20downsampling/DS_vs_OGSSAA/Half-Life2/NoAA_Original@2560x1440.png"]NoAA_Original@2560x1440.png[/URL]
[URL="http://www.oc-burner.de/ftp/Pictures/3D-Center/Thread%20for%20downsampling/DS_vs_OGSSAA/Half-Life2/NoAA_Original@1280x720.png"]NoAA_Original@1280x720.png[/URL]
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Ich schätz mal, dass Nvidia die 690 gar nicht schlagen will, wozu auch? Dafür ist entweder Sli, oder ne eventuelle 790 da, wobei ich die erstmal sehen will, vor allem die Kühlung :d
 
Das muss ja auch nicht sein wen man an der 690 kratzt reicht es doch schon.
Wo bei bei einem Titel wie Metro würde es mich aber nicht Wundern wenn man vor bei kommt da ist der GK104 sehr schwach gewesen .
Ich glaube das ist ein Titel der sich dieses GPPU Zeug oder wie es noch mal hieß zu nutze macht.
 
Metro hängt glaub ich an der Bandbreite. Genauer gesagt, wegen dem DOF. Ohne ist GK104 praktisch gleichauf mit Tahiti.
 
Ja ich bin der Meinung das ich mal wo was gelesen habe zum Beispiel auch Projektcars macht sich das zu nutze und es soll auch bei Konsolen mehr zum Einsatz kommen bin mir da aber auch nicht 100% sicher.
Schau dir mal Metro GTX580 vs. 680 an .
Hier traue ich dem Titan die Führung zu.


Hohe GPGPU-Rechenleistung in der Praxis
Beide HIS-Modelle setzen im GPGPU-Bereich völlig neue Maßstäbe und lassen die Anwender auch bei kommenden Spiele-Highlights mit Berechnungen über die OpenCL- und DirectCompute-Schnittstellen nicht im Regen stehen. Metro ist 2033 mit der DOF-Berechnung (Depth Of Field) nur ein Beispiel für den richtigen Weg von AMD, sich nicht nur auf reine Grafikleistung zu konzentrieren, sondern auch ein perfekt abgerundetes Gesamtpaket zu schnüren. Kommende Spieletitel werden diese Fähigkeiten garantiert verstärkt nutzen, womit auch die Zukunftssicherheit einer solchen Investition in die höchste Leistungsklasse abgesichert wird. Die vielfache Leistung im Bereich der Berechnungen mit doppelter Genauigkeit verschafft der AMD-Karte zudem einen nicht wett zu machenden Vorteil bei vielen GPGPU-Anwendungen: Mit beiden Karten kann und muss man einfach rechnen!
Quelle
http://www.hartware.de/press_15717.html
Da rum sollte in dem Game der Titan gegn die GTX690 auch triumphieren können.
Würde die 580er mit 1GHZ takten wäre die GTX680 deklasiert worden in dem Screen oben da bei hat die 680 sogar einen tick mehr Bandbreite also ist das auch nicht das Problem in dem Game.

Hier ist GPGPU gefragt.
 
Zuletzt bearbeitet:
Thunder, laut PCGH skaliert eine Bandbreitenerhöhung bei Metro ca. im Verhältnis 2:1 auf GK104. Sprich du packst 20% mehr Bandbreite drauf und erhälst ca. 10% mehr Leistung. (default GPU Takt)

Das "Problem" was GK110 gegenüber der 690er hat, es ist nur ein Chip. Zu GK104 wird er grob 50% mehr Bandbreite bekommen, aber auch GPU technisch 50%+ drauflegen. Das Verhältnis ändert sich somit wohl nicht, bzw. wird gar noch was schlimmer.
Die 690er hat aber dabei den Vorteil, alles zweimal zu haben und Dualcore CPU like auch diese Stärke auszuspielen. Nämlich komplett zwei Sachen gleichzeitig machen. So bleibt bei jedem "Bilderpaar" zwar immernoch das Bandbreitenproblem, aber auf zwei Bilder runtergebrochen steht dem Dual GK104 die doppelte Bandbreite gegenüber (jeweils knappe 200GB/sec pro AFR Bild)
Wenn GK110 an der 690er vorbei ziehen soll in Metro, müsste er aus knappen 300GB/sec zwei Bilder schaufeln. Wieder gebrochen auf zwei Bilder wären das "nur" 150GB/sec pro Bild.

Man kann ja mal probieren, was passiert, wenn man GK104 auf 150GB/sec Bandbreite in Metro runter zwingt, wie viel Leistung dann liegen bleibt...
Ich denke mal, Metro ist eins der Titel, wo gerade die 690er die Nase vorn haben wird.
Und wie man wunderschön an deinem Screen sieht, GK104 skaliert im SLI quasi 1A trotz "Bandbreitenlimit" der jeweiligen GPUs. Selbst bei vier GPUs geht das noch richtig ab. Weil jeweils pro GPU dediziert eine zwar teils limitierende aber immernoch sehr hohe Bandbreite bereit steht.

PS: das GPGPU Zeugs halte ich dabei für eher unwichtig... Nämlich aus dem Grund, wenn du im Bandbreitenlimit bist bzw. nahe dran, bleiben Streckenweise auch GPU Teile brach. Die kannst du bequem mit weniger Bandbreitenleistung vordernden Sachen befüttern ohne nennenswert FPS zu verlieren.
 
Hitman Absolution ist auch ein gutes beispiel für GPGPU und da ist selbst eine 7950 schneller als die GTX680 und die HD7870 ist dich an der GTX680 dran!
Ich habe auch gelesen das GPGPu mit der kommenden Konsolen Generation (XBOX 3 & PS4 ) deutlich mehr genutzt werden wird und grade deswegen sollte NV da nachrüsten um nicht das nachsehen zu bekommen!

Auch den VRAM halte ich für sehr wichtig weil auch da werden die neuen konsolen deutlich eine schippe drauf packen was die textureauflösung angeht und es bringt nix wenn man genug leistung mit dem Titan bekommt wenn der VRAM immer voll ist.

Als beispiel nehme ich da gerne wieder mal Hitman Absolution welches enorm gute texturen hat und auch flüssig läuft aber bei 2560x1440@Ultra+4xAA sind meine 3GB VRAM schon nahezu voll aber es rennt noch grade so bei 8xAA komme ich dann auf grund von nachladerucklern nicht mehr in den zweistelligen FPS bereich obwohl die GPU power da gewesen wäre!

Der Titan würde mir persönlich am besten mit 512Bit und 4GB RAM gefallen
 
Wenn ich das auch richtig verfolgt habe soll das GPGPU unabhängig von den Einheiten verbessert haben beim GK110 vs. Gk 104
 
Zuletzt bearbeitet:
Jo wenn nicht wäre ja fatal weil die AMD 7970 dann trozdem bei GPGPU schneller wäre und die kommende HD8000 dann kreise um den GK110 drehen würde! Ich finde das wird dieses jahr echt spannend grade weil AMD beide großen konsolen bestückt hat wohl auch in der Steambox einzug erhält!
Daher muss der GK110 besonders gut sein und alles stemmen können!
 
Das ganze GPGPU Zeugs wird auf absehbare Zeit aber primär dennoch uninteressant bleiben, da gehe ich jede Wette ein.

Man schaue sich doch nur mal aktuelle Grafikkarten an. Gerade im HighEnd Bereich. IdR ist allein GPU technisch immernoch einiges Luft.
Auch halte ich den Schritt, immer mehr Sachen auf die GPU zu packen für falsch und früher oder später sogar für fatal, was den Markt angeht.
Benkt man, das gerade der Massenmarkt weit weg von HighEnd Performance ist, bekommt ein Überladen der GPUs einen faden Beigeschmack. Nämlich genau dann, wenn die GPUs allein schon damit beschäftig sind, überhaupt das Bild auf den Schirm zu bringen.

Im Grunde kann man nämlich nicht so ohen weiteres GPGPU Berechnungen von klassischen Bildberechnungen trennen. Beides setzt jeweils auf eine quasi genormte Schnittstelle. Und die Berechnung wird dann auf den ALUs abgekippt. Wenn die ALUs Luft haben, kein Problem, haben sie das nicht, -> Problem ;)
Mal schauen wo die Reise hingeht...
 
Ja wir müssen abwarten wo die reise hingeht und wiedermal werden die neuen konsolen den weg vorschreiben und da hieß es das die XBOX zwei GPUs bekommen soll wobei Beide nicht zusammen am bild arbeiten werden was ja eigentlich dann schon ein wink in richtung GPGPU bedeuten würde.mzumindest würde ich das so sehen. Ok welche finale hardware allerdings verbaut wird muss sich erstmal bestätigen.
 
Ich würde er sagen der GPGPU Teil wird einfach ein Bestandteil werden den man versucht auch zu nutzen.
Wie man aus dem Artikel oben entnehmen kann man spricht man dort von Zukünftigen Spielen .

Wetten würde ich da nicht .

Zu mal ist doch Klasse wen die Spieleschmieden das ganze Potenzial versuchen aus den GPUS zu schöpfen das wird auch dem Titan zu gute kommen.
So sind 530mm2 Diesize auch für uns Spieler kein überflüssiger Ballast mehr.



Wie man sieht ist die Bandbreite ausgeschlossen da der GK104 auf dem Level der GTX580 taktet es bleibt nur noch der GPGPU Part hier fehlen 17% zu GTX580.
Der Titan wird siegen in dem GAME gegen die 690 da bin ich mir fast sicher wenn das mit den 15% stimmt zu mal der GPGPU Part weiter verbessert wurde beim GK110.
 
Zuletzt bearbeitet:
Der Vorsprung der AMDs in bestimmten Spielen kommt nicht von GPGPU. Ihr könnt diesen vagen und nichtssagenden Begriff nicht einfach als mögliche Erklärung in den Raum werfen und das Offensichtliche ignorieren:
Die 7970 GE hat 33% mehr Rechenleistung als eine GTX680 und 50% mehr Bandbreite. Deshalb ist sie schneller.
 
Zuletzt bearbeitet:
Ja wir müssen abwarten wo die reise hingeht und wiedermal werden die neuen konsolen den weg vorschreiben und da hieß es das die XBOX zwei GPUs bekommen soll wobei Beide nicht zusammen am bild arbeiten werden was ja eigentlich dann schon ein wink in richtung GPGPU bedeuten würde.mzumindest würde ich das so sehen. Ok welche finale hardware allerdings verbaut wird muss sich erstmal bestätigen.

Laut den letzten News deutet zumindest darauf hin, das es ein GCN based custom design GPU wird. 800MHz Takt und 768 ALUs stehen auf dem Papier (laut PCGH)
Dazu schnell angebundener eSRAM als schneller GPU VRAM sowie womöglich ein Teil der 8GB DDR3 via Northbridge zugänglich als Texturspeicher, wenn mich nicht alles täuscht.

Mit so nem Teil wäre man Leistungstechnisch weit unterhalb von ner Tahiti XT GPU, geschweige denn von GK110. Es dürfte sich durchaus bewahrheiten, das diese neue Konsolengeneration "ausnahmsweise" nicht aktuelle PC Technik überbieten wird. Sowohl im CPU als auch im GPU Part nicht.

Und gerade der GPU Teil ist eben so ne Sache. Ne Konsolenportierung ohne nennenswerte Anpassung bringt heute schon die GPUs nicht wirklich ins Schwitzen (HighEnd) kann aber durchaus ne Mittelklasse aus der Bahn werfen.
Bei den neuen wird das wohl recht ähnlich laufen. Ob da viel Luft für Spielereien bleibt, ist nicht bekannt. Und FullHD als womöglich native Auflösung für alle Games dürfte auch noch etwas Tribut fordern.


@box, so sehe ich das auch. GPGPU pauschal als Begriff ranziehen um Leistungsunterschiede zu erklären, ist ohne dedizierte Detailsbetrachtung in meinen Augen unsinn...
 
Ja wir müssen abwarten wo die reise hingeht und wiedermal werden die neuen konsolen den weg vorschreiben und da hieß es das die XBOX zwei GPUs bekommen soll wobei Beide nicht zusammen am bild arbeiten werden was ja eigentlich dann schon ein wink in richtung GPGPU bedeuten würde.mzumindest würde ich das so sehen. Ok welche finale hardware allerdings verbaut wird muss sich erstmal bestätigen.

Zwei GPUs in einer Konsole machen keinen Sinn.

Der Vorsprung der AMDs in bestimmten Spielen kommt nicht von GPGPU. Ihr könnt diesen vagen und nichtssagenden Begriff nicht einfach als mögliche Erklärung in den Raum werfen und das Offensichtliche ignorieren:
Die 7970 GE hat 33% mehr Rechenleistung als eine GTX680 und 50% mehr Bandbreite. Deshalb ist sie schneller.

Jup, thats it.

Die Frage ist ja ach wieviele Transistoren bei GK110 wirklich für GPGPU drauf gehen im Gegensatz zu GK104. Es stehen 3,54 Mrd. zu 7,1 Mrd.

Dabei sinds maximal:

2880 ALUs zu 1536 = +87%
240 TMUs zu 128 = +87%
48 ROPs zu 32 = +50%

Beschränken wir uns mal auf diese drei für uns relevanten Werte kann man davon ausgehen das der GPGPU Anteil irgendwo bei 10% im Transistorcount liegt. Sicherlich nix festes, aber mal nen Denkanstoß.
 
Mit den zwei GPUs kann ich mir nur erklären fals ein lano amd cpu eingebaut wird welcher ja ein GPU besitzt und die eigentliche GPU wird dann beim spielen aktiv und die GPU des lano könnte dann das GPGPU gelumpe übernehmen. Anders kann ich mir das auf jedenfall nicht vorstellen?

Zu den TMUs hatte ich mal was gelesen vom 192 beim GK110...
 
Zuletzt bearbeitet:
Der Vorsprung der AMDs in bestimmten Spielen kommt nicht von GPGPU. Ihr könnt diesen vagen und nichtssagenden Begriff nicht einfach als mögliche Erklärung in den Raum werfen und das Offensichtliche ignorieren:
Die 7970 GE hat 33% mehr Rechenleistung als eine GTX680 und 50% mehr Bandbreite. Deshalb ist sie schneller.

Jup. Allerdings finde ich viel beeindruckender, obwohl AMDs GHz Ed. einen solchen Theoretischen Vorsprung hat, die GTX 680 doch noch so gut mithalten kann. Im Durchschnitt liegen zwischen beiden Karten nicht mal 10%.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh