[Sammelthread] Grafikkarten - Technikdiskussion

Das wäre schon mal eine sehr wichtige Einschränkung gewesen. Außerdem ist klar das sich die Sache nur zugunsten von NV verschiebt, solange wir über HD5xxx und GTX4xx reden. Zum einen durch die besser werdenden Treiber der GTX4xx im Gegensatz zu den schon so gut wie ausgereiften bei Ati und zum anderen durch mehr DX11 Games. Wie sich das Kräfteverhältnis dort verschiebt sieht man ja bereits an verfügbaren Spielen und die sind noch nicht mal nativ DX11.

Das mag sein das NV nur gewinnen kann bei neueren Games. Aber wen interessiert heute wie schnell die Karte irgendwann mal sein wird?
Bis dahin hat AMD mindestens eine neuere Generation draußen und NV vllt ebenso...

Richtig, man wird kaum gleich schnelle Karten finden, aber erstens kann man die schneller heruntertakten und zweitens warum nimmst du die GTX480? Die GTX470 ist seit dem 256ger Treiber fast so schnell wie die HD5870 und ohne Treibercheats von Ati ist sie mit absoluter Sicherheit deutlich schneller als die HD5870. Zieht man nun hier den Vergleich, so kann man gar nicht mehr klar sagen ob die GTX470 oder die HD5870 effizienter ist.
Ja und? Was spricht gegen eine 480GTX?
Schlussendlich ist das total Banane, gut nehmen wir 470GTX vs. HD5870... Bleibt bei aktuellen Treibern in etwa gleichstand, was die Durchschnittliche Leistung in gängigen aktuellen Games anbelangt. Aber 23% mehr Stromaufnahme für die NV... (ineffizienter als die AMD Karte) und 50% mehr Transistoren und dementsprechend auch größer (ebenso ineffizienter)

Es ist eine Sissifuss Rechnung, wenn ich den zusätzlichen Stromverbrauch von 0,5GB DDR5 anmerke? Natürlich gibt es auch 2GB Versionen der HD5870 und die sind deutlich lauter und verbrauchen deutlich mehr Strom. :)

Gut bleiben wir beim Speicher, man nehme aktuelle Werte der Karten...
Beziehen wir uns der einfachheit halber mal auf Gesamtsystemwerte seitens CB.
Eine HD5870 mit 2GB brauch unter Last 16% mehr Strom als eine mit 1GB.
Nehmen wir also an, dieser Mehrverbrauch kommt ausschließlich durch den Speicher, dann würde also der Wert der HD5870 * 1,08 rechnerisch einem 1,5GB Modell entsprechen.
305W*1,08 wären knapp 330W... Eine 480GTX schlägt sich dort in der Messung mit 452W.

Jetzt erklär mir mal bitte, wie die Fermi Karten (egal welche der beiden, bzw. drei nun) effizienter sein sollen, was den Stromverbrauch anbelangt, als die AMD Karten... Erklärs mir, ich verstehs nähmlich nicht!

Am Ende ist es immer eine Frage der Anwendung, aber die Fermi-Architektur als ineffizient zu bezeichen ist doch nun wirklich quatsch. Fermi ist halt bereits eine echte DX11 Architektur und somit sollte man seine Effizienz auch nicht an alten DX9-Games beurteilen, die eh auf jeder Karte mit max. Details laufen.

Wer sagt das Fermi ineffizient ist?
Ich sage Fermi ist ineffizienter als die AMD Karten... nicht mehr und nicht weniger...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@XdevilX
Mit anderen Worten: Der Fermi ist ebenso unreif, wie es der R600 seinerzeit war.
Was man daraus ein paar Generationen später machen kann, ist absolut irrelevant: Der Super-Fermi3 würde aus dem Fermi(1) auch keine bessere GPU machen. Ebenso wenig wie der Erfolg der Evergreen-GPUs aus dem verhunzten R600 plötzlich einen Spitzenchip macht.

Klar bietet Fermi ordentlich Rohleistung, aber diese wird ausschließlich durch die schiere Größe der GPU bereitgestellt und nicht durch eine überlegene Architektur. Setzt man die Leistung der Transistorenzahl gegenüber, wird schnell offensichtlich, dass die neue Architektur keinerlei Leistungsvorteile gegenüber dem „uralt“ g92 bietet.

Ich habe ja nichts gegen Nvidia, habe so ziemlich jeden GPU-Hersteller schon im Rechner gehabt: 3DFX, ATI, Matrox, Nvidia und auch VIA/S3. Bin bei Nvidia sogar ein Kunde der (fast) ersten Stunde: Meine erste echte „HighEnd“-Graka war eine Diamond Viper V770 TNT2-Ultra, habe sie damals gleich an dem ersten Verkaufstag gekauft. Und auch jetzt sitze ich vor einem Rechner mit einer grünen GPU, auch wenn in dem zweiten Rechner eine ATI werkelt.
Aber so sehr deren Produkte in der Vergangenheit auch überzeugten, der neueste Sprössling ist in technischer Sicht ein klarer Reinfall. Da hilft es auch nicht die Schuld auf den 40nm-Prozess zu schieben und von 28nm zu predigen: Diese GPU wurde von Anfang an für 40nm ausgelegt und die (bescheidenen) Eckdaten für TSMCs 40nm Transistoren waren Nvidia weit im Voraus bekannt, die hatten sogar ein halbes Jahr mehr Zeit als ATI daraus zu lernen. Aber wo ATI schnell und gescheit gehandelt hat, in dem man die GPU noch im letzten Moment verkleinert und angepasst hat, hat Nvidia einfach nur stur an einer für diesen Fertigungsprozess offensichtlich ungeeigneter GPU festgehalten. Als Ingenieur kann ich angesichts solcher Entwicklungsfehler nur ungläubig den Kopf schütteln.
 
@XdevilX
Mit anderen Worten: Der Fermi ist ebenso unreif, wie es der R600 seinerzeit war.
Was man daraus ein paar Generationen später machen kann, ist absolut irrelevant: Der Super-Fermi3 würde aus dem Fermi(1) auch keine bessere GPU machen. Ebenso wenig wie der Erfolg der Evergreen-GPUs aus dem verhunzten R600 plötzlich einen Spitzenchip macht.

Klar bietet Fermi ordentlich Rohleistung, aber diese wird ausschließlich durch die schiere Größe der GPU bereitgestellt und nicht durch eine überlegene Architektur. Setzt man die Leistung der Transistorenzahl gegenüber, wird schnell offensichtlich, dass die neue Architektur keinerlei Leistungsvorteile gegenüber dem „uralt“ g92 bietet.

Ich habe ja nichts gegen Nvidia, habe so ziemlich jeden GPU-Hersteller schon im Rechner gehabt: 3DFX, ATI, Matrox, Nvidia und auch VIA/S3. Bin bei Nvidia sogar ein Kunde der (fast) ersten Stunde: Meine erste echte „HighEnd“-Graka war eine Diamond Viper V770 TNT2-Ultra, habe sie damals gleich an dem ersten Verkaufstag gekauft. Und auch jetzt sitze ich vor einem Rechner mit einer grünen GPU, auch wenn in dem zweiten Rechner eine ATI werkelt.
Aber so sehr deren Produkte in der Vergangenheit auch überzeugten, der neueste Sprössling ist in technischer Sicht ein klarer Reinfall. Da hilft es auch nicht die Schuld auf den 40nm-Prozess zu schieben und von 28nm zu predigen: Diese GPU wurde von Anfang an für 40nm ausgelegt und die (bescheidenen) Eckdaten für TSMCs 40nm Transistoren waren Nvidia weit im Voraus bekannt, die hatten sogar ein halbes Jahr mehr Zeit als ATI daraus zu lernen. Aber wo ATI schnell und gescheit gehandelt hat, in dem man die GPU noch im letzten Moment verkleinert und angepasst hat, hat Nvidia einfach nur stur an einer für diesen Fertigungsprozess offensichtlich ungeeigneter GPU festgehalten. Als Ingenieur kann ich angesichts solcher Entwicklungsfehler nur ungläubig den Kopf schütteln.

ich sehs bei weitem nicht so eng, nur aufgrund der miesen yields konnte man nicht mit 512 cuda core launchen, das ist genau das minus and performance was fehlt um aus nem guten chip nen spitzenchip zu machen
 
die geschichte hat uns auch gelehrt das man aus nem total verkorksten Chip wie dem R600 was machen kann
Nur dass der R600 nicht verkorkst war. Die Basis, also die Shader Architektur, hat gepasst. Das kann man von Fermi nicht behaupten. Der R600 litt an Kinderkrankheiten, die man von Generation zu Generation ausgemerzt hat. Bei Fermi stimmt einfach die Basis nicht, da es im Grunde immer noch die skalare Shader Architektur vom G80 ist, die mit Fermi lediglich aufpoliert bzw neu strukturiert wurde.

Fermi zeigt ganz klar das leistung da ist, siehet den heaven benchmark.
Nochmal, das ist ein einziges, wenig aussagekräftiges synthetisches Scharmützel. Da kann man genauso argumentieren, dass Null Performance da ist, weil man in ComputeMark hoffnungslos auf verlorenem Posten steht.
Und ich gebe auch nochmal zu bedenken, dass Performance alleine genauso wenig aussagt. Performance ist nur in Verbindung zur Leistungsaufnahme und zum Transistoraufwand aussagekräftig.
 
Das mag sein das NV nur gewinnen kann bei neueren Games. Aber wen interessiert heute wie schnell die Karte irgendwann mal sein wird?
Bis dahin hat AMD mindestens eine neuere Generation draußen und NV vllt ebenso...

:rolleyes: Wenn interessiert wie schnell die Karten beim Release sind, denn da können sie eh alle Spiele mit max. Einstellungen darstellen. Viel wichtiger ist die Frage, wie schnell die Karte im Zeitraum von 6 Monate nach dem Release bis 18 Monate danach sind. Dadurch entscheidet sich, wann ich das nächste mal Geld ausgeben muss. Außerdem dauert es auch nicht so ewig bis z.B. die Treiber ausgereift sind. Ich denke noch so maximal 3 Monate.


Jetzt erklär mir mal bitte, wie die Fermi Karten (egal welche der beiden, bzw. drei nun) effizienter sein sollen, was den Stromverbrauch anbelangt, als die AMD Karten... Erklärs mir, ich verstehs nähmlich nicht!

Wirst du auch nie verstehen, weil du es nicht verstehen willst. Du machst absichtlich eine Milchmädchenrechnung und kommst immer auf die GTX480 zurück. Schnellere Karten sind immer ineffizienter, da 30% mehr Takt in diesen Regionen mindestens 60% mehr Verlustleistung bedeutet. Daher muss man gleich schnelle Karten vergleichen.



Schlussendlich ist das total Banane, gut nehmen wir 470GTX vs. HD5870... Bleibt bei aktuellen Treibern in etwa gleichstand, was die Durchschnittliche Leistung in gängigen aktuellen Games anbelangt. Aber 23% mehr Stromaufnahme für die NV... (ineffizienter als die AMD Karte)

Dann machen wir hier mal eine ernsthafte Rechnung und gucken was von den Träumereien übrig bleibt. Also 23% für die GTX470, die hat 0,25GB mehr Speicher also müssen wir sie mit der HD5870*1,04 Vergleichen. Gegenüber diesem Wert bleiben dann noch knapp 18,3%.
Nun könnte man denken, die Sache sieht gut für Ati aus, allerdings hat man dann die Rechnung ohne die Bildqualität gemacht. Es ist leider unmöglich zu sagen wieviel % Ati durch diese Optimierungen spart, aber es sind sicher über 10%, denn wenn es weniger wäre würden sie sicher eine Option zum deaktivieren dieser Sparoptionen bieten.
Wie dem auch sei, befassen wir uns mit dem was wir haben und zur Zeit ist es so, dass man bei Ati bei einigen Spielen RGSSAA aktivieren muss um ein Flimmerfreies Bild zu erhalten. Da verliert man dann aber viel mehr als 18,3%...
Berücksichtigt man noch Verschiebungen zugunsten von NV durch Treiber und modernere Anwendungen, so glaube ich nicht, dass es da große Effizienzunterschide zwischen NV und Ati gibt.


50% mehr Transistoren und dementsprechend auch größer (ebenso ineffizienter)

Ebenfalls nur teilweise richtig, denn die GTX4xx haben auch deutlich mehr Funktionen und benötigen somit natürlich mehr Transistoren, das aufwendige Caching-System und ein vielfaches an Geometrieeinheiten zum Beispiel. Allerdings ist es auch ziehmlich egal wie viele Transistoren da drin stecken. Die GTX470 ist billiger als die HD5870, also preislich effizienter und das dürfte für den Kunden viel interessanter sein. :)


Wer sagt das Fermi ineffizient ist?
Ich sage Fermi ist ineffizienter als die AMD Karten... nicht mehr und nicht weniger...

Richtig wäre:
Fermi ist mit noch nicht ausgereiften Treibern und bei einer Spieleauswahl, für die man sich so eine Karte nicht kauft, leicht ineffizienter als die Ati-Karten, welche genau für diese Spieleauswahl konzipert wurden.

Es liegt eben ein halbes Jahr zwischen diesen Karten und somit liegt der Schwerpunkt der GTX4xx-Reihe natürlich bei moderneren Spielen als der der HD5xxx-Reihe.
 
Ich dachte das grade die NV die bessere architektur hat!
Weil wenn man bedenkt das die NV nur 480shader hat und die ATI 1600 und dennoch ist die NV schneller!
 
Zuletzt bearbeitet:
Ich dachte das grade die NV die bessere architektur hat!

Nvidia Fermi = 530 mm² (GTX480 115% Leistung)
ATI RV870 = 334 mm² (HD5870 100% Leistung)

wenn ATI auch Chips mit 500mm² fläche baut, dann ist ATI mind. 30% schneller als 480 ;) ATI hat bei der Fertigung Vorteille, mehr Chips passen auf einem Wafer weil kleine Chipfläche
Weil wenn man bedenkt das die NV nur 480shader hat und die ATI 1600 und dennoch ist die NV schneller!

Bei ATI sind es 320 Shader bzw. 320 5D Shader (320x5) 1600 ist nur Marketing

Nvidia = 1D Shader (1 Operation)
ATI = 5D Shader (5 Operationen gleichzeitig)

Die meisten Entwickler programmieren Spiele auf 1D Shader, wenn Sie auf 5D programmieren ist ATI schneller als Nvidia
 
Zuletzt bearbeitet:
ja ok also sind es 320Shader.. Nur wozu die 5D wenn eigentlich so gut wie alle auf 1D programmieren!
 
ja ok also sind es 320Shader.. Nur wozu die 5D wenn eigentlich so gut wie alle auf 1D programmieren!

Es gibt kein "1D oder 5D programmieren", dass gehört in die Duplex Märchenstunde. Ein 5D Shader lässt sich offensichtlich mit deutlich weniger Transistoren realisieren als 5 1D Shader. Das Problem ist allerdings die Auslastung, im schlimmsten Fall rechnet eben nur eine Einheit im 5D Shader statt 5. Wie gut die ausgelastet werden ist einfach davon abhängig, was gerade berechnet werden muss und das ist absolut unvorhersehbar, da kann der Programmierer mal gar nichts dran drehen. Die Auslastung kann bei der Berechung eines Bildes gut sein und beim nächsten schon wieder schlecht.
Die 1D Shader von NV hingegen erreichen mittlerweile fast eine Auslastung von 100%. Was sich am Ende durchsetzt muss sich noch zeigen. Allerdings wechselt Ati bei SI von 5D auf 4D oder?
 
Zuletzt bearbeitet:
Es gibt kein "1D oder 5D programmieren", dass gehört in die Duplex Märchenstunde. Ein 5D Shader lässt sich offensichtlich mit deutlich weniger Transistoren realisieren als 5 1D Shader. Das Problem ist allerdings die Auslastung, im schlimmsten Fall rechnet eben nur eine Einheit im 5D Shader statt 5. Wie gut die ausgelastet werden ist einfach davon abhängig, was gerade berechnet werden muss und das ist absolut unvorhersehbar, da kann der Programmierer mal gar nichts dran drehen. Die Auslastung kann bei der Berechnung eines Bildes gut sein und beim nächsten schon wieder schlecht.
Die 1D Shader von NV hingegen erreichen mittlerweile fast eine Auslastung von 100%. Was sich am Ende durchsetzt muss sich noch zeigen. Allerdings wechselt Ati bei SI von 5D auf 4D oder?

Ja so hatte ich das auch gehört das die 5D im schlechtesten Fall halt nur eine Operation abarbeitet! Wenn das also nicht an den Programmierern liegt ist es ja absolut treiber abhängig!
Interessant finde ich es allerdings das die ATI mit 320Shader (850MHz) also 33% weniger shader als die GTX480 (480Shader und 1400Mhz) und auch noch deutlich niedrigerem Takt nur 15% langsamer ist im schnitt gesehen!
@1Ghz ist die ATI dann schon wieder auf höher der GTX480 oder sogar drüber!
Interessant wäre mal wie das aussehen würde wenn die ATI auch 480 shader drin haben würde weil wenn sie so schon mithalten kann ist das in Sachen Effizienz ein klarer Pluspunkt für ATI! Zumindes sehe ich das so!

Vieleicht wird die GTX490 auch garnicht die vollen 512Shader bekommen sonder nur eine taktsteigerung weil sonst wäre das echt ein heizwerk feinster güte!
 
Zuletzt bearbeitet:
Naja, mit mehr Shader bei ner ATI würde die wohl auch irgendwann wärmer werden bzw. auch zugleich mehr Strom verpusten ;)
Hätte dann zwar theoretisch mehr Leistung aber irgendwer würde dann wieder rumheulen dsa man für CrossfireX 5000 kW NT bräuchte... Ist ja schon so bei 3 GTX480's... da heulens auch rum, dass man Uber Netzteile braucht.
...
Vieleicht wird die GTX490 auch garnicht die vollen 512Shader bekommen sonder nur eine taktsteigerung weil sonst wäre das echt ein heizwerk feinster güte!
Im Sommer stellst den PC in Ofen und machst deine Fertigpizza, im Winter stellst den PC in kamin und hast warmes Haus ;D
 
Zuletzt bearbeitet:
Ich dachte das grade die NV die bessere architektur hat!
Weil wenn man bedenkt das die NV nur 480shader hat und die ATI 1600 und dennoch ist die NV schneller!
Genau genommen hat Evergreen 20 SIMD Kerne zu je 80 32-bit Streamprozessoren, die in 5D Vektoren unterteilt sind. Oder wenn man so will, 320 5D Shader. Fermi hat 512 1D Shader bzw CUDA Kerne.
Und GPGPU, also wo Shader vollständig zum tragen kommen, liefert Evergreen klar mehr Performance, speziell was einfache Genauigkeit betrifft. Bei doppelter Genauigkeit ist es relativ ausgeglichen. Und das mit gerade mal 334 mm² und <200 W. Fermi bringt es auf 529 mm² und >100 W mehr. Effizienz spricht da momentan klar für den ATI Ansatz.
Spiele sind für die Shader Architektur nur bedingt aussagekräftig, da hier Ressourcen oft brach liegen. Das sieht man ja auch beim Heaven Benchmark. Fermi braucht gewohnt viel Strom, da Tessellation an alle Shader gekoppelt ist. Dementsprechend sind die Peaks auch höher. Bei ATI ist die Leistungsaufnahme hingegen geringer als normal, da die Tessellatoren von den Shadern entkoppelt sind und dementsprechend auch nicht alle Shader belastet werden. Wobei sich dies mit Southern Islands ändern könnte.

ja ok also sind es 320Shader.. Nur wozu die 5D wenn eigentlich so gut wie alle auf 1D programmieren!
Nichts ist auf 1D, 2D, 5D, 42D oder was auch immer programmiert. Die Aufgabe, Berechnungen auf die Shader zu verteilen, obliegt dem Compiler bzw dem Treiber. Warum verwendet nun ATI 5D Shader? Ganz einfach, weil die meisten grafischen Berechnungen auf 3D bzw 4D basieren. Siehe Raumvektor (x,y,z(,w)) oder RGB-Farbraum ((a,)r,g,b). Den fünften Streamprozessor verwendet ATI für Sonderfunktionen.

Allerdings wechselt Ati bei SI von 5D auf 4D oder?
Es halten sich Gerüchte, dass dies mit NI passieren soll.

Ja so hatte ich das auch gehört das die 5D im schlechtesten Fall halt nur eine Operation abarbeitet!
Eigentlich nicht. Die Streamprozessoren pro Shader können auch unabhängig voneinander arbeiten. Es ist vielmehr eine Frage der Abhängigkeit von Ergebnissen. Allerdings hat dieses Problem nVidia genauso.
 
Zuletzt bearbeitet:
@mr.dude
danke für deine Aufklärung finde das alles sehr interessant :wink:
 
So die Shaderdiskusion ist hier erstmal besser aufgehoben...
 
plane im moment ein casecon und würde gerne wissen wie groß ich den abstand von der front bis zum mainboard machen muss, also wie sehr gehen grafikkarten in die länge? momentan hab ich 35cm grafikkartenlänge eingeplant, ist das schon zu viel?
 
Da hast du leider vom Kontext überhaupt nichts verstanden. Dass du so reagierst, zeigt nur wieder mal, dass du nicht unvoreingenommen diskutieren willst und sachliche Diskussionen permanent boykottierst. Ich habe nicht von DirectX 11 gesprochen, sondern von synthetischen und praxisnahen Workloads. Wenn dir der Unterschied nicht bewusst ist, dann solltest du mal darüber nachdenken, woran das liegen könnte.

Ei was seh ich denn hier für einen Kommentar;)

Ich glaube du hast den Kontext nicht verstanden.
Es liegt doch auf der Hand das plötzlich sämtliche DX11 Titel ob es nun Benchmarks wie Heaven oder Spiele sind zerredet werden
Ich redete von sämtlichen DX11 Applikationen ob es nun praxisferne Benchmarks sind wie du sie bezeichnest oder Workloads wie Dirt2 Metro oder kommender Spiele,spielt hierbei keine Rolle,fakt ist bei DX11 wofür eine DX11 Karte nunmal in erster Linie gebaut ist gibt der Fermi Chip den Ton an!

Frage wo ist also der "Fail" in der Architektur wenn sie genau da performt wo sie gebraucht wird und mit jedem Treiber nachweislich besser wird?:shot:

Für DX9 und 10 Games kauft man sich keine DX11 Karte,sondern um die Spiele der kommenden Api zu spielen

Und genau diese Spiele/Benchmarks werden von einigen plötzlich als unbedeutsam angesehen,die bisher immer als Paradedisziplin der 5er Generation von ATI herhalten mussten:)

Ums mit deine Worten auszudrücken

Wenn dir der Unterschied nicht bewusst ist, dann solltest du mal darüber nachdenken, woran das liegen könnte
 
Zuletzt bearbeitet:
Frage wo ist also der "Fail" in der Architektur wenn sie genau da performt wo sie gebraucht wird und mit jedem Treiber nachweislich besser wird?:shot:

...

Und genau diese Spiele/Benchmarks werden von einigen plötzlich als unbedeutsam angesehen,die bisher immer als Paradedisziplin der 5er Generation von ATI herhalten mussten:)

Die Frage ist doch, ob ein derartiger Vergleich überhaupt Sinn macht...
Schließlich liegt zwischen den beiden Karten gut ein halbes Jahr Luft. NV hat hinlänglich vor dem GF100 bestätigt, das man an der "alten" Architektur Flaschenhälse sieht. Ebenso das für NV Tesselation ein zukünftiges Mittel ist, was die Optik in Games stark verbessern könnte...

Es liegt also auf der Hand, das man eben genau in diesem Bereich punkten will. Und mit dem Fermi auch tut.

Nur was bringt es hier einen Vergleich zu machen mit Karten die derart weit auseinander liegen?
Mit AMDs nächster Gen. soll die Tesselationsleistung ebenso wohl massiv steigen. Und die Karten kommen auch nur wohl in etwa ein halbes Jahr nach dem Fermi. Dann wird sich das Blatt wohl wieder wenden, bis NV wieder nachlegt.
 
GPU-Achitekturen

Habe grade in einem anderen thread eine interessante diskussion zur shaderarchitektur (5d vs. 1d) mitverfolgt, die in besagtem thread aber leider off topic ist. darum kam mir die idee, hier einen eigenen thread dazu zu eröffnen. da das aber wohl auch tiefer ins detail führen wir, habe ich das thema möglichst global formuliert. hier soll grundsätzlich alles behandelt werden, was die architektur als solches betrifft, um die diskussion möglichst flexibel zu halten.

einstiegsthema ist hierbei wie gesagt shaderarchitektur 5d vs. 4d vs. 1d.

im besagten thread wurde gesagt, dass der 5d-shader dem 1d-shader grundsätzlich in jeder beziehung überlegen ist.
ich denke, dass das so grundsätzlich nicht stimmt. der 5d-shader kann nur zu einem gewissen teil ausgelastet werden. er ist leistungsstärker als ein 1d-shader aber leistungsschwächer als fünf 1d-shader.

die vorteile von 1d shader sehe ich hierbei wie folgt:
- effizienter, da 100% auslastung im regelfall möglich
- flexibler, da keine abhängigkeit zu anderen "teilshadern"
- mutmaßlich einfacher zu fertigen.

vorteile des 5d-shaders:
- deutlich mehr leistung als ein einzelner 1d-shader
- kleiner, sparsamer und billiger zu fertigen als 5 1d-shader

vorteile des 4d-shader:
- vielzahl der operationen bestehen aus vier identischen berechnungen, somit effizienter als 5d-shader
- leistungsstärker als 1d-shader
- kleiner, sparsamer und billiger zu fertigen als 4 1d-shader und 1 5d-shader

die 4d-architektur erscheint mir dabei als der beste kompromiss aus effiziens, kosten und verbrauch.
 
Bei ATI Northern Islands 28nm wird spekuliert das 1000 4D einheiten zum einsatz kommen, eine Quelle gibt es aber nicht.
 
der 5d-shader kann nur zu einem gewissen teil ausgelastet werden. er ist leistungsstärker als ein 1d-shader aber leistungsschwächer als fünf 1d-shader.

Es bringt in meinen Augen nix, die Leistung nur an der Shaderpower fest zu machen. Denn so bleiben Schwachstellen unbetrachtet, die gemessen an der Performance der ALUs das Bild teils gänzlich wenden können.

Auch ist die Aussage, das 5 1D Shader schneller sind als 1 5D Shader so ohne weiteres nicht paschal machbar, denn erstens sind NVs skalare Einheiten deutlich höher getaktet, teils sogar doppelt so schnell, und zweitens kommt das massiv auf die Berechnung an.

Es gibt im Netz ein paar Tests die sich mit der Shaderauslastung aktueller AMD Karten befassen, ich hab irgendwo noch Links rumfliegen, müsst ich mal suchen... Dort sind auch in älteren Games (ja selbst welche, wo AMD Karten zum direkten Konkurenzprodukt schlechter abschneiden) die Auslastung der 5D Einheiten von 70-80% und mehr zu sehen...
An den Shadern liegt also AMDs "Problem" nicht...

die vorteile von 1d shader sehe ich hierbei wie folgt:
- effizienter, da 100% auslastung im regelfall möglich
- flexibler, da keine abhängigkeit zu anderen "teilshadern"
- mutmaßlich einfacher zu fertigen.

vorteile des 5d-shaders:
- deutlich mehr leistung als ein einzelner 1d-shader
- kleiner, sparsamer und billiger zu fertigen als 5 1d-shader

vorteile des 4d-shader:
- vielzahl der operationen bestehen aus vier identischen berechnungen, somit effizienter als 5d-shader
- leistungsstärker als 1d-shader
- kleiner, sparsamer und billiger zu fertigen als 4 1d-shader und 1 5d-shader

die 4d-architektur erscheint mir dabei als der beste kompromiss aus effiziens, kosten und verbrauch.

Der Vergleich sagt nicht wirklich was aus...
In anbetracht an der Masse der ganzen Berechnungen die dort "durch rauschen" ist die Auslastungsproblematik nicht so wirklich das Thema...
Mal ganz davon ab, wie schon erwähnt, die 5D Einheit braucht unabhängige Berechnungen. Besteht eine Abhängigkeit, skaliert die Einheit schlecht...

Gemessen an der Fülle an Berechnungen kommt es aber eher weniger zu derartigen Engstellen.
Ein größeres "Problem" ist wohl noch die Tatsache, das bei Berechnungen durch die SFU diese nicht als skalare Einheit fungieren kann, sprich fällt massiv Arbeit für die SFUs an, so steht einem RV870 nur 4/5 der ALU Leistung zur Verfügung, der Rest wird durch die SFUs "blockiert"
Beim Fermi hingegen agieren die SFUs mehr oder weniger unabhängig von den ALUs ansich. Sprich es bleiben nach wie vor volle 480 Stück. Dazu kommt der fast doppelte Takt.

Nachteil am Fermi 1D Ansatz ist natürlich die größe, die Fertigungskosten und vor allem der nötige Strom für die Arbeit. So zeigt es sich das selbst zwei mal 320 5D Einheiten unter annähernd Volllast im Furmark sogar minimal weniger Leistung brauchen als eine nicht mal voll ausgebaute Fermi GPU im selben Anwendungsfall und dabei noch deutlich langsamer...

Zum eigentlichen aber nochmal, Sachen ala Furmark und Co. sind beispielsweise weitestgehend unabhängig vom Rest Chip (vereinfacht gesagt) TMU, ROP usw. Leistung spielt da fast gar nicht mit rein...
In Games ist das aber anders, dort zählen die Shader lange nicht so viel, wie sie von manchen gehalten werden...
 
ich würde ja gerne mitreden hab aber 0 ahnung davon...

will das jetzt nicht ins ot reißen aber wo lernt man sowas?
 
@fdsonne: bitte halte nvidia und ati da mal raus. es geht nur um die technik als solches. dass 5 1d-shader schneller als 1 5d-shader sind liegt auf der hand, denn die 1d-shader arbeiten immer mit 100% auslastung, wärend der 5d-shader zwischen 20% und 100% liegt, abhängig von den berechnungen.

An den Shadern liegt also AMDs "Problem" nicht...
wer sagt denn was von einem problem? es ist kein problem sondern ein anderer ansatz. man kannn aber nicht pauschal sagen, dass der eine besser als der andere ist. beide haben vor- und nachteile.

und vergiss bitte mal ati und nvidia. mir gehts um die technik. wer jetzt welche lösung verwendet, ist doch egal.
 
@fdsonne: bitte halte nvidia und ati da mal raus. es geht nur um die technik als solches. dass 5 1d-shader schneller als 1 5d-shader sind liegt auf der hand, denn die 1d-shader arbeiten immer mit 100% auslastung, wärend der 5d-shader zwischen 20% und 100% liegt, abhängig von den berechnungen.

Warum sollte man die Hersteller raushalten? Das macht keinen Sinn denn ohne die Umsatzung der Theorie zu betrachten, nutzt die ganze Diskusion gar nix...

Im übrigen, wie schon oben erwähnt, sind die Shader nicht wirklich das Problem. Überhaupt kann man nicht sagen, das ist besser oder das ist schlechter, vor allem, wenns nur um kleine Teile der GPU geht.
Was nutzem einen die bessere Shaderarchitektur, wenn der Rest vom Chip Flaschenhälse mitbringt und man so mit angezogender Handbremse fährt.
Wie man sieht allein nur die ALUs zu betrachten macht wenig Sinn. Bei 320 5D Einheiten brach man 320 verschiedene RGBA Berechnungen (was bei aktuellen Games nicht das Problem ist) um schonmal 4/5 der kompletten ALUs auszulasten.
Bei 480 1D Einheiten brauchst du 120 RGBA Berechnungen um Volllast zu fahren.
Würden beide mit gleichem Takt arbeiten wäre die 5D Version um den Faktor 2,67 schneller.

Gemessen an aktuellen Taktvergleichen der Spitzenmodelle bleiben bei 850MHz vs. 1,4GHz immernoch 66% Mehrleistung für die 5D Shader und das trotz nur 4/5tel Auslastung in dem Beispiel...

Man könnte also durchaus von einem Problem sprechen, wenn diese Mehrleistung einfach so verpufft... ;)

Die Frage ist aber eher, will man dort seitens AMD was dran ändern? Denn aus P/L Sicht sind die 5D Einheiten zusammen mit dem Gesamtpaket deutlich günstiger zu produzieren als NVs Transistor Monster aktuell.
 
die 4d-architektur erscheint mir dabei als der beste kompromiss aus effiziens, kosten und verbrauch.

Den gleichen Eindruck habe ich auch. Die Auslastung wird dadurch sicherlich einen Sprung nach vorne machen, wenn der Sheduler mitspielt.
 
unwissend?du soltest schon wissen das eine hd 5970 eine dual gpu karte ist und deshalb überhaupt garnicht mit einer gtx 480 verglichen werden kann.
Und wie kommst du dann darauf, dass eine HD 5870 mit einer GTX 480 vergleichbar wäre? Was genau sagt uns denn Dual-GPU Karte? Erstmal nicht viel. Dafür müssen wir schon eher die GPUs ansich vergleichen.

RV870 = 334 mm²
GF100 = 529 mm²
GF104 = 320-370 mm² (?)

Ein GF100 ist also gut 58% grösser als ein RV870. Die HD 5970 ist bekanntlich mit zwei RV870 (= 668 mm²) bestückt, was ~26% mehr Fläche als ein GF100 ist. Wieso soll man also eine HD 5970 nicht mit einer GTX 480 vergleichen? Wie man sehen kann, liegt die Dimensionierung des GF100 irgendwo zwischen Cypress und Hemlock, allerdings deutlich näher an Hemlock. Dass Cypress im Endeffekt trotzdem nur wenig langsamer als GF100 ist und deutlich weniger Strom für diese Performance braucht, da kann man den ATI Ingenieuren nur Respekt zollen. Rein von der Dimensionierung ist GF104 viel eher das Gegenstück zu Cypress. Und dass auch GF104 keine Meisterleistung darstellt, wenn auch vom Gesamtpaket sicherlich besser als GF100, sollte klar werden, wenn man zB HD 5850 und GTX 460 vergleicht. Und dafür hat nVidia fast ein Jahr länger gebraucht. Das zeigt mehr als deutlich, dass Fermi schlichtweg eine Fehldesign ist. Auch wenn die Ideen dahinter zumindest teilweise gar nicht so schlecht sein mögen.
nVidia braucht einen grundsätzlich anderen Architekturansatz, um wieder konkurrenzfähig zu werden. Und ich bin zuversichtlich, dass da intern auch schon einiges am Laufen ist. Immer nur den G80 aufzubohren, hilft da auf Dauer nicht weiter. Der G80 mag zu seiner Zeit nicht so schlecht gewesen sein. Das liegt aber auch daran, dass die Konkurrenz schwächelte. Mittlerweile ist das Konzept des G80 überholt, speziell was die Shader-Architektur betrifft.

Also bitte, ruhig mal etwas über den Tellerrand schauen und die nVidia Brille abnehmen. ;)
 
die Hd 5000 reihe ist die eigentlich ältere, wenn man von der Architektur ausgeht,sie basiert immer noch auf der 2900xt ist aber deutlich verbessert worden.die fermi architektur ist eine vollkommen neue architektur.die größere Fläche der fermi resultiert auch aus der gesamten extra Funktionen die die architektur möglich macht,cuda Anwendungen.auch die überragende tesselation Leistung hat damit zu tun.die letzte Karte die von ati von der Leistung besser war als die nvidia war die x1950 xtx im Vergleich mit der 7900 gtx damals,aber seit der genialen g80 hat ati kein Land mehr gesehen.ich erinnere nur an die Katastrophe 2900 xt gegen 8800 gtx/ultra,auch die Hd 3870 hatte keine wirkliche Chance gehabt.die hd 4870 war gut von der Leistung aber auch Chancenlos gegen eine gtx 280,wobei der Preis der ati Karte sehr gut war.das selbe Spiel dann wieder mit der hd 4890 gegen die gtx 285 keine Chance für ati.das einzige was sie machten war eine dual Karte zu bringen Hd 3870x2 Hd 4870x2 Hd 5970 (zwei Hd 5850).haben sie irgendetwas an der microtukler Problematik verbessert?die Antwort ist ganz klar nein nicht im geringsten.die Hd 6000 Serie wird auch wieder nur eine Antwort auf die gtx 480 sein,so wie die Hd 5870 eine Antwort auf die gtx 285 war.ati hat hier auch mehrere Monate gebraucht um sie zu schlagen.der jenige der hier reagiert ist ati.
 
die Hd 5000 reihe ist die eigentlich ältere, wenn man von der Architektur ausgeht,sie basiert immer noch auf der 2900xt ist aber deutlich verbessert worden.die fermi architektur ist eine vollkommen neue architektur.die größere Fläche der fermi resultiert auch aus der gesamten extra Funktionen die die architektur möglich macht,cuda Anwendungen.auch die überragende tesselation Leistung hat damit zu tun.

Zuerst einmal solltest du dich davon trennen, das der GF100 eine vollkommen neue Architektur ist... Denn das stimmt nicht.
Der GF100 ist wie der G80 eine Karte mit 1D Einheiten, man hat zwar ein vielen Stellen einiges optimiert, dennoch ist der GF100 nix grundlegend neues.

Als nächstes der Punkt Cuda... was kostet Cuda bitte für Transistoren? Cuda ist eine Schnittstelle um Software auf den ALUs auszuführen, nicht mehr und nicht weniger.

die letzte Karte die von ati von der Leistung besser war als die nvidia war die x1950 xtx im Vergleich mit der 7900 gtx damals,aber seit der genialen g80 hat ati kein Land mehr gesehen.ich erinnere nur an die Katastrophe 2900 xt gegen 8800 gtx/ultra,auch die Hd 3870 hatte keine wirkliche Chance gehabt.die hd 4870 war gut von der Leistung aber auch Chancenlos gegen eine gtx 280,wobei der Preis der ati Karte sehr gut war.das selbe Spiel dann wieder mit der hd 4890 gegen die gtx 285 keine Chance für ati.das einzige was sie machten war eine dual Karte zu bringen Hd 3870x2 Hd 4870x2 Hd 5970 (zwei Hd 5850).haben sie irgendetwas an der microtukler Problematik verbessert?die Antwort ist ganz klar nein nicht im geringsten.die Hd 6000 Serie wird auch wieder nur eine Antwort auf die gtx 480 sein,so wie die Hd 5870 eine Antwort auf die gtx 285 war.ati hat hier auch mehrere Monate gebraucht um sie zu schlagen.der jenige der hier reagiert ist ati.

Die 2900XT war von Anfang an seitens AMD als 8800GTS Konkurent angeboten, es gibt keine einzige offizielle Meldung, das AMD mit der Karte die G80 GTX attaktieren wollte. Dafür das es nur der GTS Konkurent war, hat er die GTX/Ultras mit 8xMSAA aber dennoch des öfteren Nass gemacht ;)

Zur HD4870... Gleiches Spiel, das war von Anfang an 260GTX Konkurent, bzw. hat AMD niergendwo die Leistungskrone mit dieser Karte angepeilt.

Zum Thema Dual Karten, MR sind auch bei NV vorhanden, da diese im AFR Rendermodi quasi technisch bedingt sind... Es sei denn man kontrolliert die Bildausgabe, was aber massiven Leistungsverlust zur Folge hat. Des weiteren sind MR absolut subjektiv, manche sehen sie, manche nicht. Pauschalisieren kann man da gar nix.

Und zum letzten, wie kommst du bitte darauf, das AMD mit der HD5870 die 285GTX schlagen wollte?
Die HD5870 war über ein halbes Jahr die GPU, welche DX11 in die PCs gebracht hat. Zusammen mit ihrem großen Bruder und den kleineren Schwestern hat AMD quasi lange von NV ein komplettes Sortiment DX11 GPUs im Angebot, wo NV nach gut einem Jahr gerade mal den HighEnd Bereich + bisschen gehobene Mittelklasse abdecken kann...
Wer da langsamer ist, steht da wohl außer Frage...


Im übrigen, du solltest dich ebenso davon lösen, hier andauernd zu erwähnen, wer der Konkurent von wem war, bzw. wer mit welcher Karte reagiert. Denn das ist schwachfug hoch 3... Die Karten sind Monate in der Entwicklung, man legt die groben Daten schon intern sehr weit im vorraus fest. Sobald die Leistung des Konkurenten bekannt ist, lässt sich wenn dann nur bedingt reagieren...

Im übrigen mal ein kleiner Denkanstoß.
R600/G80
halbes Jahr vorsprung für NV, ca. 30% Mehrleistung im Schnitt für NV bei besserem Transistor/Leistung Verhältniss für NV (97%)

RV770/G200
zeitgleich, ca. 30% Mehrleistung für NV, ca. 45% mehr Transistoren bei NV, sprich schlechteres Transistoren/Leistungsverhältniss

RV870/GF100
halbes Jahr vorsprung für AMD, ca. 20% Mehrleistung im Schnitt für NV, ca. 48% mehr Transitoren für NV, sprich schlechteres Transistoren/Leistungsverhältniss


Lass die Entwicklung mal so weiter gehen... AMD baut im Schnitt über die letzten 3 Generationen ein halbes Jahr schneller, und dazu mit jeder Architektur noch effizienter als NV.
Wer derartige Zahlen nicht erkennt, hat eindeutig eine zu grüne Brille auf...

Der GF100 ist keinesfalls eine schlechte Karte, wer auf absolute Leistung nicht verzichten will und sich keine Dual GPU Karte anschaffen möchte, kommt um eine GF100 GPU nicht drum rum. Denoch erkauft man sich die Mehrleistung mit einer ineffizienteren Architektur. Daran gibt es leider nichts zu rütteln.

Ich bin gespannt, wenn AMD in der nächsten Gen. wieder auf 4D Einheiten setzt, wie das ganze dann ausschaut. Im Moment schleift man ja den fünften Shader mehr oder weniger nur mit. Mit 4D Einheiten könnte das ganze nochmals einen guten Schritt in Sachen effizienz nach oben machen...
Ich denke mal seitens NV wird man zukünftig auch von den 1D Einheiten weg müssen. Die Technik macht vllt bei kleinen Karten und wenig ALUs mehr her, aber um so mehr ALUs es werden, desto ineffizienter scheint das ganze zu werden...
 
@fdsonne:
Warum sollte man die Hersteller raushalten? Das macht keinen Sinn denn ohne die Umsatzung der Theorie zu betrachten, nutzt die ganze Diskusion gar nix...

weil du nicht 5d architektur mit 1d architektur vergleichen kannst, indem du cypress und fermi mitsamt dem uncore vergleichst, der sich massiv auf die gpu-effiziens auswirkt, aber mit der shaderarchitektur nichts zu tun hat.

mal ganz dummes beispiel: was ist besser, 8800gtx oder 2900xt? aha! 1d-shader sind klar besser
was ist besser: gtx470 oder 5870? aha! 5d-shader sind klar besser
du siehst, anhand fertiger produkte lässt sich die diskussion um das bessere prinzip, 1d oder 5d wohl nicht sinnig erörtern ;)

@turbofucker:
die Hd 6000 Serie wird auch wieder nur eine Antwort auf die gtx 480 sein,so wie die Hd 5870 eine Antwort auf die gtx 285 war.
ähm, die gtx285 ist nur ein refresh der gtx280. die 5870 beantwortet gar nichts, sie legt vor. und das nicht zu knapp. gtx480 ist nvidias antwort auf die 5870 und sicher nicht das pendant zur kommenden 6870...

Und dass auch GF104 keine Meisterleistung darstellt, wenn auch vom Gesamtpaket sicherlich besser als GF100, sollte klar werden, wenn man zB HD 5850 und GTX 460 vergleicht. Und dafür hat nVidia fast ein Jahr länger gebraucht. Das zeigt mehr als deutlich, dass Fermi schlichtweg eine Fehldesign ist.
die gtx460 (mit dem beschnittenen gf104! der volle hat 384 shader) steht der 5850 nicht wirklich nach. leistung und verbrauch sind ziemlich dicht beieinander, was angesichts der hervorragenden leistung von ati mit der hd5k alles andere als selbstverständlich ist. dass fermi so große probleme hat liegt vor allem an einem: dem 40nm prozess. den bekommt nvidia einfach nicht in den griff. ati hat da bessere arbeit geleistet. das macht fermi aber nicht automatisch zu einem kompletten fehlschlag.

Die 2900XT war von Anfang an seitens AMD als 8800GTS Konkurent angeboten, es gibt keine einzige offizielle Meldung, das AMD mit der Karte die G80 GTX attaktieren wollte. Dafür das es nur der GTS Konkurent war, hat er die GTX/Ultras mit 8xMSAA aber dennoch des öfteren Nass gemacht
die x2800xt (wie sie ursprünglich heißen sollte) würde angeblich um die 8800gtx kreise ziehen. nvidia hat aus angst vor der angeblichen überkarte schon diverse pläne für eine 8800ultra (mit eigener gpu) und 8900gtx gehabt. allerdings wurde bereits vor release der 2900xt klar, dass sie floppen würde und so hat ati dann offiziell die 8800gts als ziel ausgerufen. ich hab die umbenennung in 2900 nie nachvollziehen können. damit haben sie sich imho lächerlich gemacht. sie wussten dass sie die 8800 nichtmal angreifen können, geschweigedenn eine mögliche 8900 und haben sich namentlich damit völlig ins abseits manövriert...
danach war ein neues namensschema unvermeidlich. ich fand das alte system besser... sowohl bei ati als auch bei nvidia. das waren noch zeiten, als beide das gleiche schema benutzt haben^^
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh