graka-rechenleistung

supergrobi666

Enthusiast
Thread Starter
Mitglied seit
26.04.2007
Beiträge
115
hab schon gesucht aber keine verständliche antwort gefunden.

meiner frage:

1 gigaflop sind 1.000.000.000 rechenoperationen pro sekunde. wieso ist dann z.b. laut pc-erfahrung.de eine hd 4850 trotz mehr gigaflops langsamer als eine 9800 gtx? hat das mit den teibern zu tun?

wäre froh, wenn ihr das einem laien wie mir verständlich machen könntet. interessiert mich brennend.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,

das liegt in erster Linie daran, dass FLOPS (nicht FLOP) eine Einheit für Gleitpunktrechenoperationen pro Sekunde ist, allerdings ist längst nicht alles, was eine GPU macht, Rechnen mit Gleitpunktzahlen. Das braucht man zwar recht viel, zum Beispiel für die Transformation der Vertices, die Perspective Projection, fürs Lighting und fürs Shading. Das ist aber nicht alles! In den einzelnen Stufen der Renderpipeline (also des Ablaufs, der aus den dreidimensionalen Geometrieinformationen ein zweidimensionales Bild auf deinem Monitor bastelt) passiert noch viel mehr als lediglich schnödes Rechnen mit Zahlen, beispielsweise müssen Farbwerte aus Texturen gelesen werden (das machen die TMUs), es müssen solche Dinge wie Antialiasing oder verschiedene Kompressionsvarianten (z.B. Farb- und Z-Kompression) angewendet werden (das machen zB ROPs), es wird gefiltert... Die tatsächliche mathematische Leistung (man sagt auch arithmetische Leistung, was korrekt ist, weil es um grundlegende arithmetische Operationen geht - für gewöhnlich nur Addition und Multiplikation) hat also mit dem tatsächlichen Output zwar einiges zu tun, aber er hängt eben nicht nur davon ab.

edit: Was mir gerade noch einfällt und was natürlich elementar wichtig ist, abseits von anderen (Render-)Pipelinestufen ist die Arithmetikleistung, wie sie für Grafikkarten angegeben wird, natürlich ein theoretischer Peakwert, der aufgrund der gesamten verfügbaren Hardware errechnet wird. In der tatsächlichen Nutzung kommt man da je nach Applikation und der Güte des dynamischen Scheduling nah oder weniger nah ran.
 
Zuletzt bearbeitet:
abgesehen davon verwenden die ati Grafikkarten 5d Shader, die schwieriger auslastbar sind als die 1d Shader der Nvidia Grafikkarten. Zwar haben die 5d Shader den Vorteil, dass sie auf dem Chip weniger Fläche in Anspruch nehmen sie sind aber zumindest derzeit (ob sich das mal ändert wenn gpgpu eine größere Rolle spielt, ka...) noch weniger effizient als die 1d Shader der nv Karten. Es ist nicht so, dass die theoretisch maximale arithmetische Rechenleistung permanent abgerufen wird, ganz im Gegenteil - die reale Auslastung spielt hier die entscheidende Rolle.
 
und eine 4850 ist nicht langsamer als eine 9800gtx ;) erst die 9800gtx+ liegt gleich auf bzw manchmal ein takken vor bzw hinter der 4850
 
abgesehen davon verwenden die ati Grafikkarten 5d Shader, die schwieriger auslastbar sind als die 1d Shader der Nvidia Grafikkarten. Zwar haben die 5d Shader den Vorteil, dass sie auf dem Chip weniger Fläche in Anspruch nehmen sie sind aber zumindest derzeit (ob sich das mal ändert wenn gpgpu eine größere Rolle spielt, ka...) noch weniger effizient als die 1d Shader der nv Karten. Es ist nicht so, dass die theoretisch maximale arithmetische Rechenleistung permanent abgerufen wird, ganz im Gegenteil - die reale Auslastung spielt hier die entscheidende Rolle.

Ist das, was oben in meinem edit steht. ;)
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh