[Sammelthread] Grafikkarten - Technikdiskussion

Ähm, das haben PCZeus und fdsonne doch ein paar Posts über die beschrieben?!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Neja, das mit dem Interconnet wäre jetzt nicht das Problem an sich. Wie du schon erwähntest, geht das auch mit Multicore Systemen ohne Probleme. Die Daten könnte man schon zur anderen GPU schaufeln ohne das das IC zum Flaschenhals wird. Das eigentliche Problem das ich darin sehe ist die momentane Architektur der GPUs. Wie will man auf den Speicher der anderen GPU zugreifen? Dazu bräuchten die GPUs Logikeinheiten ähnlich die der CPUs (in puncto Memory Controller, Cache, Misses usw.)

Neja doch, der Interconnect wäre wohl ein großes Problem, schau dir doch mal aktuelle Multi Sockel Technik an... Nehmen wir den Nehalem EP. Dank Tripplechannel und hochgetaktetem DDR3 Speicher ist die Speicherbandbreite sehr hoch. Aber der QPI Link, der die CPUs miteinander verbindet ist im Vergleich dazu recht lahm. Klar es ist noch vertretbar, aber wir reden bei GPUs ja nicht von Speicherbandbreiten um die 20GB/sec sondern von 150GB/sec und aufwärtz.

Ich denke mal man müsste eine Art Logik schaffen, die die Daten nach der Bestimmung auftrennt, Daten wo weniger Bandbreite benötigt wird, könnten in einen Shared RAM kommen, und das, was man sehr fix anbinden muss, kommt in den dedizierten RAM jeder GPU. Und wird dementsprechend doppelt gehalten.

Wenn die Karte Bild A berechnet und wartet, bis die zweite GPU mit Bild B fertig ist, vergeht Zeit. Das resultiert eben in weniger FPS, da in der Zwischenzeit wo gewartet wurde eigentlich schon ein neues Bild angezeigt wurden wäre (allerdings in unregelmäßigem Abstand) ;)

Wenn die Karte Bild A berechnet und wartet, bis die zweite GPU mit Bild B fertig ist, dann brauch man kein MGPU System, weil dann jede GPU im Wechsel immer nur ein Bild errechnet... Was soviel bedeutet wie, die Leistung steigt nicht.

Es müssen GPU 1 und GPU 2 gleichzeitig Bild A und Bild B errechnen, nur muss die Ausgabe des Bildes angeglichen werden.
Bzw. besser wäre es, wenn man das ganze Zeit misst, wie GPU 1 für ein Bild braucht und GPU 2 dann um diese Zeit versetzt erst mit dem zweiten Bild anfängt. Da die FPS Raten innerhalb von wenigen ms nicht extrem stark schwanken, sondern halbwegs konstant über die Sekunden laufen, bekommt man so die Zeitabstände angeglichen und vermeidet weitestgehend unnötig warterei.

Nachteil, wie bekommt man vorher raus, wie lange ein Bild brauch um berechnet zu werden?
Das kann dann quasi nur über eine Art mittelwert geschehen den man aus den vorrangegangenen Bildern bildet.

Heist also, um so konstanter der Frameverlauf, desto weniger Warterei muss ausgeführt werden für syncrone Ausgabezeiten. Bei start schwankendem Framezeiten leidet aber die Effizienz.
 
So in der Art habe ich mir das Gedacht. Aber da das Thema sehr Komplex ist, und ich mich nicht so auskenne, frage ich einfach.

Wie gesagt ich mache das alles mit "Hausverstand".

Hätte jemand von euch einen Link wo Relativ einfach erklärt wird, was ALLES passiert bis ein Bild auf den Schirm kommt (also was in der Graka passiert).
 
Neja doch, der Interconnect wäre wohl ein großes Problem, schau dir doch mal aktuelle Multi Sockel Technik an... Nehmen wir den Nehalem EP. Dank Tripplechannel und hochgetaktetem DDR3 Speicher ist die Speicherbandbreite sehr hoch. Aber der QPI Link, der die CPUs miteinander verbindet ist im Vergleich dazu recht lahm. Klar es ist noch vertretbar, aber wir reden bei GPUs ja nicht von Speicherbandbreiten um die 20GB/sec sondern von 150GB/sec und aufwärtz.

Ich denke mal man müsste eine Art Logik schaffen, die die Daten nach der Bestimmung auftrennt, Daten wo weniger Bandbreite benötigt wird, könnten in einen Shared RAM kommen, und das, was man sehr fix anbinden muss, kommt in den dedizierten RAM jeder GPU. Und wird dementsprechend doppelt gehalten.



Wenn die Karte Bild A berechnet und wartet, bis die zweite GPU mit Bild B fertig ist, dann brauch man kein MGPU System, weil dann jede GPU im Wechsel immer nur ein Bild errechnet... Was soviel bedeutet wie, die Leistung steigt nicht.

Es müssen GPU 1 und GPU 2 gleichzeitig Bild A und Bild B errechnen, nur muss die Ausgabe des Bildes angeglichen werden.
Bzw. besser wäre es, wenn man das ganze Zeit misst, wie GPU 1 für ein Bild braucht und GPU 2 dann um diese Zeit versetzt erst mit dem zweiten Bild anfängt. Da die FPS Raten innerhalb von wenigen ms nicht extrem stark schwanken, sondern halbwegs konstant über die Sekunden laufen, bekommt man so die Zeitabstände angeglichen und vermeidet weitestgehend unnötig warterei.

Nachteil, wie bekommt man vorher raus, wie lange ein Bild brauch um berechnet zu werden?
Das kann dann quasi nur über eine Art mittelwert geschehen den man aus den vorrangegangenen Bildern bildet.

Heist also, um so konstanter der Frameverlauf, desto weniger Warterei muss ausgeführt werden für syncrone Ausgabezeiten. Bei start schwankendem Framezeiten leidet aber die Effizienz.

In Bezug auf den Interconnect dachte ich da auch an einen gemeinsamen RAM und zusätzlich noch ein Cache für jede GPU die entsprechend groß ist. Wenn GPU 1 nur ein Teil von dem Bild berechnet, braucht sie die Daten der anderen GPU nicht zwangsweise.

Mit "warten" meinte ich folgendes:

Das zu berechnende Bild wird wie ein Mosaik in winzige Kacheln unterteilt. Anschließend wird durch einen Controller per Logik festgelegt, welche GPU was berechnet. Danach wandern die Daten zu den jeweiligen GPUs. Die fertigen Daten werden in einem Puffer gesammelt und als ein ganzes Bild ohne jegliche Verzögerung ausgegeben.

Wenn GPU 1 tatsählich schneller fertig werden sollte als GPU 2, kann diese schon mit dem nächsten Bild anfangen, nur was ist wenn dieses komplett verworfen wird? Dann muss die Logik bzw. Aufteilung erneut berechnet werden, was wiederum Zeit kostet.
 
Ausser Die Fertige GPU Kommt her und Sagt:
So ich bin fertig, hey du da du hast ja noch 20 Mosaik´s zu berechbnen komm lass mal was rüberwachesn, eine Hand wäscht die andere.

So in etwa??
 
Wenn ich dich nun richtig verstanden habe, willst du die GPU, die schon mit ihren Anteilen fertig ist, mit der anstehenden Arbeit der anderen GPU belasten?

Das würde imho noch mehr Logik und Rechenleistung verlangen. Wenn da irgendwas nicht stimmt, geht noch mehr Leistung verloren als ohnehin schon der Fall ist.
 
Du musst dafür sorgen, dass auch die richtigen Daten in der richtigen Rehienfolge zur GPU gelangen. Sprich, da ist auch der Speicher daran beteiligt (in meinem Fall ist er für beide GPUs mal als shared zu betrachten). Das erfordert Logikeinheiten, und zwar nicht wenig davon! Man veranschauliche sich mal, wie viele Einheiten in einer CPU nötig sind um festzustellen, ob man nun die gebrauchten Daten im Cache hat, es sich um einen Miss handelt oder diese im RAM sind. Dann müssen diese noch angefordert werden, was wiederum wertvolle Zeit kostet.

Wenn die Logik bzw. die Koordination nicht einwandfrei von statten geht, geht der ganze Plan so auch nicht auf ;)
 
In Bezug auf den Interconnect dachte ich da auch an einen gemeinsamen RAM und zusätzlich noch ein Cache für jede GPU die entsprechend groß ist. Wenn GPU 1 nur ein Teil von dem Bild berechnet, braucht sie die Daten der anderen GPU nicht zwangsweise.

Das Problem am gemeinsamen RAM ist eben die Anbindung. Man könnte ähnlich aktueller CPUs einen Bereich schaffen, wo der Speichercontroller drin sitzt, diesen Bereich müsste man dann aber auch richtig Dick an die GPUs anbinden. Dazu kommt, das der Speicher bei zwei gleichzeitigen Zugriffen auch noch richtig dick angebunden werden müsste. Also gut 250GB/sec aufwärtz, bei den schnellsten GPUs aktuell. (bei zwei gleichzeitigen Zugriffen)

Und hier sehe ich das große Problem, dieser Interconnect zwischen GPU und der Einheit, wo der Speichercontroller sitzt...
Da nutzen auch Caches nicht viel. Weil eben doch einiges an Daten transferiert wird, die sich vor allem ständig ändern.

Mit "warten" meinte ich folgendes:

Das zu berechnende Bild wird wie ein Mosaik in winzige Kacheln unterteilt. Anschließend wird durch einen Controller per Logik festgelegt, welche GPU was berechnet. Danach wandern die Daten zu den jeweiligen GPUs. Die fertigen Daten werden in einem Puffer gesammelt und als ein ganzes Bild ohne jegliche Verzögerung ausgegeben.

Wenn GPU 1 tatsählich schneller fertig werden sollte als GPU 2, kann diese schon mit dem nächsten Bild anfangen, nur was ist wenn dieses komplett verworfen wird? Dann muss die Logik bzw. Aufteilung erneut berechnet werden, was wiederum Zeit kostet.

Das gibts jetzt auch schon, so einen Rendermodi, wo das Bild in ein Mosaik zerhackstückelt wird.
Problem ist halt, so wirklich effizient lässt sich das nicht umsetzen, einfach aus dem Grund, weil eben beispielsweise Rauchentwicklung oder alle Effekte, welche sich über mehrere Mosaikplatten ausbreiten von beiden GPUs berechnet werden müssten. Oder man muss quasi gescriptete Effekte bauen, die immer gleich aussehen (was heutzutage auch mies ist)
Wenn man sich Rauch aktueller Games ansieht, sollte dieser nie 100% identisch ausschauen. Weil man da wohl durch Zufallsgenerierte Zahlen das Aussehen mit jedem Durchlauf verändert.

Das ist ja der riesige Vorteil bei AFR, jede GPU bekommt komplett ihr eigenes Bild und kann dort walten wie sie lustig ist. Ohne beeinflussung.


Zum Thema Verwerfung, das ist so eine Sache, man müsste meinen, das sei bei AFR schon sehr schlimm, ist es aber irgendwie nicht. Wenn massive Last anliegt, skaliert sogar Quad CF/SLI noch recht gut. Obwohl da schon 3 Bilder im Vorraus berechnet werden.
Bei zwei GPUs sehe ich das eher weniger das Problem...
 
Ausserdem fällt mir gerade ein:

Wenn man jetzt wie fd sonne einen eigenen Controller einpackt in die GPU.

Hat man das Problem dass es nur für Dual GPU Karten sinn machen würde.
Bei zwei eigenständigen Karten wäre das Sowieso sinnlos und es würden trotzdem Produktionskosten und entwicklungskosten anfallen.
Und das nur für Dual-GPU karten wäre ja total unwirtschaftlich oder?

Ich meine ein Gemeinsamer Speicher bei 2 karten ist ja nicht Realisierbar (mit der Bandbreite der CF Bridge.) oder?
 
Ausserdem fällt mir gerade ein:

Wenn man jetzt wie fd sonne einen eigenen Controller einpackt in die GPU.

Hat man das Problem dass es nur für Dual GPU Karten sinn machen würde.
Bei zwei eigenständigen Karten wäre das Sowieso sinnlos und es würden trotzdem Produktionskosten und entwicklungskosten anfallen.
Und das nur für Dual-GPU karten wäre ja total unwirtschaftlich oder?

Ich meine ein Gemeinsamer Speicher bei 2 karten ist ja nicht Realisierbar (mit der Bandbreite der CF Bridge.) oder?

Dann muss halt die Bandbreite erhöht werden, oder man nutzt den Shared RAM nur für Daten, die wenig Bandbreite brauchen, beispielsweise als Texturecache...
 
Das wäre ja dann auch ein "Zwitterding" das nix ganzes und nix halbes ist...?

Egal ich mach hier mal ruhe, ich komme mir schon richtig Trollig vor.

Anders wirds wohl nicht gehen, echten Shared RAM und nur diesen, ohne Nachteile für aktuelle HighEnd GPUs bzw. dessen Nachfolger zu bauen ist in meinen Augen aktuell technisch nicht drin, weil einfach die Bandbreite nicht Kartenübergreifend realisierbar ist.

Mal ganz davon ab, wie soll das bei zwei Karten ausschauen?
Auf welcher der Karten schlummert dann der RAM? Da müsste man dann eine Masterkarte mit dem RAM bauen und eine/oder mehr andere Karte(n) mit den GPUs...

Shared RAM macht irgendwie nur auf Dual/Multi GPU Karten Sinn.

Aber das ändert ja nix am Thema, es kursierten ja hin und wieder mal gerüchte, das man zukünftige HighEnd Karten aus mehreren kleineren GPUs zusammen setzen will. Wenn das ganze dann auf einem Trägermaterial oder sogar in einem DIE vereint ist, würde man genau sowas brauchen...
Wobei die Sache bei vereint in einem DIE schon wieder unnötig aufwand bedeutet, da könnte man gleich eine riesige monster Single GPU bauen...


Das Problem ist halt, die HighEnd Käufer schreien nach mehr Leistung und um diese zu realisieren, ohne viel technischen Aufwand zu betreiben nimmt man zwei GPUs oder mehr. Ist unterm Strich aber kontraproduktiv, weil eine massiv auf paralleles Arbeiten ausgelegte Technik mehrfach ausgeführt wird.
 
Zuletzt bearbeitet:
@ Paul: das Problem mit der Bandbreite sehe ich gar nicht als so dramatisch an. Sicherlich wäre es möglich zig Lanes auf dem PCB zu so organisieren, dass man auf die Gewünschte Bandbreite kommt. Nur kommt das Problem der Kosten auf. Wie du schon angesprochen hattest, sind die momentanen CF/SLI Lösungen einfach am günstigsten im Vergleich zu der gebotenen Leistung.
 
Ich denke mal man müsste eine Art Logik schaffen, die die Daten nach der Bestimmung auftrennt, Daten wo weniger Bandbreite benötigt wird, könnten in einen Shared RAM kommen, und das, was man sehr fix anbinden muss, kommt in den dedizierten RAM jeder GPU. Und wird dementsprechend doppelt gehalten.

Ist zwar schon ne Weile her diese Diskussion hier aber damit könntest du in Bezug auf Dual GPUs/SLI sogar recht haben.

Wir hatten doch mal so eine jüngst eingereichte Lizenz von den Grünen im Bezug auf SLI bzw Dual GPUs wo eine Art Shared Ram zum Einsatz kommen sollte und jede GPU je nach Bedarf damit jonglieren konnte.

Das ganze klang in der Theorie bzw auf dem Lizenzblatt ganz ordentlich aber das war bei Hydra auch mal der Fall:)
 
Zuletzt bearbeitet:
Prozessor Leistungs Frage

Wenn ich jetzt eine Grafikkarte bekommen bei der ich im Spiel die settings höher stellen (Qualiät erhöhen kann) bräuchte dann der Prozessor mehr Leistung???
 
Wenn ich jetzt eine Grafikkarte bekommen bei der ich im Spiel die settings höher stellen (Qualiät erhöhen kann) bräuchte dann der Prozessor mehr Leistung???


Grundsätzlich gilt je höher die Auflösung und Qualität je mehr muss die Grafikkarte arbeiten und je weniger hat die Leistungsfähigkeit der CPU eine Gewichtung.

Sollte die CPU aber bei niedrigen Einstellungen schon die Grafikkarte nicht mit genug Material "füttern" können,wirst du auch bei hohen Settings mit einer potenten Grafikkarte keine Freude haben;)

Eine gewisse Balance zwischen CPU und GPU ist also von Nöten


Für die aktuellen Highendmonster vom Schlage einer 5870/5970er Reihe von ATI bzw der Fermi Baureihe von Nvidia sollte schon ein auf 3-4GHZ getakteter Core2Duo Pflicht sein um ein gesundes Maß an Performance zu erreichen.

Für das Maximum an Leistung kommt man aber an einem Quadcore Prozessor nicht vorbei
 
Zuletzt bearbeitet:
Grundsätzlich gilt je höher die Auflösung und Qualität je mehr muss die Grafikkarte arbeiten und je weniger hat die Leistungsfähigkeit der CPU eine Gewichtung.

Sollte die CPU aber bei niedrigen Einstellungen schon die Grafikkarte nicht mit genug Material "füttern" können,wirst du auch bei hohen Settings mit einer potenten Grafikkarte keine Freude haben;)

Eine gewisse Balance zwischen CPU und GPU ist also von Nöten


Für die aktuellen Highendmonster vom Schlage einer 5870/5970er Reihe von ATI bzw der Fermi Baureihe von Nvidia sollte schon ein auf 3-4GHZ getakteter Core2Duo Pflicht sein um ein gesundes Maß an Performance zu erreichen.

Für das Maximum an Leistung kommt man aber an einem Quadcore Prozessor nicht vorbei

Neja das kann man so nicht sagen...
Im Grunde spielt die CPU sogut wie keine Rolle, es sei denn, das Game braucht von Haus aus hohe CPU Leistung.
Ein Spiel, was ohne viel CPU Leistung schon extrem gut performt (vereinfacht gesagt) wird auch mit ner neuen GPU oder mit CF/SLI extrem gut skallieren.

Es gibt halt Spiele, die kommen ohne viel CPU Leistung an ein GPU Limit, andererseits gibt es Spiele, die hängen sehr stark an der CPU.
Ein GTA4 zum Beispiel macht sich nicht viel aus guten/schnellen Grafikkarten wenn die CPU nicht hinterher kommt. Ein Stalker CS oder CoP hingegen hängt sehr stark an der Grafikkarte...
Pauschalisierungen von die und die CPU sollte es für die und die Grafikkarte sein, kann man nicht wirklich machen.
Vor allem aus dem Standpunkt her, das sich die CPU Leistung seit 2006 quasi nicht wirklich signifikannt gesteigert hat (Quadcore bezogen)
Gut es gibt mittlerweise 6 oder gar 12 Kerner, aber das tut in Games keine Rolle...
 
Thema Aktuell: Effizienz aktueller Grafikkarten!

Mit diesem Beitrag von mir geht es los:
http://www.hardwareluxx.de/community/14703506-post63.html

Ich weiß nicht wieso du hier wieder auf das Thema Effizienz kommst?

Ist das das einzige Gegenargument das beim Fermi immer wieder ins Felde geführt wird

Es ging immer noch um die Aussage das ein GTX490 mit 1,2GHZ getaktet sein muss um mit einem Serien 5970er Chip zu konkurieren

Und dabei sollten einige Benchmarks als Grundlage dienen für das Widerlegen dieser Aussage.

Da Vantage plötzlich nicht mehr vergleichbar war wegen unterschiedlicher Systeme "räusper" wurde Heaven herangezogen,dies war wieder nicht naheliegend da "zu viel Geometrieleistung" gefordert wird.Nun gut dann eben die anderen DX11 Titel (Spiele)für die die Karten nunmal gebaut sind,wenns nicht PhysX ist wird eben mit schlechter Effizienz gekontert auch wenn das rein gar nix mit der obrigen Aussage zu tun hatte.:asthanos:

Lies dir nochmal mein Posting durch auf das du mit diesem Text geantwortet hast... Ganz langsam und unvoreingenommen.

Dann siehst du auch, warum aus technischer Sicht die Effizienz immer wieder zu sehen ist.
Leider sieht man in der hiesigen Betrachtungsweise idR nur die Absoluten FPS Zahlen als Vergleiche für Produkte. Unter die Haube, sprich ins Technische Detail gehen nur wenige. Andererseits könnte man auch Fragen, warum man immer mit rausgepickten DX11/PhysX/Tess Games/Benches kommt, wo das doch nur ein Bruchteil aller Games sind wie es quasi zu vergleichen gilt.
Übrigens, das war zu Anfangszeiten bei den X1800/X1900 Karten von ATI auch so, genau so wie beim R600 die Effizienz deutlich zu seiten NVs zeigte...

Wo ist also das Problem einzugestehen, das NV zwar eine schnelle Karte gebracht hat und mit einer vollausgebauten Karte sogar noch minimal was drauflegt, aber diese eben im Vergleich zur Konkurenz deutlich ineffizienter arbeitet... (Leistung/Stromaufnahe, Leistung/Chipgröße, usw.)
Das kann man selbst als größter NV Anhänger nicht verkennen...

Zumal es ja an der schnelligkeits Tatsache nichts ändert, auch wenns nur 15-30% hier und da sind. Wer mit dem Verbrauch leben kann, soll sich so eine Karte kaufen.
 
Zuletzt bearbeitet:
Wo ist also das Problem einzugestehen, das NV zwar eine schnelle Karte gebracht hat und mit einer vollausgebauten Karte sogar noch minimal was drauflegt, aber diese eben im Vergleich zur Konkurenz deutlich ineffizienter arbeitet...
Das kann man selbst als größter NV Anhänger nicht verkennen...

.

Nochmal meine Frage völlig voreingenommen ging es in der Fragestellung um irgendwelche Effizienzen?:asthanos:

Nein


Es ging um eine mögliche 490er die bei weiten keine 1,2GHZ Takt benötigt um an die Dualkarte heranzureichen.

Aber um nochmal auf deine Effizienz zurückzukommen

Um wieviel ist der Fermi mit dem letzten Treiberreleases schneller geworden?

Na die Antwort lässt sich im HWLuxx recht eindeutig ableiten.

Die 480GTX verbraucht zwar 100 Watt mehr ist dafür aber auch deutlich schneller als die 5870 und das kann sich mit dem nächsten Treibern sogar noch mehr verschieben.

Denn allen Unkenrufen zum Trotz ja auch Nvidia hat die Fähigkeit Treiber zu programmieren:d

Hier also imo noch von "unterirdisch" schlechten Energiekonsum zu reden(wie das einige nicht du offenbar praktizieren) ist in Anbetracht der nun zur Verfügung stehenden Leistung in Games absolut deplatziert und das prangere ich an
 
Zuletzt bearbeitet:
Nochmal meine Frage völlig voreingenommen ging es in der Fragestellung um irgendwelche Effizienzen?:asthanos:

Nein


Es ging um eine mögliche 490er die bei weiten keine 1,2GHZ Takt benötigt um an die Dualkarte heranzureichen.

Neja, sinnfreie Pauschalaussagen, darauf muss man nicht unbedingt eingehen...
Schon alleine, wenn man das ganze sehr leicht wiederlegen kann. Dennoch gibt es mit Sicherheit auch Anwendungsfälle, wo selbst 1,2GHz GPU (sprich 2,4GHz ALU) Takt beim Fermi nicht reichen um der Dualkarte von AMD das Wasser zu reichen. Aber hier bewegen wir uns einerseits weit am Thema vorbei und andererseits sind das dann Einzelfälle...

Aber um nochmal auf deine Effizienz zurückzukommen

Um wieviel ist der Fermi mit dem letzten Treiberreleases schneller geworden?

Na die Antwort lässt sich im HWLuxx recht eindeutig ableiten.

Die 480GTX verbraucht zwar 100 Watt mehr ist dafür aber auch deutlich schneller als die 5870 und das kann sich mit dem nächsten Treibern sogar noch mehr verschieben.

Denn allen Unkenrufen zum Trotz ja auch Nvidia hat die Fähigkeit Treiber zu programmieren:d

Hier also imo noch von "unterirdisch" schlechten Energiekonsum zu reden(wie das einige nicht du offenbar praktizieren) ist in Anbetracht der nun zur Verfügung stehenden Leistung in Games absolut deplatziert und das prangere ich an

Effizienz ist nicht ausschließlich die Tatsache "Leistung/Watt", Effizienz geht noch auf ganz andere Bereiche ein, wie eben "Leistung/Chipfläche" wie ich oben schon erwähnte.

Aber zum Fett markierten, warum benutzt du für den Verbrauchsvergleich absolute Werte wie "100W mehr" aber für den Leistungsvergleich kommst du mit Relationen? Das passt nicht zusammen.
Nenn das Kind doch beim Namen... Ein Fermi im Std. Takt brauch ca. 50% mehr Energie um eine HD5870 im Std. Takt um ca. 15-30% zu schlagen. Oder aber, der Fermi brauch ca. die gleiche Energie wie die HD5970 bei idR 15-25% weniger Leistung. Auch wenn NV hier und da durch Treiber noch was rauskitzelt bleibt das ganze ineffizienter als bei AMD.


Um mal weiter zu spekulieren, ich verspreche mir auch nicht so viel vom 28nm Refresh. Die Vergangenheit zeigte leider, das nakte DIE Shrinks auf kleinere Herstellungsprozesse (mit Detailverbesserungen) nicht den Effekt bringen, den man erwarten sollte. --> Siehe G200/G200b.

Und ich gehe weiter mit der Argumentation, das NV zwar seit dem G80 mit den 1D ALUs eine performante Architektur hat, wo zweifelsohne viel Potenzial steckt, aber mit jeder neuen Karte die Effizienz (siehe oben) weiter zugunsten AMDs rutscht. Nähmlich wo ein G80 einem R600 trotz größeren Herstellungsprozess und weniger Chipfläche noch überlegen war ist es jetzt und auch beim G200 schon andersrum.

Rein aus technischer Sicht betrachtet, wäre das 5D Shadergesamtpaket seitens AMD die potentere Lösung. Da bringen NV auch 28nm und volle 512 ALUs nix.
Ich denke mal, in ein/zwei Generationen wird NV ebenso von 1D ALUs absehen.
 
Nenn das Kind doch beim Namen... Ein Fermi im Std. Takt brauch ca. 50% mehr Energie um eine HD5870 im Std. Takt um ca. 15-30% zu schlagen. Oder aber, der Fermi brauch ca. die gleiche Energie wie die HD5970 bei idR 15-25% weniger Leistung.

Ich habe die 100Watt genommen weil das so in etwa hinkommen müsste im Maximalverbrauch mit Standardkarten allerdings ist die Leistung in Games/Benchmarks dazu schwankend und verändert sich immer noch stark mit den Treibern die schon released sind und die noch kommen.

Also ist eine Aussage darüber in Form von Fermi/5870 130%/100% auch absolut pauschal.

Denn ziehe ich den "first release" Treiber der 5870er Karten zur Rate sieht diese Aufstellung wieder gänzlich anderst aus.

Nur fakt ist das man nicht mehr von einer unterirdisch schlechten Leistung/Watt ausgehen kann dazu zeichnen die Apps mittlerweile ein gänzlich anderes Bild.

Sicherlich ist es immer noch nicht ideal aber ein Hang zur Übertreibung bieten die jetzigen Ergebnisse nicht mehr.
 
Zuletzt bearbeitet:
Wo ist also das Problem einzugestehen, das NV zwar eine schnelle Karte gebracht hat und mit einer vollausgebauten Karte sogar noch minimal was drauflegt, aber diese eben im Vergleich zur Konkurenz deutlich ineffizienter arbeitet... (Leistung/Stromaufnahe, Leistung/Chipgröße, usw.)
Das kann man selbst als größter NV Anhänger nicht verkennen...

Mit so einer Aussage wäre ich sehr vorsichtig, da sie in dieser Allgemeinheit einfach falsch ist. Effizienz von unterschiedlich schnellen Karten zu beurteilen ist sowieso nicht sehr sinnvoll, da die Verlustleistung beim höher takten nicht linear ansteigt.
Nehmen wir aber mal an, du willst GTX480 und HD5870 auf biegen und brechen bei default Takt und Voltage miteinander vergleichen. Nun hängt die ganze Sache aber von der Anwendung ab, es gibt so einige Beispiele, bei denen die GTX480 troz ihres hohen Verbrauchs gewinnen würde, da die HD5870 leistungstechnisch einfach total zusammen bricht. Wenn wir uns nun weiter auf einen repräsentavien Querschnitt über die gängigen Spiele einigen, so müssen wir sicherlich aktiviertes AA und AF annehmen, da qualitatives spielen ohne diese nicht möglich ist.
Jetzt kommt leider Ati's-AF-Cheat zum tragen, denn niemand kann sagen wieviel Performance Ati dadruch gewinnt. Da Ati hier keine Möglichkeit zur Deaktivierung gibt können wir aber davon ausgehen, dass dieser Performanceunterschied extrem groß ist. Ein Vergleich ist also hier nicht möglich, auch wenn ich gerne glaube, dass Ati den wahrscheinlich gewinnen würde.

Bei der GTX470 sieht es aber schon ganz anders aus, auch wenn man eine GTX480 auf HD5870 Niveau heruntertaktet und dann vergleicht. Nimmt man Anwendungen mit viel Tesselation oder Anwendungen wo der HD5870 der Speicher aus geht, so gewinnt NV. Jetzt werden natürlich alle sagen, lol wenn der HD5870 der Speicher aus geht ist es auch total unfair. Nur frage ich dann, ist es fair den Verbrauch von 1,5GB DDR5 gegen 1GB DDR5 zu messen, wenn die Anwendung nur 900MB braucht?

Um es auf den Punkt zu bringen, deine Aussage ist viel zu allgemein, in den meisten Fällen nur schwer nachzumessen und auch in sehr vielen Fällen einfach komplett falsch!
 
Also ist eine Aussage darüber in Form von Fermi/5870 130%/100% auch absolut pauschal.

Vllt hätte ich noch dazu schreiben sollen Stand heute bei gängigen Games...
Das sich das zukünfig noch stark ändern kann, steht außer Frage. Aber sowohl in die eine als auch in die andere Richtung.

Mit so einer Aussage wäre ich sehr vorsichtig, da sie in dieser Allgemeinheit einfach falsch ist. Effizienz von unterschiedlich schnellen Karten zu beurteilen ist sowieso nicht sehr sinnvoll, da die Verlustleistung beim höher takten nicht linear ansteigt.

Dann können wir gleich alle Reviews und Vergleiche einstampfen, weil es nie zwei Karten geben wird, die wirklich 100% exakt gleich schnell sein werden...

Mal ganz davon ab, warum sollte man unterschiedlich schnelle Karten nicht in Sachen Effizienz vergleichen können? Und vor allem, was hat das mit dem Takt zu tun?

Wir nehmen das was uns gegeben wird, sprich eine Standard AMD und eine Standard NV Karte der aktuellen Generation und vergleichen beim Thema Effizienz die durchschnittliche Leistung pro Energieverbrauch, pro Chipfläche usw.
Logischerweise steht und fällt der Vergleich mit den Anwendungen, dennoch gilt es hier als objektiver Betrachter aufzupassen, das die Anwendung das ganze nicht verfälscht. Kein Mensch brauch rausgepickte Benches um Produkte in das ein oder andere Licht zu rücken.

Nur frage ich dann, ist es fair den Verbrauch von 1,5GB DDR5 gegen 1GB DDR5 zu messen, wenn die Anwendung nur 900MB braucht?

Um es auf den Punkt zu bringen, deine Aussage ist viel zu allgemein, in den meisten Fällen nur schwer nachzumessen und auch in sehr vielen Fällen einfach komplett falsch!

Das ist eine Sissifuss Rechnung die du bringst.
Man könnte auch fragen, ob es Fair ist Benches ala Metro oder weis der Geiner zu testen, wo doch nur ein Bruchteil aller Games überhaupt auf PhysX oder Tesselation aufbaut.
Oder aber warum man nicht auch Anwendungen testet, die im GPGPU Sektor angesiedelt sind usw...
Im übrigen gibt es die AMD Karte auch mit 2GB... Testen wir also Anwendungen die annähernd 2GB verballern und das Blatt wendet sich wieder... --> Sissifuss Rechnung.

Wie schon gesagt, um das Bild zu verfälschen gibt es viele Möglichkeiten, einen objektiven Betrachter zeichnet hierbei aus, das er eben diese erkennt und den Test als nicht Objektiv abstempelt.
 
Vllt hätte ich noch dazu schreiben sollen Stand heute bei gängigen Games...
Das sich das zukünfig noch stark ändern kann, steht außer Frage. Aber sowohl in die eine als auch in die andere Richtung.

Das wäre schon mal eine sehr wichtige Einschränkung gewesen. Außerdem ist klar das sich die Sache nur zugunsten von NV verschiebt, solange wir über HD5xxx und GTX4xx reden. Zum einen durch die besser werdenden Treiber der GTX4xx im Gegensatz zu den schon so gut wie ausgereiften bei Ati und zum anderen durch mehr DX11 Games. Wie sich das Kräfteverhältnis dort verschiebt sieht man ja bereits an verfügbaren Spielen und die sind noch nicht mal nativ DX11.


Dann können wir gleich alle Reviews und Vergleiche einstampfen, weil es nie zwei Karten geben wird, die wirklich 100% exakt gleich schnell sein werden...

Mal ganz davon ab, warum sollte man unterschiedlich schnelle Karten nicht in Sachen Effizienz vergleichen können? Und vor allem, was hat das mit dem Takt zu tun?

Wir nehmen das was uns gegeben wird, sprich eine Standard AMD und eine Standard NV Karte der aktuellen Generation und vergleichen beim Thema Effizienz die durchschnittliche Leistung pro Energieverbrauch, pro Chipfläche usw.
Logischerweise steht und fällt der Vergleich mit den Anwendungen, dennoch gilt es hier als objektiver Betrachter aufzupassen, das die Anwendung das ganze nicht verfälscht. Kein Mensch brauch rausgepickte Benches um Produkte in das ein oder andere Licht zu rücken.

Richtig, man wird kaum gleich schnelle Karten finden, aber erstens kann man die schneller heruntertakten und zweitens warum nimmst du die GTX480? Die GTX470 ist seit dem 256ger Treiber fast so schnell wie die HD5870 und ohne Treibercheats von Ati ist sie mit absoluter Sicherheit deutlich schneller als die HD5870. Zieht man nun hier den Vergleich, so kann man gar nicht mehr klar sagen ob die GTX470 oder die HD5870 effizienter ist.



Das ist eine Sissifuss Rechnung die du bringst.
Man könnte auch fragen, ob es Fair ist Benches ala Metro oder weis der Geiner zu testen, wo doch nur ein Bruchteil aller Games überhaupt auf PhysX oder Tesselation aufbaut.
Oder aber warum man nicht auch Anwendungen testet, die im GPGPU Sektor angesiedelt sind usw...
Im übrigen gibt es die AMD Karte auch mit 2GB... Testen wir also Anwendungen die annähernd 2GB verballern und das Blatt wendet sich wieder... --> Sissifuss Rechnung.

Wie schon gesagt, um das Bild zu verfälschen gibt es viele Möglichkeiten, einen objektiven Betrachter zeichnet hierbei aus, das er eben diese erkennt und den Test als nicht Objektiv abstempelt.

Es ist eine Sissifuss Rechnung, wenn ich den zusätzlichen Stromverbrauch von 0,5GB DDR5 anmerke? Natürlich gibt es auch 2GB Versionen der HD5870 und die sind deutlich lauter und verbrauchen deutlich mehr Strom. :)

Am Ende ist es immer eine Frage der Anwendung, aber die Fermi-Architektur als ineffizient zu bezeichen ist doch nun wirklich quatsch. Fermi ist halt bereits eine echte DX11 Architektur und somit sollte man seine Effizienz auch nicht an alten DX9-Games beurteilen, die eh auf jeder Karte mit max. Details laufen.
 
Es liegt doch auf der Hand das plötzlich sämtliche DX11 Titel ob es nun Benchmarks wie Heaven oder Spiele sind zerredet werden mit denen zu Release Zeiten der 5er ATI Karten noch umhergeschwenkt wurde als gäben es kein Morgen mehr
Da hast du leider vom Kontext überhaupt nichts verstanden. Dass du so reagierst, zeigt nur wieder mal, dass du nicht unvoreingenommen diskutieren willst und sachliche Diskussionen permanent boykottierst. Ich habe nicht von DirectX 11 gesprochen, sondern von synthetischen und praxisnahen Workloads. Wenn dir der Unterschied nicht bewusst ist, dann solltest du mal darüber nachdenken, woran das liegen könnte.

Ich persöhnlich glaube aber das die GTX490 noch kommt weil, warum arbeitet AMD wohl an einer Highendkarte mit 375Watt TDP??
Tun sie das? Bisher ist das lediglich ein ziemlich unglaubwürdiges Gerücht, sonst nichts.


Btw, an alle, die hier meinen, die Fermi Architektur hätte so viel Potenzial, wäre es doch mal wünschenswert, wenn sie das dann auch auf technischer Basis begründen würden. Denn ehrlich gesagt sehe ich nichts, was dafür sprechen würde. Die Geschichte hat uns gelehrt, dass für hoch parallele Workloads effiziente Vektorarchitekturen notwendig sind. Und davon ist Fermi weit entfernt. Deshalb hat Fermi auch so eine schlechte Energieeffizienz und deshalb braucht der Chip enorm viel Fläche. Und das kann man nicht einfach mit einer neuen Revision beheben. Dafür braucht es grundlegende strukturelle Änderungen, was dann praktisch eine andere Architektur darstellt.
 
die geschichte hat uns auch gelehrt das man aus nem total verkorksten Chip wie dem R600 was machen kann ( auf dem bekanntermasen auch die HD5000er serie noch basiert oder? )

Fermi zeigt ganz klar das leistung da ist, siehet den heaven benchmark. und jetzt rede das nicht klein. solche benches sind zwar immer nur ein beispiel. aber im endeffekt spiegeln auch sie eine leistung wieder.

die zeit wird zeigen was aus Fermi wird. es wid verbesserungen geben die leistung wird steigen, oder es kommt vllt noch was neues, wissen werden wir das aber erst wenn die nächste generation am markt ist
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh