Neurosphere
Enthusiast
- Mitglied seit
- 06.11.2008
- Beiträge
- 4.324
Ähm, das haben PCZeus und fdsonne doch ein paar Posts über die beschrieben?!
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Neja, das mit dem Interconnet wäre jetzt nicht das Problem an sich. Wie du schon erwähntest, geht das auch mit Multicore Systemen ohne Probleme. Die Daten könnte man schon zur anderen GPU schaufeln ohne das das IC zum Flaschenhals wird. Das eigentliche Problem das ich darin sehe ist die momentane Architektur der GPUs. Wie will man auf den Speicher der anderen GPU zugreifen? Dazu bräuchten die GPUs Logikeinheiten ähnlich die der CPUs (in puncto Memory Controller, Cache, Misses usw.)
Wenn die Karte Bild A berechnet und wartet, bis die zweite GPU mit Bild B fertig ist, vergeht Zeit. Das resultiert eben in weniger FPS, da in der Zwischenzeit wo gewartet wurde eigentlich schon ein neues Bild angezeigt wurden wäre (allerdings in unregelmäßigem Abstand)
Neja doch, der Interconnect wäre wohl ein großes Problem, schau dir doch mal aktuelle Multi Sockel Technik an... Nehmen wir den Nehalem EP. Dank Tripplechannel und hochgetaktetem DDR3 Speicher ist die Speicherbandbreite sehr hoch. Aber der QPI Link, der die CPUs miteinander verbindet ist im Vergleich dazu recht lahm. Klar es ist noch vertretbar, aber wir reden bei GPUs ja nicht von Speicherbandbreiten um die 20GB/sec sondern von 150GB/sec und aufwärtz.
Ich denke mal man müsste eine Art Logik schaffen, die die Daten nach der Bestimmung auftrennt, Daten wo weniger Bandbreite benötigt wird, könnten in einen Shared RAM kommen, und das, was man sehr fix anbinden muss, kommt in den dedizierten RAM jeder GPU. Und wird dementsprechend doppelt gehalten.
Wenn die Karte Bild A berechnet und wartet, bis die zweite GPU mit Bild B fertig ist, dann brauch man kein MGPU System, weil dann jede GPU im Wechsel immer nur ein Bild errechnet... Was soviel bedeutet wie, die Leistung steigt nicht.
Es müssen GPU 1 und GPU 2 gleichzeitig Bild A und Bild B errechnen, nur muss die Ausgabe des Bildes angeglichen werden.
Bzw. besser wäre es, wenn man das ganze Zeit misst, wie GPU 1 für ein Bild braucht und GPU 2 dann um diese Zeit versetzt erst mit dem zweiten Bild anfängt. Da die FPS Raten innerhalb von wenigen ms nicht extrem stark schwanken, sondern halbwegs konstant über die Sekunden laufen, bekommt man so die Zeitabstände angeglichen und vermeidet weitestgehend unnötig warterei.
Nachteil, wie bekommt man vorher raus, wie lange ein Bild brauch um berechnet zu werden?
Das kann dann quasi nur über eine Art mittelwert geschehen den man aus den vorrangegangenen Bildern bildet.
Heist also, um so konstanter der Frameverlauf, desto weniger Warterei muss ausgeführt werden für syncrone Ausgabezeiten. Bei start schwankendem Framezeiten leidet aber die Effizienz.
In Bezug auf den Interconnect dachte ich da auch an einen gemeinsamen RAM und zusätzlich noch ein Cache für jede GPU die entsprechend groß ist. Wenn GPU 1 nur ein Teil von dem Bild berechnet, braucht sie die Daten der anderen GPU nicht zwangsweise.
Mit "warten" meinte ich folgendes:
Das zu berechnende Bild wird wie ein Mosaik in winzige Kacheln unterteilt. Anschließend wird durch einen Controller per Logik festgelegt, welche GPU was berechnet. Danach wandern die Daten zu den jeweiligen GPUs. Die fertigen Daten werden in einem Puffer gesammelt und als ein ganzes Bild ohne jegliche Verzögerung ausgegeben.
Wenn GPU 1 tatsählich schneller fertig werden sollte als GPU 2, kann diese schon mit dem nächsten Bild anfangen, nur was ist wenn dieses komplett verworfen wird? Dann muss die Logik bzw. Aufteilung erneut berechnet werden, was wiederum Zeit kostet.
Ausserdem fällt mir gerade ein:
Wenn man jetzt wie fd sonne einen eigenen Controller einpackt in die GPU.
Hat man das Problem dass es nur für Dual GPU Karten sinn machen würde.
Bei zwei eigenständigen Karten wäre das Sowieso sinnlos und es würden trotzdem Produktionskosten und entwicklungskosten anfallen.
Und das nur für Dual-GPU karten wäre ja total unwirtschaftlich oder?
Ich meine ein Gemeinsamer Speicher bei 2 karten ist ja nicht Realisierbar (mit der Bandbreite der CF Bridge.) oder?
Das wäre ja dann auch ein "Zwitterding" das nix ganzes und nix halbes ist...?
Egal ich mach hier mal ruhe, ich komme mir schon richtig Trollig vor.
Ich denke mal man müsste eine Art Logik schaffen, die die Daten nach der Bestimmung auftrennt, Daten wo weniger Bandbreite benötigt wird, könnten in einen Shared RAM kommen, und das, was man sehr fix anbinden muss, kommt in den dedizierten RAM jeder GPU. Und wird dementsprechend doppelt gehalten.
Wenn ich jetzt eine Grafikkarte bekommen bei der ich im Spiel die settings höher stellen (Qualiät erhöhen kann) bräuchte dann der Prozessor mehr Leistung???
Grundsätzlich gilt je höher die Auflösung und Qualität je mehr muss die Grafikkarte arbeiten und je weniger hat die Leistungsfähigkeit der CPU eine Gewichtung.
Sollte die CPU aber bei niedrigen Einstellungen schon die Grafikkarte nicht mit genug Material "füttern" können,wirst du auch bei hohen Settings mit einer potenten Grafikkarte keine Freude haben
Eine gewisse Balance zwischen CPU und GPU ist also von Nöten
Für die aktuellen Highendmonster vom Schlage einer 5870/5970er Reihe von ATI bzw der Fermi Baureihe von Nvidia sollte schon ein auf 3-4GHZ getakteter Core2Duo Pflicht sein um ein gesundes Maß an Performance zu erreichen.
Für das Maximum an Leistung kommt man aber an einem Quadcore Prozessor nicht vorbei
Ich weiß nicht wieso du hier wieder auf das Thema Effizienz kommst?
Ist das das einzige Gegenargument das beim Fermi immer wieder ins Felde geführt wird
Es ging immer noch um die Aussage das ein GTX490 mit 1,2GHZ getaktet sein muss um mit einem Serien 5970er Chip zu konkurieren
Und dabei sollten einige Benchmarks als Grundlage dienen für das Widerlegen dieser Aussage.
Da Vantage plötzlich nicht mehr vergleichbar war wegen unterschiedlicher Systeme "räusper" wurde Heaven herangezogen,dies war wieder nicht naheliegend da "zu viel Geometrieleistung" gefordert wird.Nun gut dann eben die anderen DX11 Titel (Spiele)für die die Karten nunmal gebaut sind,wenns nicht PhysX ist wird eben mit schlechter Effizienz gekontert auch wenn das rein gar nix mit der obrigen Aussage zu tun hatte.
Wo ist also das Problem einzugestehen, das NV zwar eine schnelle Karte gebracht hat und mit einer vollausgebauten Karte sogar noch minimal was drauflegt, aber diese eben im Vergleich zur Konkurenz deutlich ineffizienter arbeitet...
Das kann man selbst als größter NV Anhänger nicht verkennen...
.
Nochmal meine Frage völlig voreingenommen ging es in der Fragestellung um irgendwelche Effizienzen?
Nein
Es ging um eine mögliche 490er die bei weiten keine 1,2GHZ Takt benötigt um an die Dualkarte heranzureichen.
Aber um nochmal auf deine Effizienz zurückzukommen
Um wieviel ist der Fermi mit dem letzten Treiberreleases schneller geworden?
Na die Antwort lässt sich im HWLuxx recht eindeutig ableiten.
Die 480GTX verbraucht zwar 100 Watt mehr ist dafür aber auch deutlich schneller als die 5870 und das kann sich mit dem nächsten Treibern sogar noch mehr verschieben.
Denn allen Unkenrufen zum Trotz ja auch Nvidia hat die Fähigkeit Treiber zu programmieren
Hier also imo noch von "unterirdisch" schlechten Energiekonsum zu reden(wie das einige nicht du offenbar praktizieren) ist in Anbetracht der nun zur Verfügung stehenden Leistung in Games absolut deplatziert und das prangere ich an
Nenn das Kind doch beim Namen... Ein Fermi im Std. Takt brauch ca. 50% mehr Energie um eine HD5870 im Std. Takt um ca. 15-30% zu schlagen. Oder aber, der Fermi brauch ca. die gleiche Energie wie die HD5970 bei idR 15-25% weniger Leistung.
Wo ist also das Problem einzugestehen, das NV zwar eine schnelle Karte gebracht hat und mit einer vollausgebauten Karte sogar noch minimal was drauflegt, aber diese eben im Vergleich zur Konkurenz deutlich ineffizienter arbeitet... (Leistung/Stromaufnahe, Leistung/Chipgröße, usw.)
Das kann man selbst als größter NV Anhänger nicht verkennen...
Also ist eine Aussage darüber in Form von Fermi/5870 130%/100% auch absolut pauschal.
Mit so einer Aussage wäre ich sehr vorsichtig, da sie in dieser Allgemeinheit einfach falsch ist. Effizienz von unterschiedlich schnellen Karten zu beurteilen ist sowieso nicht sehr sinnvoll, da die Verlustleistung beim höher takten nicht linear ansteigt.
Nur frage ich dann, ist es fair den Verbrauch von 1,5GB DDR5 gegen 1GB DDR5 zu messen, wenn die Anwendung nur 900MB braucht?
Um es auf den Punkt zu bringen, deine Aussage ist viel zu allgemein, in den meisten Fällen nur schwer nachzumessen und auch in sehr vielen Fällen einfach komplett falsch!
Vllt hätte ich noch dazu schreiben sollen Stand heute bei gängigen Games...
Das sich das zukünfig noch stark ändern kann, steht außer Frage. Aber sowohl in die eine als auch in die andere Richtung.
Dann können wir gleich alle Reviews und Vergleiche einstampfen, weil es nie zwei Karten geben wird, die wirklich 100% exakt gleich schnell sein werden...
Mal ganz davon ab, warum sollte man unterschiedlich schnelle Karten nicht in Sachen Effizienz vergleichen können? Und vor allem, was hat das mit dem Takt zu tun?
Wir nehmen das was uns gegeben wird, sprich eine Standard AMD und eine Standard NV Karte der aktuellen Generation und vergleichen beim Thema Effizienz die durchschnittliche Leistung pro Energieverbrauch, pro Chipfläche usw.
Logischerweise steht und fällt der Vergleich mit den Anwendungen, dennoch gilt es hier als objektiver Betrachter aufzupassen, das die Anwendung das ganze nicht verfälscht. Kein Mensch brauch rausgepickte Benches um Produkte in das ein oder andere Licht zu rücken.
Das ist eine Sissifuss Rechnung die du bringst.
Man könnte auch fragen, ob es Fair ist Benches ala Metro oder weis der Geiner zu testen, wo doch nur ein Bruchteil aller Games überhaupt auf PhysX oder Tesselation aufbaut.
Oder aber warum man nicht auch Anwendungen testet, die im GPGPU Sektor angesiedelt sind usw...
Im übrigen gibt es die AMD Karte auch mit 2GB... Testen wir also Anwendungen die annähernd 2GB verballern und das Blatt wendet sich wieder... --> Sissifuss Rechnung.
Wie schon gesagt, um das Bild zu verfälschen gibt es viele Möglichkeiten, einen objektiven Betrachter zeichnet hierbei aus, das er eben diese erkennt und den Test als nicht Objektiv abstempelt.
Da hast du leider vom Kontext überhaupt nichts verstanden. Dass du so reagierst, zeigt nur wieder mal, dass du nicht unvoreingenommen diskutieren willst und sachliche Diskussionen permanent boykottierst. Ich habe nicht von DirectX 11 gesprochen, sondern von synthetischen und praxisnahen Workloads. Wenn dir der Unterschied nicht bewusst ist, dann solltest du mal darüber nachdenken, woran das liegen könnte.Es liegt doch auf der Hand das plötzlich sämtliche DX11 Titel ob es nun Benchmarks wie Heaven oder Spiele sind zerredet werden mit denen zu Release Zeiten der 5er ATI Karten noch umhergeschwenkt wurde als gäben es kein Morgen mehr
Tun sie das? Bisher ist das lediglich ein ziemlich unglaubwürdiges Gerücht, sonst nichts.Ich persöhnlich glaube aber das die GTX490 noch kommt weil, warum arbeitet AMD wohl an einer Highendkarte mit 375Watt TDP??