[Sammelthread] Blender Cycles Benchmark (mit How To)

Pintion

Neuling
Thread Starter
Mitglied seit
08.08.2015
Beiträge
5
Hi,
ich bin neu hier obwohl ich schon jahrelang mit lese. Ich hab mich heute registriert um euch um etwas zu bitten.

Es geht um Blender eine mächtige open Source Grafiksoftware, mit einer ebenso mächtigen Renderengine namens Cycles. Cycles ist vergleichbar mit Lux, was viele wohl vom Luxmark kennen.

Cycles war jahrelang nur (brauchbar) in CUDA programmiert und somit nur mit NVIDIA nutzbar. In den letzten Wochen hat sich aber einiges am OpenCL code getan womit Cycles jetzt auch mit AMD Grafikkarten der GCN Architektur nutzbar ist.
Da in der Blender Cummunity natürlich fast nur NVIDIA Grafikkarten vertreten sind ist es schwer an Benchmarks von AMD Grafikkarten zu kommen, weshalb ich hier speziell um AMD Benchmark Ergebnisse bitte, wobei ich mich auch sehr über NVIDIA Ergebnisse freuen würde!
Dafür habe ich eine Blender Datei erstellt, die eine Schritt für Schritt Anleitung in Wort und Bild enthält.

Wer mitmachen will, folgt am besten den Anweisungen der folgenden Liste.
  1. Ladet Blender von der offiziellen Blender Hompage.
    (nehmt die zip Datei, dann müsst ihr nichts installieren)
  2. Ladet die Benchmark Szene bmw27_benchmark_for_dummies.blend runter.
    (Aus meinem Forum Post auf blenderartist.org)
  3. Öffnet die bmw27_benchmark_for_dummies.blend Datei mit blender.exe, welche ihr im Blender zip Ordner findet.
  4. Folgt der Schritt für Schritt Anleitung in der Blender Datei.
  5. Postet euer Ergebniss hier dann in folgendem Format.
GPU Manufactura: AMD or NVIDIA
GPU: RX XXX, HD 7XXX, GTX XXX,
(for Kaveri: Axx 7xxx)
GPU Clock: in MHz
GPU Memory Clock: in MHz
GPU Memory Size: in GB
Driver Version Number: 15.xx.xx,
35x.xx
CPU: Intel xxx, AMD xxx
CPU Clock: in MHz
Blender Version: 2.7x
(you get the version shown
each time you start Blender)
Operating System: Win X, Ubuntu x.x
Render Time: mm:ss.tt
Tile Size: 512x512 (for example)

Bei Unklarheiten einfach fragen!

Je kürzer die Zeit, desto schneller ist Eure Grafikkarte.
Ergebnisse gibt es hier:
OpenCL+CUDA


Insbesondere würde ich mich über Ergebnisse einer AMD R9 285 bzw R9 380 im vergleich zu einer R9 280 freuen. Letztere ist im Luxmark gut 10% schneller und mich würde interessieren ob man das auf den geringen Speicher Durchsatz von Tonga schieben kann.
Wenn also jemand Lust hat mal mit verschiedenen Speichertaktraten zu spielen würde mich das sehr freuen.
Kaveri Benchmarks mit der iGPU wäre auch klasse!
Oder mal ne Fury!
NVIDIA darf natürlich auch mit benchen! ;)

(Den gleichen Beitrag habe ich auch schon auf Computerbase gepostet, hatte dort aber weniger Feedback als ich mir erhofft hatte, mal sehen, was das HardwareLuxx Forum so her gibt! ;) )

Julian
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
GPU Manufactura: AMD
GPU: HD 7970
GPU Clock: 1150 MHz
GPU Memory Clock: 1550 MHz
GPU Memory Size: 3 GB
Driver Version Number: 15.7.1
CPU: Intel 3770k
CPU Clock: 4500 MHz
Blender Version: 2.75a
Operating System: Win 7 HP 64bit
Render Time: 01:01.79
Tile Size: 512x512

:wink:
 
Bei AMD kann ich atm leider nicht mit, aber zwei 780TIs mit "Sommer" OC von 1110MHz im Boost laufen wie folgt:

GPU Manufactura: NVIDIA
GPU: 2x Geforce 780TI
GPU Clock: ~1110MHz
GPU Memory Clock: 1800MHz
GPU Memory Size: 2x 3GB
Driver Version Number: 353.38
CPU: Intel i7-5960X
CPU Clock: 4200MHz
Blender Version: 2.74
Operating System: Win 8.1 x64
Render Time: 00:37.09
Tile Size: 256x256


Eine Karte alleine macht es wie folgt:
GPU Manufactura: NVIDIA
GPU: 1x Geforce 780TI
GPU Clock: ~1110MHz
GPU Memory Clock: 1800MHz
GPU Memory Size: 1x 3GB
Driver Version Number: 353.38
CPU: Intel i7-5960X
CPU Clock: 4200MHz
Blender Version: 2.74
Operating System: Win 8.1 x64
Render Time: 01:04.65
Tile Size: 256x256


Und CPU die mal im Vergleich:
CPU: Intel i7-5960X
CPU Clock: 4200MHz
Blender Version: 2.74
Operating System: Win 8.1 x64
Render Time: 01:59.17
Tile Size: 32x32



EDIT:
ich hab mal bisschen an der Tile Size rumgespielt.
Bspw. von Left to Right mit 240x540 und beiden GPUs kommt folgendes raus:
GPU Manufactura: NVIDIA
GPU: 2x Geforce 780TI
GPU Clock: ~1110MHz
GPU Memory Clock: 1800MHz
GPU Memory Size: 2x 3GB
Driver Version Number: 353.38
CPU: Intel i7-5960X
CPU Clock: 4200MHz
Blender Version: 2.74
Operating System: Win 8.1 x64
Render Time: 00:32.70
Tile Size: 240x540 (Left to Right)
Anzumerken ist allerdings, dass der VRAM ggf. anfängt überzulaufen. Ich habe einen VRAM Bedarf idle (also Windows Desktop) dank TrippleScreen Setup von ca. 600MB. Beim Rendern steigt der VRAM auf knappe 2,9GB auf beiden GPUs -> was ziemlich hart am Limit ist. -> maybe fangen die Karten schon an umzuschaufeln und entsprechend lässt man Performance liegen.
Mit kleinerer Tile Size sinkt die VRAM Belegung allerdings NICHT!
 
Zuletzt bearbeitet:
GPU Manufactura: AMD
GPU: HD 7970
GPU Clock: 1150 MHz
GPU Memory Clock: 1650 MHz
GPU Memory Size: 3 GB
Driver Version Number: 15.7
CPU: 4790k
CPU Clock: 4400 MHz
Blender Version: 2.75a
Operating System: Win 7 HP 64bit
Render Time: 01:03.92
Tile Size: 512x512
 
Zuletzt bearbeitet:
du musst die Skalierung noch mal auf 100% setzten und dann noch mal laufen lassen. Dann sollte unten rechts auch das gerenderte Bild zu sehen sein, wenn alles fertig ist.
 
GTX 970
GPU Clock: 1481
GPU Memory Clock: 3505
GPU Memory Size: 4
Driver Version Number: 353.62
CPU: 3570k
CPU Clock: 4400
Blender Version: 2.75a
Operating System: Win7 64bit
Render Time: 01:20.30
Tile Size: 256x256
 
du musst die Skalierung noch mal auf 100% setzten und dann noch mal laufen lassen. Dann sollte unten rechts auch das gerenderte Bild zu sehen sein, wenn alles fertig ist.

Dann verstehe ich aber nicht wieso man den Slider auf 1% stellen soll für den Benchmark. Ich habe mich einfach an die Anleitung gehalten.

In the window to the left under the heading "Resolution" slide the percentage slider to 1%.
 
Dann verstehe ich aber nicht wieso man den Slider auf 1% stellen soll für den Benchmark. Ich habe mich einfach an die Anleitung gehalten.

Wie wäre es mit alles lesen?
This was only a "Set Up" render for better comparability of your following Benchmark resuts
Das wird gemacht um schon mal ein paar Daten in den RAM zu bekommen, damit das nicht erst beim Benchmark gemacht werden muss und zB. eine lahme HDD weniger Einfluss hat (meine Vermutung).


Hätte noch einen mobilen Kaveri im Angebot:
GPU Manufactura: AMD A10 FX 7500 (384 GCN 1.1 Shader)
GPU Clock: 553,8
GPU Memory Clock: 800 MHz DDR3
GPU Memory Size: 1GB
Driver Version Number: 15.7.1
CPU: AMD A10 FX 7500
CPU Clock: 1,1GHz (laut CPUz)
Blender Version: 2.75a
Operating System: Win 7 pro
Render Time: 9:22:35
Tile Size: 512x512

Ergebnis kommt in etwas hin, die 7970 von Agent Gwendolin Post #3 hat ca. 5 mal so viele Shader bei ca. doppeltem Takt -> ca. 10x Performance
 
da steht aber auch, dass man nach dem 1% bench auf 100% stellen und nochmal benchen soll.
 
Wie groß sollte man die Tile-Size einstellen? Werde das ganze Montag mal mit meiner 270x ausprobieren...
 
Zuletzt bearbeitet:
Hallo zusammen,
erstmal ein riesen Dankeschön an alle!

@fdsonne:
Anzumerken ist allerdings, dass der VRAM ggf. anfängt überzulaufen. Ich habe einen VRAM Bedarf idle (also Windows Desktop) dank TrippleScreen Setup von ca. 600MB. Beim Rendern steigt der VRAM auf knappe 2,9GB auf beiden GPUs -> was ziemlich hart am Limit ist. -> maybe fangen die Karten schon an umzuschaufeln und entsprechend lässt man Performance liegen.
Mit kleinerer Tile Size sinkt die VRAM Belegung allerdings NICHT!
Interessante Idee, bei Cycles werden aber vor dem eigentlich Render Prozess sämtlich Daten in den VRAM geladen. Beim Rendern kommt es dann eventuell auch nochmal zu VRAM peeks, aber anstelle dass die Speicher dann irgendwelche Daten hin und her Schaufeln bekommt meinen ERROR und der Render Vorgang wird abgebrochen.

@unl34shed:
Danke für die Hilfe! Wenn man mit Cycles das aller Erstemal rendert, muss vorher der Render Kernel kompiliert werden. Das dauert gerade bei AMD noch recht lange (bei k3im waren es so um die 30s). Wenn der Kernel dann einmal kompliiert ist liegt er im Blender Ordner und steht immer direkt zur Verfügung. ein neuer Kernel wird erst dann wieder kompiliert wenn man den Treiber aktualisiert oder eine neue Blender Version nutzt. Um um sicher zu gehen, dass niemand ein Ergebniss postet, bei dem der Kernel noch kompliert wurde habe ich mich entschieden, diesen Set-Up Render voranszustellen.
Hätte noch einen mobilen Kaveri im Angebot:
Klasse, da werde ich auh mal durchrechnen ob die Leistungsskalierung passt. :)

@k3im:
Danke für deine Geduld und das Ergebniss.
Hattest du nicht auch eine Tonga GPU, die aber schon am Limit läuft? Wenn ja, untertakten bringt natürhlich das selbe. einfach 2-3 Durchläufe mit jeweils 10% weniger GPU Takt wären interessant!

@error274:
Wie groß sollte man die Tile-Size einstellen? Werde das ganze Montag mal mit meiner 270x ausprobieren...
für AMD ist 512x512 ein guter Startwert. Wenn du experimentieren willst kannst du auch mal über die gesamte Breite Rendern, also 240x540 oder so.
Ich freu mich auf die R9 270x wollte mir eventuell selber eine zulegen.

So ich werd die Ergebnisse jetzt mal in die Tabelle eintragen.
 
Beim Rendern kommt es dann eventuell auch nochmal zu VRAM peeks, aber anstelle dass die Speicher dann irgendwelche Daten hin und her Schaufeln bekommt meinen ERROR und der Render Vorgang wird abgebrochen.

Das sollte eigentlich nicht passieren... Denn der Software wird Treiberseitig vorgegaukelt, dass die GPUs mehr VRAM haben, als sie physisch verbaut haben. Das heist im Endeffekt, die GPU/der Treiber/das OS übernimmt die Aufgabe, den VRAM ggf. zwischen dem local Pool und dem non local Pool hin und her zu schaufeln. Dieses Übertragen kostet Zeit, weil es durch den PCIe Flaschenhals von maximal ~16GB/sec muss. Wenn das während der Laufzeit passiert, bricht die Leistung folglich ein.
Wenn ich das sehe, ziehe ich von den meinigen 2,9GB die ca. 600MB von Windows ab, bleiben da grob 2,3GB über. Bei einem Rendervorgang von ca. einer Minute der Szene in meinem Fall heist das ganz grob über den Daumen im Schnitt knapp 36MB/sec. Da das Bild nicht gleichmäßig ist und Teile des Bildes mehr Aufwand erzeugen als bspw. wohl der Hintergrund, werden wohl dort auch mehr Daten zwischen GPU und VRAM übertragen, als beim Hintergrund.

So ich werd die Ergebnisse jetzt mal in die Tabelle eintragen.

Sind denn die Ergebnisse der Tabelle im Startpost mit den Ergebnissen des Benches hier im Luxx vergleichbar?
Ich mein, HisN mit seiner TitanX sollte gut und gerne schneller als meine Single 780TI sein. -> ist er aber nicht. Da steht was von 2min irgendwas... Ich komme nur auf 1:04min mit der Single und auf knapp über 30sec mit beiden GPUs.

Sind dir Speedunterschiede in den Blenderversionen bekannt? Ich hab ja mit der 2.74er getestet, weil ich die auf der SSD habe, die 2.75er hab ich (noch) nicht...

EDIT:
was bei den GPUs übrigens noch Zeit kostet ist das hochtakten des GPU taktes aus dem idle State in den vollen Boost (zumindest bei NV)
Da der volle Takt nicht direkt vom Start weg anliegt. Wenn man diesen 1% Run vorher tätigt und unmittelbar danach den 100% Run hinterher, sind die GPU(s) noch auf vollem Takt -> bringt bei mir ca. 1-2 sekunden bei beiden GPUs! (~7%)
 
Zuletzt bearbeitet:
Sind denn die Ergebnisse der Tabelle im Startpost mit den Ergebnissen des Benches hier im Luxx vergleichbar?
Ja, handelt sich um die selbe Benchmark Datei. Die TitanX hat einfachnur in 512x512 gerendert, dadurch ist die Leistung wohl so sehr viel kleiner.

Das sollte eigentlich nicht passieren... Denn der Software wird Treiberseitig vorgegaukelt, dass die GPUs mehr VRAM haben, als sie physisch verbaut haben. Das heist im Endeffekt, die GPU/der Treiber/das OS übernimmt die Aufgabe, den VRAM ggf. zwischen dem local Pool und dem non local Pool hin und her zu schaufeln. Dieses Übertragen kostet Zeit, weil es durch den PCIe Flaschenhals von maximal ~16GB/sec muss. Wenn das während der Laufzeit passiert, bricht die Leistung folglich ein.
Das kann Cycles aber definitiv nicht! Die Grafikkarte bekommt einmal ihre Daten und ist dann auf sich alleine gestellt.
EDIT:
was bei den GPUs übrigens noch Zeit kostet ist das hochtakten des GPU taktes aus dem idle State in den vollen Boost (zumindest bei NV)
Da der volle Takt nicht direkt vom Start weg anliegt. Wenn man diesen 1% Run vorher tätigt und unmittelbar danach den 100% Run hinterher, sind die GPU(s) noch auf vollem Takt -> bringt bei mir ca. 1-2 sekunden bei beiden GPUs! (~7%)
Zu 100% kann man die Werte nicht vergleichen, dass ist richtig. Aber es genügt um sich einen Pberblick zu verschaffen.
 
Ja, handelt sich um die selbe Benchmark Datei. Die TitanX hat einfachnur in 512x512 gerendert, dadurch ist die Leistung wohl so sehr viel kleiner.

Aber so extrem viel? Das ist schon ziemlich extrem. Die 750TI Modelle da weiter oben sind ja nur ca. Faktor 2,5 langsamer. Takten dabei aber auch nur "halb" so hoch laut Liste... Selbst die 970er von slot ist da noch schneller als die TitanX von HisN. Da muss definitiv was komisch gelaufen sein...


PS: kurze Zwischenfrage, wie bekomme ich den Spaß fix von Cuda auf OpenCL gedreht?
Geht das nur in der 2.75er Version?
Eventuell ist OpenCL bei NV auch etwas schneller als Cuda


EDIT: noch ein Hinweis von mir. Bei mir läuft die 2.75a nicht sauber!!!
Mit der 2.74 erreiche ich auch nach mehreren Runs bis vielleicht ne Sekunde ungenau die Zeiten von oben.
Mit der 2.75a läuft es bei mir nicht richtig. -> die GPU Load springt von 0 zu 95%+ immer im Wechsel, der PC reagiert sogut wie gar nicht mehr, während des Rendervorgangs. Settings exakt identisch zum 2.74er.
Komisch auch, der VRAM Bedarf springt beim Rendern der 2.75a zwischen meinen Desktop 600MB und ca. 2GB hin und her. Ist damit also deutlich niedriger als die knapp 2,9GB mit der 2.74er Version, die dazu noch Dauerhaft während der Renderzeit im VRAM liegen.

Vielleicht hat HisN ein ähnliches Verhalten bei sich... Denn ich habe den Rendervorgang auf beiden GPUs nach über einer Minute abgebrochen, der in der 2.74er ja nur grob 30 Sekunden dauerte! Das erklärt zumindest die mauen Werte von HisN seinen GM200 GPU(s). Schaut nach nem Bug/Treiberproblem oder ähnlichem aus...
 
Zuletzt bearbeitet:
Habe es mal nach Anleitung durchlaufen lassen:

GPU Manufactura: AMD Fury X
GPU Clock: 1120 mhz
GPU Memory Clock: 500 MHz HBM
GPU Memory Size: 4GB
Driver Version Number: 15.7.1
CPU: Intel i7 3770k
CPU Clock: 4,6 GHz
Blender Version: 2.75a
Operating System: Win 10 pro
Render Time: 0:54:83
Tile Size: 512x512
 
Nach den Werten scheint Tahiti echt extrem gut mit Blender zu laufen muss ich sagen... Die ganzen Modelle größer Tahiti scheinen alle bei um die ~55-65 Sekunden einzusteigen. Wie auch Tahiti... Der aber eigentlich deutlich weniger Power hat und dazu noch nur "nen Apple und en Ei" kostet.
 
GPU Manufactura: NVIDIA
GPU: Quadro 5000
GPU Clock: ~513MHz
GPU Memory Clock: 1500MHz
GPU Memory Size: 2,5GB
Driver Version Number: 353.62
CPU: Intel i7-2650
CPU Clock: 2600MHz
Blender Version: 2.75a
Operating System: Win 10 x64
Render Time: 00:19.26
Tile Size: 256x256
 
Zuletzt bearbeitet:
Aber so extrem viel?
Ja. Vergleich mal die Einträge 2-4 von der HD 7950 von tarpoon mit einander.
PS: kurze Zwischenfrage, wie bekomme ich den Spaß fix von Cuda auf OpenCL gedreht?
Geht das nur in der 2.75er Version?
Eventuell ist OpenCL bei NV auch etwas schneller als Cuda
OpenCL wurde erst mit 2.75 eingeführt und ist mit NVIDIA standardmäßig deaktiviert, weil es deutlich langsamer ist als CUDA (04:59.81 zu 02:56.25) Du kannst es aber aktivieren, wenn du Blender über die Konsole oder eine .bat startest.
Erstell dir am besten eine .bat mit "set CYCLES_OPENCL_TEST=all
start blender.exe" Inhalt und leg sie in den Blender Ordner. Dann nurnoch die bat ausführen.
EDIT: noch ein Hinweis von mir. Bei mir läuft die 2.75a nicht sauber!!!
Kann ich nicht ausschließen, aber ich werde mal in der Blender Community ausschau halten ob es ähnlich Probleme gibt.
Du kannst ja auch mal mit deiner 780TI in 512x512 rendern. Mal sehen, was bei raus kommt! ;)

@mustrum:
Kannst du mal die GPU Auslastung bem rendern beobachten? ich könnte mir vorstellen, dass das Front End von Fiji einfach völlig überfordert ist.
 
Aber so extrem viel? Das ist schon ziemlich extrem. Die 750TI Modelle da weiter oben sind ja nur ca. Faktor 2,5 langsamer. Takten dabei aber auch nur "halb" so hoch laut Liste... Selbst die 970er von slot ist da noch schneller als die TitanX von HisN. Da muss definitiv was komisch gelaufen sein...
...
ich hab auch 256er Tile genommen und nicht 512; also doppelt so viel. passt doch so ganz gut.
ob man das auch so 1 zu 1 umrechnen kann, keine Ahnung ...
 
@mustrum
Hast schon mal mit der Tile size gespielt?
480x540 oder gleich das komplette Bild mit 960x540.
Ich muss mindestens die Auflösung :2 machen, damit beide R7970 ausgelastet werden.

GPU Manufactura: XfX
GPU: 2x HD 7970 non boost
GPU Clock: 925MHz
GPU Memory Clock: 1375MHz
GPU Memory Size: 3GB
Driver Version Number: 15.7.1 WHQL
CPU: AMD FX-8350
CPU Clock: 4100MHz (HPC Mode)
Blender Version: 2.75a
Operating System: Win 10 x64
Render Time: 00:39.54
Tile Size: 512x512

Pig: http://abload.de/img/bmw_blender_stock_t51fksxq.jpg
 
Zuletzt bearbeitet:
Die Tile Size ist einfach die Größe des Bildausschnittes, welches die Hardware berechnet... Logischerweise darf der Bildausschnitt bei zwei GPUs maximal die halbe Bildauflösung betragen, sonst rechnet die erste Karte ja das komplette Bild.
Auch sollte auf die korrekten Seitenverhältnisse geschaut werden -> einfach X-Achse gegen Y-Achse tauschen macht keinen Sinn.

ich hab auch 256er Tile genommen und nicht 512; also doppelt so viel. passt doch so ganz gut.
ob man das auch so 1 zu 1 umrechnen kann, keine Ahnung ...

Das hat damit nichts zu tun. Das ist einfach nur die Größe des Bildauschnittes, welches berechnet wird. -> um so komplexer die GPU, desto höher sollte wohl die Tilesize sein. Einfach weil bei zu kleinen Ausschnitten die GPU gar nicht richtig ausgefahren wird.
Bei der CPU ists genau andersrum, dort benötigt man mindestens so viele Bildausschnitte, wie die CPU Threads bereit stellt. Bei mir also mindestens 16. Die Tilesize muss also minimum so klein gewählt sein, dass dieser Bildauschnitt 16x in das volle Bild passt.
Da das Bild nicht vollends gleich in der Komplexität ist und es größere Flächen mit "Hintergrund" gibt, sollte die Tile Size für CPU Berechnungen sogar noch kleiner gewählt werden -> das erzeugt zwar am Ende etwas mehr Arbeit durch zerhackstückeln des Bildes, aber dafür gibts nahezu über die komplette Rechenzeit auch Volllast auf der CPU, die man nicht hätte, wenn nicht mehr genügend Teilausschnitte des Bildes zur Berechnung da währen.

Unterm Strich: Die Tile Size ändert zwar an der Berechnungszeit etwas (je nachdem wie optimal diese gewählt ist/wurde), aber hat generell mit einem extrem drastischen Zeitunterschied wenig zu tun.

Ich muss mal gucken, wenn ich wieder Zuhause an der Workstation sitze, dann kann ich mal 512x512 testen, ich gehe aber davon aus, dass es zeitlich A) zurück geht im Vergleich zu 256x256 (oder den 240x540), es aber B) definitiv keine Leistung im Bereich Faktor 2 kosten wird...

Ja. Vergleich mal die Einträge 2-4 von der HD 7950 von tarpoon mit einander.

Da ist aber das Problem ein ganz Anderes... Nämlich sieht das eher nach einem AMD GPU Problem aus. Die AMD GPUs mit GCN Technik unter der Haube haben einfach das Problem, dass sie viel BackEnd und wenig FrontEnd haben... Um eine optimale Einheitenauslastung hinzubekommen muss die Komplexität der Berechnung entsprechend hoch sein. Um so kleiner der Bildausschnitt, desto weniger komplex die Berechnung, desto mehr Zeit benötigt auch die Hardware.


Wenn man den Werten zwischen den NV GPUs hingegen traut, dünkt es mich eher, dass Blender mit Cuda definitiv nicht aus der höheren pro Takt Leistung der Maxwell GPUs profitieren kann. Die eigentlich ähnlich schnellen Modelle mit GK110 und GM204 unterscheiden sich vom Speed her ziemlich stark. GM200 von HisN mal ausgeklammert, da ist definitiv was faul!


PS: besteht die Möglichkeit, die Szene nochmal in einem Vergleich mit höherer Auflösung durchzutesten?
Rein von der Theorie her, wenn man die Tile Size größer wählt, sollten die größeren GPU Modelle sogar noch etwas zulegen (wenn die Daten in den VRAM passen). Speziell Hawaii (R9-29x und R9-39x bei AMD) sowie Fiji. Viel größer als 512x512 gibt aber deine Szene gar nicht her ;) Weil das Bild ja nur 960x540 groß ist :fresse:
Bei 512x512 ist man schon größer 50% des gesamt Bildes am Berechnen, der zweite Schritt für den "Rest" hat somit so schon ein kleineres Fenster und damit wohl sogar schon einen Auslastungsnachteil...
 
GPU Manufactura: AMD
GPU: HD 7970
GPU Clock: 1200 MHz
GPU Memory Clock: 1700 MHz
GPU Memory Size: 3 GB
Driver Version Number: 15.200.1046.0
CPU: Intel i5-2500K
CPU Clock: 3800 MHz
Blender Version: 2.75
Operating System: Win 7 x64
Render Time: 00:55.58
Tile Size: 960x540
BMW.jpg
 
Zuletzt bearbeitet:
Mit Tile 960x540 brauche ich 50.74 Sekunden.
480x540 - 50.79 Sekunden.
Das sieht doch schon besser aus, keine Panic deine Fury X wird in nächster Zeit mehr Aufmerksamkeit bekommen bei Optimierungen.
So recht kann ich es nicht glauben, dass das alles ist.
Zudem haben Hawai, Tonga und Fury mehr ACE Einheiten (die Arbeit auf die Shader verteilen) als noch die Tahiti´s.

@fdsonne
Wie viel VRAM sind es bei dir mit 1920x1080 und 2 Tiles (960x1080) center?
Bei mir sind es wohl um die 1.8GByte Dedicated und 71MByte Dynamic: http://abload.de/img/bmw_blender_stock_t96yaqyk.jpg
 
Zuletzt bearbeitet:
Das sieht doch schon besser aus, keine Panic deine Fury X wird in nächster Zeit mehr Aufmerksamkeit bekommen bei Optimierungen.
So recht kann ich es nicht glauben, dass das alles ist.
Zudem haben Hawai, Tonga und Fury mehr ACE Einheiten (die Arbeit auf die Shader verteilen) als noch die Tahiti´s.

@fdsonne
Wie viel VRAM sind es bei dir mit 1920x1080 und 2 Tiles (960x1080) center?
Bei mir sind es wohl um die 1.8GByte Dedicated und 71MByte Dynamic: http://abload.de/img/bmw_blender_stock_t96yaqyk.jpg

Habe keine Panik. Mich interessiert nur Spieleperformance. :d
 
Habe keine Panik. Mich interessiert nur Spieleperformance. :d
Wenn die Profi Software optimiert wird, profitieren bestimmt auch die (neuen) Spiele. ;)

Blender ist halt auch auf Linux present, da lassen sich Optimierungen in Echtzeit in den Kernel compilieren. :)
 
Wenn die Profi Software optimiert wird, profitieren bestimmt auch die (neuen) Spiele. ;)

Blender ist halt auch auf Linux present, da lassen sich Optimierungen in Echtzeit in den Kernel compilieren. :)

Schaden kann solch eine Optimierung natürlich nie. Die Spieleperformance stimmt aber eigentlich jetzt schon. Bin sehr zufrieden mit dem Kärtchen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh