Unstimmigkeiten beim Benchmarktest 3DMark!!! 3-Way SLI-Verbund 580GTX!!!

TheRealRenegade

Neuling
Thread Starter
Mitglied seit
08.11.2017
Beiträge
26
Ort
C:\Schleswig-Holstein\Kiel
Hallo an alle Leser, ich möchte zu folgendem Thema gerne Eure Meinung wissen.:wink:

Ich habe meine drei Grafikkarten im SLI-Verbund laufen und habe mithilfe des neuen 3DMark mehrere Benchmarktestläufe durchgeführt.
Für den Anfang habe ich einen der mittleren Benchmarktests von 3DMark gewählt und diesen zum Vergleichen genutzt.

Grafikkarten: 3 x EVGA GeForce GTX 580 Classified Hydro Copper Ultra (je 3GB GDDR5)
Mainboard: Gigabyte Aorus Gaming 9
Prozessor: Intel i7-7820X
Monitor: LG Electronics 34UC79G-B

Benchmarktest: Sky Driver (Custom)
Auflösung: 2560x1080
Texturfilter-Modus: Antisotrop
MAX.AF-Anisotropie: 16
Tesselationsdetailstufe: 10

Dabei sind mir ein paar Unstimmigkeiten bzw. Auffälligkeiten im Benchmark-Ergebnis aufgefallen.

Der erste Durchlauf mit deaktiviertem SLI-Modus lief ziemlich flüssig, ohne zu ruckeln. Eigentlich alles in Ordnung.:popcorn:

Beim zweiten Durchlauf, diesmal mit aktivierten SLI-Modus(3-Way, PhysX: automatisch), war das Endergebnis deutlich besser, aber mit großen Abstrichen im zweiten Grafiktest.
Das hat mich etwas überrascht, im Grafiktest 2 war die Bewegungsdynamik viel zerrütteter als im Durchlauf mit deaktivierten SLI-Modus.:hmm:
Daher habe ich mal, aus dem Bauch heraus, etwas ausprobiert!

Beim dritten Durchlauf habe ich den SLI-Modus zwar weiter aktiviert gelassen, aber habe ihn von 3-Way auf 2-Way umgestellt, damit ich einer einzelnen GPU die PhysX überlassen kann.
In meinem Fall habe ich die erste Grafikkarte (GPU1) dafür gewählt.
Das Benchmark-Ergebnis spricht für sich, insgesamt ein bisschen schwächer als die SLI-3-Way-Variante, aber dafür mit einem sehr guten und flüssigverlaufenden Grafiktest 2.:)
Also im dritten Durchlauf durchgängig flüssig, aber mit nicht ganz so hohen einzelnen Werten.

Ich habe jeden der drei Benchmarktests mehrere male durchlaufen lassen und jedes mal sehen die Ergebnisse ähnlich aus.:coffee2:

Mich würde es wirklich sehr interessieren, woran das liegt.
Ich habe zusätzlich 3 Screenshots von den Benchmark-Ergebnissen hochgeladen, damit Ihr das besser vergleichen könnt.

Vielleicht weiß das ja jemand von Euch und gibt mir einen Tipp, was ich jetzt am besten eingestellt lassen sollte.:bigok:


Benchmarktest 1 (SLI-Modus: deaktiviert)
3DMark2013 Sky Driver Custom MAX noSLI.jpg

Benchmarktest 2 (SLI-Modus: aktiviert 3-Way; PhysX: automatisch)
3DMark2013 Sky Driver Custom MAX 3-WaySLI PhysXAuto.jpg

Benchmarktest 3 (SLI-Modus: aktiviert 2-Way; PhysX: GPU1)
3DMark2013 Sky Driver Custom MAX 2-WaySLI PhysXGPU1.jpg

P.S ich habe noch eine andere Variante ausprobiert, die bis jetzt die flüssigsten und höchsten Ergebnisse wiedergibt!!!

Benchmarktest 4 (SLI-Modus: aktiviert 3-Way; PhysX: CPU) plus allen Details!!!
3DMark2013 Sky Driver Custom MAX 3-WaySLI PhysXCPU.jpg
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich würde gerne einen Tipp geben, doch ich habe vor Jahren SLI abgeschworen. Ich könnte mir eventuell vorstellen, dass es noch Unstimmigkeiten beim 3-Way SLI gibt.
Nvidia sowie auch AMD fahren den Support von Multi-GPU immer weiter herunter.
Schon mal aktuelle Beta-Treiber probiert.
Schon mal darüber nachgedacht auf eine Single GPU zu setzen. Eine GTX980Ti/1070 dürfte schon deutlich schneller sein als 3 x GTX580 im SLI Verbund. Mal abgesehen vom unglaublichen Stromverbrauch.
 
Da kann ich Dir in beiden Argumenten nur recht geben!:coolblue:

Die aktuellen Grafikkarten sind meinem dreifachen SLI-Verbund, mit Ihren knapp 13 TeraFLOPS SP Rechenleistung und 11GB Speicher, deutlich überlegen.
Mein SLI-Verbund hat insgesamt 3 parallele 3GB Speicher und kommt laut "SiSoftware Sandra Lite Platinum.SP2" auf 5,93 oder 7,21 TeraFLOPS, je nachdem ob ich übertakte oder nicht.

Im Moment ist mein SLI-Verbund nicht von mir zusätzlich übertaktet worden, da schon werkseitig diese spezielle Version der 580 GTX gut gepuscht ist.:asthanos:

Vielleicht werde ich mir nächstes Jahr eine neue Grafikkarte holen.
Mal schauen!?

Die dafür geeignete neue Grundhardware, wie Mainboard, Prozessor, Arbeitsspeicher und Monitor habe ich glücklicherweise schon einmal.
Gott sei Dank zu einem unverschämt günstigen Preis. Neu hätte ich mir das nie leisten können.:hail:

Solange müssen die drei 580iger eben noch ran. Mittlerweile 5 Jahre lang funktionieren die 580iger auch ziemlich gut. Habe es auch nie mit dem übertakten übertrieben.

Apropo "mittlerweile" ... ... mittlerweile bin ich fertig mit dem Herumprobieren.:bigok:

Alle Benchmarktests vom 3DMark ein paar Male durchgegangen und die flüssigsten und besten Ergebnisse erziele ich mit der vierten Variante.
Den SLI-Modus aktiviert, die Grafikkarten im 3-Way und die PhysX überlasse ich dem Prozessor. So wie es aussieht, kommt der CPU ganz gut zurecht damit.
Damit hat sich mein kleine Unstimmigkeit mehr oder weniger durch durchdachtes einstellen und manuellen zuweisen der Aufgaben auf GPUs und CPU gelöst.

Ich danke Dir trotzdem für Deinen Beitrag.:wink:
War ja eigentlich kein Problem, was ich hier gepostet habe.
Ich konnte mir halt nicht erklären, warum ausgerechnet bei der Einstellung der PhysX auf automatisch, die Grafikkarten bzw. der SLI-Verbund so unruhig läuft.
Man könnte es ja schon fast ein Luxusproblem nennen.;)
 
Zuletzt bearbeitet:
Jetzt mal abseits von deinem Problem was hast du für ein Netzteil, schon deine GPU's zerstören fast 900W und dann noch diese CPU. AKW nebenan oder hohes Guthaben beim Stromanbieter :d
 
Alle Benchmarktests vom 3DMark ein paar Male durchgegangen und die flüssigsten und besten Ergebnisse erziele ich mit der vierten Variante.
Den SLI-Modus aktiviert, die Grafikkarten im 3-Way und die PhysX überlasse ich dem Prozessor. So wie es aussieht, kommt der CPU ganz gut zurecht damit.

Ich danke Dir trotzdem für Deinen Beitrag.:wink:

Ist ja eigentlich kein Problem, was ich hier gepostet habe.
Ich konnte mir halt nicht erklären, warum ausgerechnet bei der Einstellung der PhysX auf automatisch, die Grafikkarten bzw. der SLI-Verbund so unruhig läuft.
Man könnte es ja schon fast ein Luxusproblem nennen.;)
GPU1 ist die oberste Karte? Also am nächsten bei der CPU?
Wenn es auf Automatisch eingestellt wird, bekommt meist die unterste Karte PhysX aufgebrummt.
Bis zur dritten Karte sind die Leiterbahnen etwas länger (höhere Latenz) ;)
 
Mein SLI-Verbund hat insgesamt 9GB Speicher

nope. 3gb. bei multi gpu wird nicht addiert

hol dir halt ne 1080. die 500euro wirste doch wohl haben bei deiner jetzigen hardware^^
 
Zuletzt bearbeitet:
nope. 3gb. bei multi gpu wird nicht addiert

hol dir halt ne 1080. die 500euro wirste doch wohl haben bei deiner jetzigen hardware^^
Das stimmt, der VRAM wird bei AFR nicht addiert.
Spielt aber in seinem Fall keine Rolle, 3GByte VRAM sind noch nutzbar, erst recht für 3DMark Benchmarks die selten mal 1,5GByte benötigen. :)

€dit:
SkyDiver benötigt maximal 459MB Dedicated VRAM: https://abload.de/img/sky_diver-fx-8370-cfr6qgk.jpg
(max 591W an der Dose Brutto)
 
Zuletzt bearbeitet:
Vielen Dank für Euer Interesse und Input.:banana:

nope. 3gb. bei multi gpu wird nicht addiert
Das stimmt, der VRAM wird bei AFR nicht addiert.
Spielt aber in seinem Fall keine Rolle, 3GByte VRAM sind noch nutzbar, erst recht für 3DMark Benchmarks die selten mal 1,5GByte benötigen. :)

Ich gebe Euch recht, die von mir angegebenen 9GB Arbeitsspeicher sind ein Fehler! :rolleyes:
Da habe ich im Schreibwahn nicht richtig aufgepasst. Ich habe das korrigiert, danke für die Information.

Jede GPU nutzt natürlich ihren eigenen VRAM, was aber folgendes nicht unbedingt ausschließt.
Wenn zum Beispiel jede GPU für sich eine Anwendung bearbeitet, die zum Beispiel je 1200MB Speicherplatz benötigt, dann verrichtet mein SLI-Verbund, in diesem Moment, objektiv betrachtet einen Speicherverbrauch von insgesamt 3600MB.:hust:

Deswegen möchte ich die Gelegenheit nutzen und ein klitzekleines "aber" einwerfen.

Wenn man etwas herum googelt, dann bekommt man immer häufiger zu lesen, dass sich ab DirectX12 die VRAM der Grafikkarten doch mittlerweile addieren lassen.:p
Laut dxdiag habe ich auch, dank Windows 10, DirectX12. Nutzt mir aber nichts, weil meine drei Grafikarten vom Werk aus nur DirectX11 unterstützen.:hust:

DirectX12 dxdiag.jpg

Ich will mich aber jetzt nicht wirklich festlegen oder darüber streiten. Ich bin ja erst selbst vor Kurzem darüber gestolpert.
Falls also einer von Euch sich da mal gerne etwas Neues anlesen möchte, ich habe mal 2 Links dazu gepostet.
Ist schon recht interessant, was da beschrieben wird.

DirectX 12 erlaubt das Addieren des Grafikkarten-Speichers von mehreren Grafikchips
DirectX 12 unterstützt die gemeinsame Arbeit von Grafikkarte und integrierter Grafik

Mal abgesehen vom unglaublichen Stromverbrauch.
Jetzt mal abseits von deinem Problem was hast du für ein Netzteil, schon deine GPU's zerstören fast 900W und dann noch diese CPU. AKW nebenan oder hohes Guthaben beim Stromanbieter :d

Zu meinem Stromverbrauch!

Der ist natürlich höher, als der einer einzelnen Grafikkarte, aber auch nicht so astronomisch hoch, wie man anfangs vermuten würde.;)

Im normalen Betrieb verbraucht jede einzelne Grafikkarte sogar ein gutes Stück weniger (185W manchmal sogar weniger), als es die Herstellerangaben vorgeben.
Dank dem Überwachungsmonitor von EVGA, der mir eine Menge Daten meiner Grafikkarten anzeigt, kann ich das gut verfolgen.

Nichtsdestotrotz ist der Verbrauch höher als bei einer einzelnen Grafikkarte.

Ich habe das ja schon mal im Rahmen des Übertaktens getestet. Wenn ich die drei Grafikkarten bis auf äußerst mögliche übertakte und sie richtig trete bzw. prügle (zumindest soweit ich mich damals getraut habe), dann verbraucht jede Einzelne gut und gerne 391W.
Vielleicht könnte man sogar noch höher gehen.:-[
Das mache ich aber natürlich nicht, dann wären mir meine drei 580iger längst weggeraucht.
Also um das Kind mal beim Namen zu nennen, ich habe ein 1600W Netzteil von EVGA. Wohlbemerkt, dass es bis zu 1600W leisten und aushalten kann, heißt nicht das es diese ständig verbraucht. Habe ich es damals gebraucht sehr günstig bekommen.

Schon mal darüber nachgedacht auf eine Single GPU zu setzen. Eine GTX980Ti/1070 . . . .
hol dir halt ne 1080. die 500euro wirste doch wohl haben bei deiner jetzigen hardware^^

Apropo "günstig" ... ... auch meine aktuellen Hardwarekomponenten, besonders diese aus diesem Herstellungsjahr, habe ich, ohne zu übertreiben, wirklich zu einem unverschämt günstigen Ramschpreis bekommen.:stupid:

Die dafür geeignete neue Grundhardware, wie Mainboard, Prozessor, Arbeitsspeicher und Monitor habe ich glücklicherweise schon einmal.
Gott sei Dank zu einem unverschämt günstigen Preis. Neu hätte ich mir das nie leisten können.:hail:

Als Neuware zu Neupreisen hätte ich mir diese Hardware niemals gekauft, mal davon abgesehen, dass es mein Budget deutlich gesprengt hätte.
Um es kurz zu machen, ich hatte einfach bei einem Räumungsverkauf wirklich Megaglück. Deshalb kann ich mir erst mal keine Grafikkarte für 500€ oder mehr leisten!
Brauche ich jetzt auch nicht, da ich mit dem was ich jetzt habe erst mal mehr sehr zufrieden bin.:coffee2:

GPU1 ist die oberste Karte? Also am nächsten bei der CPU?
Wenn es auf Automatisch eingestellt wird, bekommt meist die unterste Karte PhysX aufgebrummt.
Bis zur dritten Karte sind die Leiterbahnen etwas länger (höhere Latenz) ;)

Danke für die Erklärung meines kleinen Luxusproblems.:bigok:
Mit dieser Erklärung macht es sogar Sinn, danke dafür.:wink:
 
Zuletzt bearbeitet:
Mein Tipp wäre ja die GTX580 zu verkaufen - kriegste für 80-100€ pro Stück raus - und dann nach 'ner gebrauchten GTX1070, 980 (kriegst du eine Gute schon für 250-280€) oder 980ti Ausschau zu halten. Da hast du einen eklatanten Leistungszuwachs, der dir tatsächlich auch immer zur Verfügung steht.

Selbst eine einzelne GTX780ti - die du schon für um die 150€ kaufen kannst - bringt mehr Leistung auf den Teppich als die 3x 580.

SLI und CrossFire waren mal 'ne ganz nette Spielerei, um die sich heute allerdings kein Mensch mehr kümmert. Die Szenarien, in denen MultiGPU noch Sinn macht, sind alle sehr spezifisch, haben mit Zocken nix zu tun und benötigen dann auch weder SLI noch CrossFire - weil tatsächlich jede GPU einzeln angesprochen wird und ihre eigenen Tasks abarbeitet.
Aktuelle Spiele und v.a. Engines machen sich gar nicht mal mehr die Mühe, SLI oder Crossfire Unterstützung zu implementieren, weil es einfach mit zu vielen Problemen und Hürden behaftet ist. Da läuft dann trotz allem immer nur eine der GTX580.

Nicht vergessen solltest du, dass der Wert der GPUs, die ja inzwischen einige Jahre auf dem Buckel haben, relativ flott sinkt. Gerade auch, weil sie aufgrund des immensen Stromverbrauchs unter Last nicht gerade gefragte Bauteile für Budget-PCs sind. In dem Segment greift man lieber auf eine GTX 680 oder 770 zurück - die sind sparsamer, gibt's mit 4GB Framebuffer....

Ich persönlich hab' zu meinen Grafikkarten ein relativ entspanntes Verhältnis - ich verkaufe stets, wenn die Preise gerade besonders hoch sind auf dem Gebrauchtmarkt - und halte so meine Reinvestitionskosten für ein Upgrade gering. Ich kam ursprünglich mal von einer 750ti, hatte dann eine R7 370, GTX 950, GTX 770, R9 380 4G, GTX 1060 und zuletzt eine RX480 8G weil ich 'nen FreeSync-Monitor angeschafft habe.

Mein Kostenaufwand für jedes Upgrade war minimal und bewegte sich im Rahmen dessen, was am Monatsende so übrig blieb - vielleicht summiert auf 1-2 Monate. Selten waren das mehr als 50-90€.
 
Zuletzt bearbeitet:
Ich gebe Euch recht, die von mir angegebenen 9GB Arbeitsspeicher sind ein Fehler! :rolleyes:
Da habe ich im Schreibwahn nicht richtig aufgepasst. Ich habe das korrigiert, danke für die Information.

Jede GPU nutzt natürlich ihren eigenen VRAM, was aber folgendes nicht unbedingt ausschließt.
Wenn zum Beispiel jede GPU für sich eine Anwendung bearbeitet, die zum Beispiel je 1200MB Speicherplatz benötigt, dann verrichtet mein SLI-Verbund, in diesem Moment, objektiv betrachtet einen Speicherverbrauch von insgesamt 3600MB.:hust:


Danke für die Erklärung meines kleinen Luxusproblems.:bigok:
Mit dieser Erklärung macht es sogar Sinn, danke dafür.:wink:
VRAM:
Das verwirrende ist, dass sehr wohl jede weitere Karte den selben Inhalt der ersten Karte beinhaltet.
Das nennt man dann AFR AlternativeFrameRendering.
Bei SFR (SplitFrameRendering) haben beide KArten unterschiedliche VRAM Inhalte und somit addiert sich der VRAM.
Multi-GPU liegt inzwischen mehr in den Händen bei den Spiele Entwicklern.
Wenn es nicht genutzt wird ist das Spiel oder die Software nicht so Anspruchsvoll und sie laufen auch auf einer Karte sehr gut mit hohen FPS.

Hatte ein GTX580 SLI, sowas will man einfach nicht mehr vermissen.
Wenn man mal 20FPS in slowmotion gesehen hat, wird sich Fragen was Micro-Stuttering sein soll.
Heute nennt es sich LFC (Low Framerate Compensation): https://www.amd.com/Documents/freesync-lfc.pdf
 
Mein Tipp wäre ja die GTX580 zu verkaufen - kriegste für 80-100€ pro Stück raus - und dann nach 'ner gebrauchten GTX1070, 980 (kriegst du eine Gute schon für 250-280€) oder 980ti Ausschau zu halten.

Den Gedanken meine Grafikkarten zu verkaufen, hatte ich auch schon im Hinterkopf!:coolblue:
Mit dem damit verdienten Geld plus den Resten von meinen Budget könnte ich mir vielleicht eine der 900er oder 1000er Serie gebraucht holen.:p

Es sollte dann auch mindestens eine der 900er oder 1000er Serie seien, da ich schon ganz gerne den Sprung zum DirectX12 machen möchte.

Selbst eine einzelne GTX780ti - die du schon für um die 150€ kaufen kannst - bringt mehr Leistung auf den Teppich als die 3x 580.

Nachdem ich mich ein bisschen umgeschaut habe, würde ich kein Geld mehr in eine 780 GTX Ti stecken, selbst wenn ich Diese für nur 150€ bekommen würde.
Die hat nämlich, genau wie meine 580iger, auch nur DirectX11 und 3GB von Werk aus.
Der Leistungssprung zur 780 GTX Ti ist tatsächlich nicht so riesig, wie ich zuerst vermutet habe.:hmm:

Das ist mir aufgefallen, als ich mein SLI-Verbund, mithilfe von SiSoftware Sandra Lite Platinum.SP2, heise.de/preisvergleich und 3DMark, mit mehreren potenziellen Nachfolgern verglichen habe, um für mich eine Auswahl zu bekommen.

Die Leistungsstärkste 780 GTX Ti kommt auf 6624GigaFLOPS oder 6,624TeraFLOPS, da liege ich mit meinen 6TeraFLOPS noch ganz gut dran.
Ich könnt ja noch übertakten, aber ich bin kein Freund vom übertakten von Grafikkarten.:shot:


SiSoftware Sandra Lite Platinum.SP2 Rechenleistung 3x580GTX (1).jpg SiSoftware Sandra Lite Platinum.SP2 Rechenleistung 3x580GTX (2).jpg TOP 5 SCORE 780 Ti Sky Diver.jpg 3x580 GTX HC CU SCORE 37535.jpg


Die Top1 780 GTX Ti im Ranking stand aber etwas unter Anabolika ... den Chiptakt von 1085MHz auf 1535MHz getaktet.:eek:
Wenn ich meine 580iger um je knapp 500MHz takten würde, dann würde das ein nettes Feuerchen ergeben.

VRAM:
Das verwirrende ist, dass sehr wohl jede weitere Karte den selben Inhalt der ersten Karte beinhaltet.
Das nennt man dann AFR AlternativeFrameRendering.
Bei SFR (SplitFrameRendering) haben beide Karten unterschiedliche VRAM Inhalte und somit addiert sich der VRAM.
Multi-GPU liegt inzwischen mehr in den Händen bei den Spiele Entwicklern.
Wenn es nicht genutzt wird ist das Spiel oder die Software nicht so Anspruchsvoll und sie laufen auch auf einer Karte sehr gut mit hohen FPS.

Ja, da gebe ich Dir recht, das ist von Anwendung zu Anwendung unterschiedlich. Besonders bei Spielen!!!:hust:

Als schönes Beispiel finde ich, dient die remasterte Version von Strategiespielklassiker Homeworld(1999) und Homeworld 2(2003), die "Homeworld Remastered Collection (2016)".
Wenn man das Einheitenlimit aufhebt bzw. umgeht, das Spiel in der anspruchsvollsten Grafikeinstellung spielt und im Gefecht sich knapp 2000 diverse Raumschiffe gegenüberstehen, dann wird nicht nur mein normaler Arbeitsspeicher gut belastet, sondern sind plötzlich auch fast 4,7GB VRAM meiner Grafikkarten in Benutzung und es läuft immer noch flüssig.

1 2 3 4 5 6 7

Dann gibt es aber wieder Spiele, da ist dann bei knapp 2,6GB Feierabend.
Das wirkt dann auf mich so, als ob meine NVIDIA-Systemsteuerung ab und zu zwischen AFR und SFR wechselt. :stupid:
Dabei sollte das automatisch gar nicht gehen, entweder oder!

Ich bin mal gespannt, nächstes Jahr sollen einige der Nachfolgemodelle von NVIDIA Mulitcore-GPUs oder etwas ähnliches haben.
Das wir bestimmt verdammt geil. :banana:

Naja, so viel Mal dazu.

Dann schaue ich Mal nach, wie hoch im Moment eine EVGA 580 GTX Hydro Copper Classified Ultra 3GB im Netz gehandelt wird.;)
 
Zuletzt bearbeitet:
TDP hat nichts mit Stromverbrauch zu tun. Es handelt sich um die maximal abgegebene Wärme die vom Kühlsystem abgeführt werden muss.
Sorry fürs Klugscheissen, ich lese das nur immer wieder. :(
 
TDP hat nichts mit Stromverbrauch zu tun. Es handelt sich um die maximal abgegebene Wärme die vom Kühlsystem abgeführt werden muss.

Okay, vielen Dank für den Tipp!:wink:

Ich habe es korrigiert. Wieder was gelernt!

Ist aber auch echt irreführend, dann sollte da Leistungsabgabe, Wärmeabgabe oder abzuführende Wärme stehen und nicht Leistungsaufnahme.:hust:

Leistungsaufnahme von 244W.jpg
 
Zuletzt bearbeitet:
Hi, die Leistung ist doch gut. Hatte mit 2x 590 gtx knapp 20k. Von daher alles bestens.
 
ja, ist halt die Leistung die der Kühler abführen muss.

Wenn man das dann weiß, dann macht das sogar total Sinn.:d

Habe es mir dann nochmal auf Wikipedia gründlich durchgelesen.:coffee2: TDP = Thermal Design Power

Das passiert dann schon mal recht schnell.
Das vermeidlich Offensichtliche, wie zum Beispiel das Wort "Leistungsaufnahme" mal eben einfach schnell nur rauskopiert um etwas in seinem Beitrag zu belegen, dann übersieht man die 3 Buchstaben TDP mal schnell bzw. vermutet nicht, dass da etwas Vollkommendes anderes dahinter steckt.

ZACK ... schon hat man Blödsinn gepostet:lol:

Nun ja, genau genommen sind diese Foren auch dafür unteranderem gedacht. Um was Neues zu lernen und anderen zu helfen.:bigok:

... oder um korrigiert zu werden.:rofl:


Ich hab übrigens jetzt mal geschaut, wie gerade meine Grafikkarte im Netz gehandelt wird. Bin überrascht, wie viele Leute noch unverschämt viel Geld für so alte Sachen haben wollen. Die Leute leben auf dem Mond.:stupid:

Beispiel 1 <--- schon echt frech und unverschämt!

am aller besten ist der Typ hier, der stellt alles in den Schatten:rofl:
Beispiel 2 <--- der .... ist einfach IRRE!!!:wut:

Ich hab drei mal nachgeschaut, weil ich es einfach nicht glauben konnte.:shot:

Hi, die Leistung ist doch gut. Hatte mit 2x 590 gtx knapp 20k. Von daher alles bestens.

Die Leistung ist sehr gut, da gib ich Dir Recht. Mittlerweile sind die drei 580iger auch sehr gut aufeinander abgestimmt und laufen problemlos. Ich versuche im Internet gerade nur herauszufinden, zu welchen Preis ich theoretisch meine 580iger verkaufen könnte, um eventuell dafür eine bessere Single Grafikkarte zu bekommen.

megasthenes brachte mich dazu, mal darüber nach zu denken.

Mein Tipp wäre ja die GTX580 zu verkaufen - kriegste für 80-100€ pro Stück raus - und dann nach 'ner gebrauchten GTX1070, 980 (kriegst du eine Gute schon für 250-280€) oder 980ti Ausschau zu halten. Da hast du einen eklatanten Leistungszuwachs, der dir tatsächlich auch immer zur Verfügung steht.

Doch mit solchen Preisvorstellungen habe selbst ich nicht gerechnet.:lol:
 
Zuletzt bearbeitet:
TDP hat nichts mit Stromverbrauch zu tun. Es handelt sich um die maximal abgegebene Wärme die vom Kühlsystem abgeführt werden muss.
Sorry fürs Klugscheissen, ich lese das nur immer wieder.

Im Prinzip hast du recht - dennoch ist eine hohe TDP ein guter Indikator für einen hohen Stromverbrauch. Schließlich kann das Teil nur an Wärme abgeben, was auch zugeführt wird. Du hast also den Faktor TDP + das, was eben nicht als Wärme rausgeht. Dass die Angabe sich auf Vollast in 'nem Laborszenario bezieht sollte dabei klar sein.

Die GPU Gebrauchtpreise sind mitunter ziemlich wüst :stupid: Bin immer wieder erstaunt, dass es dann tatsächlich Leute gibt, die den Kram für 40-50% über Marktwert verkaufen können.
 
Zuletzt bearbeitet:
Die GPU Gebrauchtpreise sind mitunter ziemlich wüst :stupid: Bin immer wieder erstaunt, dass es dann tatsächlich Leute gibt, die den Kram für 40-50% über Marktwert verkaufen können.

Die 40 bis 50 Prozent Aufschlag sind schon bei jeder zweiten Grafikkarte die Regel, wie ich das die letzten 3 Stunden so sehe und mache Anbieter hauen sich dann auch mal 200 bis 400 Prozent rein.:banana:



Die Leute leben auf dem Mond.:stupid:

Beispiel 1 <--- schon echt frech und unverschämt!

am aller besten ist der Typ hier, der stellt alles in den Schatten:rofl:
Beispiel 2 <--- der .... ist einfach IRRE!!!:wut:
 
Zuletzt bearbeitet:
Jetzt mal abseits von deinem Problem was hast du für ein Netzteil, schon deine GPU's zerstören fast 900W und dann noch diese CPU. AKW nebenan oder hohes Guthaben beim Stromanbieter :d

Ich habe mithilfe einer Leihgabe vom Nachbarn mal etwas ausprobiert. :cool:

Meinen Watt Verbrauch gemessen, einmal im normal Betrieb und einmal unter Volllast (3DMark Benchmarktest: Fire Strike Ultra Custom mit den höchstmöglichen Einstellungen)

436.8Watt.jpg 831.2Watt.jpg

An der Steckdose hängen alle Verbraucher dran, Rechner, Kühlturm und Monitor.

Also bei normalen Bedingungen und bei hoher Belastung, noch einigermaßen vertretbar.
 
Zuletzt bearbeitet:
Wow das ist unerwartet

Zur deiner Ehrenrettung, wenn ich alle GPUs und den CPU ein gutes Stück übertakten würde, dann käme mein System bestimmt auch auf 1000 Watt oder höher. ;)

Also wenn ich zusätzlich die Belastungen durch spezielle Auslasttools noch weiter hoch Schraube!

Mal davon abgesehen, das auf der Rückseite der OVP angegeben steht, dass die Grafikkarte bis zu 600Watt verbrauchen kann.

Das muss man erstmal sacken lassen.
 
Zuletzt bearbeitet:
Halt - Kühlturm? :-O

Ansonsten gar nicht mal so übel wie ich gedacht hätte... Da würd' ich für den Spaß auch mit 3x GTX 580 rumexperimentieren. Oder mit 2x GTX 690 :fresse:
 
Ja, ich reite schon seit Anfang an auf der SLI Welle.

Schon seit 2006, als ich mir damals meinen ersten richtigen Gaming-PC zusammen gebaut habe.

Damals mit 2 Leviathan GeForce 8800 Ultra 768MB.

Doch ihr habt alle recht, das SLI Zeitalter ist so gut wie vorbei.
Bis 2013 hat's noch Sinn gemacht, danach wurde es zu einer reinen Spielerei.

Halt - Kühlturm? :-O

Ansonsten gar nicht mal so übel wie ich gedacht hätte... Da würd ich für den Spaß auch mit 3x GTX 580 rumexperimentieren. Oder mit 2x GTX 690 :fresse:

Da gebe ich dir Recht, das hat mir auch bis jetzt sehr viel Spaß gemacht. :bigok:
Der Kühlturm und das Gehäuse sind mittlerweile auch die letzten Überbleibsel meines alten Gaming-PCs von 2006.

Das ich den Kühlturm jetzt nicht mit der neuen Hardware gegen eine interne Lösung ausgetauscht habe, liegt aber auch nur daran, dass ich mit dem Wechsel der drei 580 GTX 2012 den kompletten Turm auseinander gebaut, grundsaniert und die wichtigsten drei Elemente gegen etwas zeitgemäßes Stand 2012 ausgetauscht habe.

Thermaltake Symphony (CL-W0040)

Die alten Lüfter kamen alle raus und wurden durch neue ersetzt, die um das 3fache an Luftdurchsatz und Luftdruck besser gewesen sind.
Der alte Radiator wurde auch durch einen neueren ersetzt und die lächerliche alte Pumpe auch.

SilenX iXtrema Pro, 120mm (IXP-76-18)
Alphacool NexXxoS XT45 480mm
Alphacool TPP644-OT12 (13124)

Ich wusste damals ja schon, dass der Kühlturm in seiner Ursprungsversion niemals mit CPU, Northbridge, Southbridge und 3 Grafikkarten fertig werden würde.

Ich hang halt an dieser alten Säule. Das tue ich immer noch. Mittleweile ein Unikat.:cool:

Vielleicht finde ich noch alte Bilder von damals, dann zeig ich mal die Umbauaktion.
Der Turm war ja nicht nur wie ein Bunker vernietet und verschraubt, sondern zusätzlich an vielen Stellen verklebt.

War vom Hersteller nicht gewollt, dass man daran geht.:cool:
 
Zuletzt bearbeitet:
Für solche Sachen verzichte ich, zu Gunsten für Mora, auf Designtürme.

Google mal nach Lars Krieger Projekt X, Der Hat sich einen Stand für 2 Moras als Kühlung gebaut. Da wird nix schnell Warm. Auserdem ist OC bei Classified Pflicht, oder ?

Zu DX12: Zusammenführung des VRam. Das Betrifft aber nur DX12 Benchmarks, soweit ich weis wäre das nur Ashes of Sincularitie (oder so ;-) ). mfg
 
Zuletzt bearbeitet:
Mein Tipp wäre ja die GTX580 zu verkaufen - kriegste für 80-100€ pro Stück raus - und dann nach 'ner gebrauchten GTX1070, 980 (kriegst du eine Gute schon für 250-280€) oder 980ti Ausschau zu halten. Da hast du einen eklatanten Leistungszuwachs, der dir tatsächlich auch immer zur Verfügung steht.

Bester und sinnvollster Vorschlag!
Und selbst wenn die 780ti weniger Leistung hat als 3 580er, so ist sie im Low FPS bereich wegen der Mikroruckler immernoch überlegen.
Ich hatte selbst 2 780 im SLI und bin dann auf eine 780ti gewechselt ... Da kamen einem 40 fps flüssiger vor als 50 fps mit den 2 780er.
Besonders bei Witcher 3 habe ich das gemerkt.

Also eine 980ti solltest du für 250-300 euro ergattern können.

Gruß Marc
 
Sowas hab' ich ja schon ewig nicht mehr gesehen.

Haste mal Bilder von der kompletten Chose?

Bin die nächsten Tage nicht zu Hause, aber poste einen Schnappschuss von meinen Chose, sobald ich es wieder bin.;)

Für solche Sachen verzichte ich, zu Gunsten für Mora, auf Designtürme.

Google mal nach Lars Krieger Projekt X, Der Hat sich einen Stand für 2 Moras als Kühlung gebaut. Da wird nix schnell Warm.

Jetzt hast du mich echt neugierig gemacht, aber leider finde ich zu beiden Sachen nichts.

Die Suchergebnisse von Google sind da leider nicht wirklich ergiebig.

Mora Designtürme sagt mir auch leider nichts.
Du musst verzeihen, aber stecke da nicht mehr so voll im Thema, ist Mora ein spezieller Hersteller, ein Casemodder oder ist das eine Abkürzungen für irgendwas?

Google Suchergebnisse zu "Lars Krieger Projekt X"

Suchergebnisse Google "Mora Designtürme"

Wenn du da an einen bestimmten Link gedacht hast, dann poste ihn mal bitte. Ich würde es mir gerne mal anschauen.

Auserdem ist OC bei Classified Pflicht, oder ?

Da gebe ich dir Recht, die sind schon speziell dafür ausgelegt.
Ich habe ja auch 2 Profile, die ich starte, sobald ich es für nötig halte.
Ein Profil für meine Grafikkarten und ein Profil für meine CPU bzw. Mainboard.

Ich bin halt kein Freund vom ständigen vollen übertakten der Hardware, wenn man es eh gerade nicht braucht.

Ich starte die Profile, nur wenn ich es brauche, ansonsten läuft meine Hardware im "Normalmodus".

Wobei meine 580iger Classified ja schon im "Normalmodus" von Werk aus sehr gut geputscht worden sind.

Zu DX12: Zusammenführung des VRam. Das Betrifft aber nur DX12 Benchmarks, soweit ich weis wäre das nur Ashes of Sincularitie (oder so ;-) ). mfg

Ja, "Ashes of the Singularity" ist schon ein gutes Spiel, aber kann seinem Vorbild "Supremes Commander" in vielen Dingen nicht das Wasser reichen.

Grafisch leider unausgereift, für ein so neues Spiel mit so hohen Anforderungen.
Da sieht "Supremes Commander 2" in den höchsten Einstellungen optisch viel besser aus, obwohl es viel älter ist.

Ashes of the Singularity - Das nächste Supreme Commander?

Meine Antwort darauf ist ein ganz klares Nein!

- - - Updated - - -

Mein Tipp wäre ja die GTX580 zu verkaufen - kriegste für 80-100€ pro Stück raus - und dann nach 'ner gebrauchten GTX1070, 980 (kriegst du eine Gute schon für 250-280€) oder 980ti Ausschau zu halten. Da hast du einen eklatanten Leistungszuwachs, der dir tatsächlich auch immer zur Verfügung steht.

Bester und sinnvollster Vorschlag!

Auf jeden Fall!!! Bin ja schon dabei. ;)

Ich hab übrigens jetzt mal geschaut, wie gerade meine Grafikkarte im Netz gehandelt wird. Bin überrascht, wie viele Leute noch unverschämt viel Geld für so alte Sachen haben wollen. Die Leute leben auf dem Mond.:stupid:

Beispiel 1 <--- schon echt frech und unverschämt!

am aller besten ist der Typ hier, der stellt alles in den Schatten:rofl:
Beispiel 2 <--- der .... ist einfach IRRE!!!:wut:

Wie du siehst, stehen meine Chancen, die drei 580iger Classified loszuwerden, sehr gut.

Die Konkurrenz hat viel zu hohe Preisvorstellungen. :lol:
 
Zuletzt bearbeitet:
Ich bin mal gespannt, nächstes Jahr sollen einige der Nachfolgemodelle von NVIDIA Mulitcore-GPUs oder etwas ähnliches haben.
Das wir bestimmt verdammt geil. :banana:

Naja, so viel Mal dazu.

Dann schaue ich Mal nach, wie hoch im Moment eine EVGA 580 GTX Hydro Copper Classified Ultra 3GB im Netz gehandelt wird.;)
Wenn man von SiSoftware SANDRA: GP Rechenleistung ausgeht kommt nvidia nicht mehr in Frage: http://abload.de/img/gp_rechenleistung_sanlhs06.jpg
Wenn wir den Luxmark Benchmark Version 3.1 Vergleichen, erreicht eine HD7970 etwa zwei GTX580...
 
Es sollte dann auch mindestens eine der 900er oder 1000er Serie seien, da ich schon ganz gerne den Sprung zum DirectX12 machen möchte.

Finde den Fehler... :lol:

Nvidia hat ersteinmal keinen Bock auf LowLevel, da sie bei DX11 mehr Geld verdienen und AMD automatisch ausstechen. Daher auch die halbherzige Unterstützung.

Und zu den MuliCore-GPUs sieht es so aus, als wäre da AMD aktuell weiter. Mit EPYC haben sie das Kunststück schon vollbracht. Anfang nächsten Jahres gibt es schon Multi-Chips mit Intel auf EMIB Basis. Und mit Vegas HBCC ist man auch in Sachen VRAM Managment schon einen Schritt weiter. Vermutlich wird wohl jeder der kleinen DIEs ein eigenes Speicherinterface samt HBM haben. Ähnlich zu EPYC. Vega in der jetzigen Form ist der wichtige Grundstein für Navi. HBCC, Infinity Fabric, neue Grundarchitektur, manche Features sind aktuell sogar noch inaktiv... Und anschließend gehts dann in die Breite.
 
Zuletzt bearbeitet:
Respekt, du steckst im Thema voll drin. :bigok:
Das ist die alte große Frage aller Fragen im Grafikkarten Bereich.

Wer ist aktuell besser, AMD (ATI) oder NVIDIA?

Ich kann diese Frage nicht beantworten.

Dazu fehlt mir das nötige Fachwissen.

Ich persönlich hab mit beiden Herstellern sehr gute Erfahrungen gemacht.

Mitte der 90igern war es bei mir noch ATI und seit 2006 ist es NVIDIA. Ich würde aber auch zu AMD wechseln, wenn das Angebot stimmt. :cool:
2006 wurde ATI ja von AMD geschluckt.

Wenn man ehrlich ist, dann könnte man mit dieser Frage, mehrere Hundertschaften von Experten beschäftigen, ohne ein eindeutiges Ergebnis zu erhalten.

Ähnlich wie bei den aktuellen Jamaika Sondierungen.:lol:

Die ja eh leider zum scheitern verurteilt sind. :(

Oft ist das mit der Grafikkarten-Hersteller Frage ja einfach nur eine Liebhaber Sache.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh