Von nVidia zu AMD

Hallo iCrack

Wie sieht es bei dir mit Spulenfiepen aus? Meine hat welches, ist aber unter normalen Umständen nicht wahrnehmbar. Ansonsten wünsch ich dir viel Spass mit deinen beiden Karten. Ein paar Bilder wären noch toll! :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mache ich alles gleich, aktuell ist es etwas laut, beurteile das Spulenfiepen nachher

Gesendet von meinem Nexus 5 mit der Hardwareluxx App
 
Wer kann mir denn bestätigen, dass mein AX760 Netzteil das packt?

Keine Sorge, das geht da schon nicht in die Knie.
Und selbst wenn, dann geht die Kiste höchstens aus, mehr nicht.
Mein P10 (750 Watt) lacht jedes alltagstaugliche 1150-System weg, dein AX760 sollte das auch schon packen ;)

Ich hatte selber mal zwei 290 Vapor-X in meinem Air 540, allerdings nicht lange da SLI mit Triple-Slot, jedenfalls mit meinem Mainboard, einfach keinen Sinn hat.
Wenn du da mal 2 Stunden was gezockt hast was beide Karten wirklich so richtig auslastest hat die obere bei mir irgendwann zwangsläufig die 90+ Grad erreicht.
Deswegen hätte ich dir eher zu einer Dual-Slot Lösung geraten.

Du hast aber mehr Platz zwischen den Karten sodass das doch passen sollte.
Wie sind denn deine Temperaturen?

Aber ich kann dich verstehen, bin von meinen beiden Titan auch nicht sonderlich angetan, hätte da doch lieber meine Vapor-X zurück :d
Jedenfalls werde ich dann definitiv diesen Frühling auf die neuen Top-Dogs umsteigen, je nachdem welche nun die Nase vorn hat.
Allerdings vermute ich stark dass AMD dieses Mal nVidia davon tanzen wird, jedenfalls wenn Pirate-Island tatsächlich mit HBM um die Ecke kommt.
 
Zuletzt bearbeitet:
Die beiden laufen jetzt grade bei 1150/1500MHz. Offset und Powerlimit auf maximum, per Trixx (Sapphire) Tool.

Heilige Mutter. Kommt da ne Hitze aus dem Case. Wird zwar gut abgeführt, aber die AMDs sind echt warm... Habe eben mal geguckt, beide bei 81-83°C.

Gesendet von meinem Nexus 5 mit der Hardwareluxx App
 
81-83°C geht aber noch ;)

Ich kann dir aus Erfahrung mit Fermi SLI sagen, das es erst richtig "interessant" wird, wenn da wieder ne 1 vorn steht und die Zahl dreistellig wird... Vor allem dann im Sommer ;) Da macht dann leider auch das Spielen dann keinen wirklichen Spaß mehr, wenn die Raumtemperatur die 40°C mühelos durchbricht und du eigentlich fast schon keine Klamotten mehr ausziehen kannst.
Man sucht sich dann den Weg die Hitze zu unterbinden mit Framelimiter, VSync oder sonstwas. Oder spielt halt einfach nur nachts mit offenem Fenster und Durchzug in der Bude...

PS: und die Temperatur selbst ist da wenig aussagekräftig. Interessant ist die Wärmeleistung. Und wenn vorn 600W+ rein gehen, kommen auch fast annähernd 600W Hitze wieder raus. Das ist leider das Problem...
 
Zuletzt bearbeitet:
Was willst du mit der TitanZ? Themenbezug? Fehlanzeige...

Ich bin es echt leid dir immer alles vorkauen zu müssen. Wenn du nichts verstehst, dann halt dich einfach zurück ja ?
Es geht um den Wiederverkauf, da der Themenstarter hier offenbar gezielt auf AMD zurückgreifen möchte, da 1. die Preise deutlich humaner sind und 2. er später eventuelle doch nochmals aufrüsten möchte. Da ist der Kauf der günstigen AMD-Karten die beste Wahl !
Daher der Vergleich mit der Titan Z als Beispiel, wie man mit teuren Karten schnell auf die Schnau... fallen kann.

Mann, ist das so schwer zu verstehen ?

Mal ganz davon ab, wer ne TitanZ kauft, kauft diese wohl nicht, weil er damit ausschließlich spielt... Aber das Thema hatten wir schon.

Ja, das hatten wir wirklich schon zu genüge und erbarme uns hier bitte den konfusen Gedankengänge...
Die GTX Titan Z ist eine GAMER-KARTE Wie oft ist das nun schon deutlich erklärt worden und du scheinst es immer noch nicht verstehen zu wollen.
GeForce GTX TITAN Z Edition Grafikkarte | GeForce | NVIDIA

Ich hoffe, die Werbeumschreibung "GAMINGMONSTER" direkt von NVIDIA selber kann dir dabei etwas auf die Sprünge helfen, ansonsten ist bei dir wohl alles verloren.

Es ist und bleibt immernoch die mit Abstand schnellste Karte, die den Spagat zwischen DP Performance und Spieleperformance hinbekommt.

Wieder komplett falsch.
Das Beste für den Profibereich ist das hier.
OpenCL: Shader, Kryptografie und Bandbreite - AMD FirePro W9100 im Test: Hawaii auf Hochtouren?
OpenCL: Finanzmathematik und wissenschaftliche Berechnungen - AMD FirePro W9100 im Test: Hawaii auf Hochtouren?

Die kostet genauso viel wie eine Titan Z ist aber ungleich besser, da deutlich stromsparender und vor allem, das wurde auch schon unlängst immer wieder durchgekaut, stehen professionelle Treiber zur verfügen, was bei der Titan Z eben nicht der Fall ist.

Für Gaming steht eine R9 295X2 schon längst im Ziel, bis eine Titan Z am Horizont erscheint.
Auch fürs Arbeitet ist eine R9 295X2 kein Kind von Traurigkeit.

Das kostet unsummen Geld und jeder muss für sich entscheiden, ob es einem das Wert ist. Und nein, kein AMD Gegenstück, was auch nur im entferntesten in die Nähe der TitanZ DP Performance kommt, kostet weit weniger Geld... Also bevor du jetzt mit irgend so ner FirePro um die Ecke kommst.

Genau, damit komme ich aber, weil die FirePro eine echte PROFIKARTE ist !!!.
Deine Argumentation wird mal wieder lächerlich.


Auch das mal wieder völlig entgegen jeglicher Realität... Die Skalierung hängt in erster Linie vom Spiel und vom Profil ab. Funkt das, funkt bei beiden die Skalierung ziemlich gut. Annähernd Faktor 2 bekommen beide Parteien bei guten Spielen und guten Profilen hin. Es sei denn, die CPU limitiert, dann natürlich nicht.

Bist wohl hinterm Wald stecken geblieben ? Jeder weiß doch, das die Skalierung bei AMD durch ihr direktes XDMA über den PCIe-Steckplatz deutlich Vorteile gegenüber NVIDIAs SLI mit Brücke besitzt.
Mal wieder an dir vorbei gegangen ? Beschäftige dich doch mal mit AMD Hardware.

Und auch das es bei NV über FHD "dünn" wird, kann einfach nicht der Realität entsprechen. Schau dir Benchmarks an dann wird dir einiges klarer...

Klar, Deshalb werden die AMD-Karten in sämtlichen Benchmarks immer stärker, wenn die Auflösung höher geschraubt wird.
Bitte träume nicht so einen Unsinn !

Im übrigen, der Computerbase Test zur 970/980 gibt auch Benches in UHD und CF/SLI. Eine 295X2 stellvertretend für CF gegen eine Single 290X und das SLI aus zwei 970/980er. ~85% SLI Skalierung sind alles andere als schlecht... Wie immer gilt aber, CPU Leistung muss stimmen. Sonst keine MGPU Skalierung!

Du nimmst tatsächlich "NVIDIABASE" als Referenz ?
Die, wo in ihren Tests nur mit Standard Referenzkarten von AMD benchen und sie dann direkt mit hoch getaktete Custom-Modelle von NVIDIA antreten lassen ?
In ihren Benchs gibt es keine VaporX ect. LÄCHERLICH, das du mit so einer Seite daher kommst.

Sorry, aber wer so einen Nonsens verzapft, der muss auch mal auf den Boden der Tatsachen zurück geholt werden.
 
Ich bin es echt leid dir immer alles vorkauen zu müssen. Wenn du nichts verstehst, dann halt dich einfach zurück ja ?

Ähm dir ist bewusst, das der TE seine beiden 290er Karten schon hat?? Du bist reichlich spät dran mit einer Empfehlung... Noch dazu, ja du wirst es nicht glauben, war ich der Jenige, der hier den Vorschlag zu zwei 290ern anstatt zwei 290X gegeben hat, aufgrund des P/L. Ja auch sowas kann ich... Ist ganz einfach.

Also jetzt die Frage, was bezweckst du hier gerade mit deinen Ausflügen über irgendwelche SLI Performanceskalierung, die angeblich schlecht sein soll, über irgendwelche Aussagen von wegen, alles ab FHD ist bei NV schlecht und vor allem, mit der TitanZ? NICHTS!!! davon ist hier von Relevanz. Der TE hat seine beiden Karten und testet gerade fleißig. Also entweder du kannst was zum Thema beitragen oder du lässt es. Punkt aus Micki Maus.
 
Unter Last erkennt GPU-Z dann auch alles korrekt, zwei R9 290, und @ PCIe 3.0 16x und 8x...

AMD setzt ein Stromsparmechanismus ein, sobald die Karten im Idle laufen. Dann wird auch der PCIe-Bus auf sparsam gestellt, was eben dann PCIe 1.1 bedeutet. Sobald aber die GPUs auf Load gehen, geht auch der PCIe-Bus auf 3.0.
 
So, vorerst kann ich sagen:

1250/1500 keine Chance. Massive Bildfehler/Artefakte. 1200/1500 - geringe Artefaktbildung, aber definitiv nicht tauglich. 1180/1500 - keine Artefaktbildung. Scheint stabil zu sein. Temperatur bei 1180/1500 geht gut hoch. Leuchten nach kurzer Zeit blutrot. Also über 80°C. Die primäre GPU erreicht die Temperaturen viel früher. Exakte maximal Temperatur laut GPU-Z bei der primären 290 sind 85°C. Bezieht sich grade alles auf den Firestrike. Karten werden gut laut auf Volllast nach ein paar Minuten, aber nicht unerträglich. Der Takt 1180/1500 wird dauerhaft im Firestrike gehalten, auch nach mehreren Durchläufen. Lüfter drehen mit maximal knapp über 50%/2500rpm.

firestrike.JPG

Gesendet von meinem Nexus 5 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
für 1080p willst du 2 290X Stromfresser anschaffen? Guten Appetit!
 
Erstens sind es zwei 290er geworden, zweitens für 1080p @144Hz, dafür braucht man leider Bumms unter der Haube.
 
Erstens sind es zwei 290er geworden, zweitens für 1080p @144Hz, dafür braucht man leider Bumms unter der Haube.

Den "Bumms" wirst du leider mit einem i5 ausbremsen. in vielen games wie z.B. Bf4. Habe auch einen 144Hz Bildschirm (BenQ) und hatte mir testweise mal 2x 280X eingebaut. Wirst du nicht glücklich mit. Glaubs mir. Mantle funzt in Verbindung mit Intel nur mit erheblichen FPS Drops (BF4 zumindest).

Kauf dir eine 780 Ti gebraucht oder eine 970 ohne Fiepen und stell die Details runter. Haste mehr von zur Zeit.

http://www.hardwareluxx.de/community/f306/ziel-120-150-fps-bf4-1046949.html schau dir das an.
 
Der i5 wird auf 4,5GHz laufen, bitte was soll da ausbremsen?
 
Den "Bumms" wirst du leider mit einem i5 ausbremsen. in vielen games wie z.B. Bf4. Habe auch einen 144Hz Bildschirm (BenQ) und hatte mir testweise mal 2x 280X eingebaut. Wirst du nicht glücklich mit. Glaubs mir. Mantle funzt in Verbindung mit Intel nur mit erheblichen FPS Drops (BF4 zumindest).

Kauf dir eine 780 Ti gebraucht oder eine 970 ohne Fiepen und stell die Details runter. Haste mehr von zur Zeit.

Wow, herzlichen Glückwunsch für den überflüssigsten und unnötigsten Beitrag im ganze Thread!
Wirklich, alles Gute!

Der i5 wird auf 4,5GHz laufen, bitte was soll da ausbremsen?

Gar nichts, solche Aussagen kannst du getrost in die Tonne knicken.
 
Lade dir mal das OC-Tool SaphhireTriXX https://www.sapphireselectclub.com/ssc/TriXX/
Mit dem kannst du die Spannung der Karten erhöhen.
Bei 1.2 Volt sind eigentlich stabile 1200 MHz drin und ist auch noch gut unter Luft zu kühlen.

Hier mal ein Ergebnis meiner Karte mit Max-Spannung:
R9 290 1300 Mhz.jpg
 
Zuletzt bearbeitet:
Außerdem ist mir Battlefield 4 bisher total egal, besitze ich nämlich nicht :d



Gesendet von meinem Nexus 5 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
So, vorerst kann ich sagen:

1250/1500 keine Chance. Massive Bildfehler/Artefakte. 1200/1500 - geringe Artefaktbildung, aber definitiv nicht tauglich. 1180/1500 - keine Artefaktbildung. Scheint stabil zu sein. Temperatur bei 1180/1500 geht gut hoch.

Siehste ;) Hab ich dir oben vorhergesagt... Ne Spaß beiseite.
Ich würde vllt gar noch etwas runter gehen. Du wirst wohl den Taktunterschied von sagen wir 1100 auf 1180 nicht merken. Das sind grob 7%. Selbst wenn das 1:1 skalieren würde, was es nicht wirklich macht, dann lohnt das fast schon nicht. Die beiden Kärtchen haben auch schon von Haus aus nen erhöhten Takt, also über der eigentlichen AMD Referenangabe zum Max. Boost der 290er. Denn der liegt genau genommen bei irgendwas um die 950MHz rum. Sprich du hast mit 1180 da gerade gute 24% mehr Takt drauf. Was durchaus OK ist finde ich ;)

Das die obere Karte heißer wird ist auch klar, die bekommt die Abluft der unteren ab. Schließlich verbleibt die Abluft im Case und die 90° gedrehten Kühlkörper pusten halt an der Seite raus. Ggf. kannst du dort aber noch etwas optimieren, sprich mal gucken ob du da den Luftstrom etwas verändern kannst. (draufblasen oder absaugen am Seitenteil in Höhe der GPUs)

Zur aller größten Not gibts ja noch mehr Lüfterspeed auf den Karten... Was dann zwar lauter ist, aber je nachdem, ob du mit Kopfhörer spielst oder nicht, ggf. auch tragbar...
 
Der i5 wird auf 4,5GHz laufen, bitte was soll da ausbremsen?
Da wird nichts bremsen, ich weiß auch wie nur auf Mantle würde ich da besser nicht Verzichten, so lang DX12 noch nicht erhältlich ist!
Dir muss nur klar sein, dass es bei der 290X keine Crossfire-Brücken gibt und die Kommunikation zwischen den Radeons via PCI-Express stattfindet.
Die Dual-Single GPUs dagegen machen das onboard mittels PCI-E 3.0 Chip (16x).
 
Wow, herzlichen Glückwunsch für den überflüssigsten und unnötigsten Beitrag im ganze Thread!
Wirklich, alles Gute!

Gar nichts, solche Aussagen kannst du getrost in die Tonne knicken.

Der Hintergrund ist, das ich das Ganze GERADE erst durch habe. Mantle läuft im CF beschissen und 144Hz liefen mit den CF Karten auch nicht. lies dir den Thread durch, den ich gepostet habe, bevor du etwas von dir gibst.
Ich hatte es mit einem 2500k @4,4Ghz getestet (ist vielleicht 5% langsamer als ein 4670k @ 4,5) und da wurden selbst 2 280X Karten ausgebremst.
 
Ich habe doch schon das maximale Offset drauf via Trixx.
1200MHz -> Artefaktbildung. Asic ist aber auch nicht der Burner mit knapp 65%.

Egal die 1180/1500 werde ich so erstmal betreiben, vielleicht teste ich nochmal 1200/1500, aber mehr wird nicht gehen.
Jetzt heißt es nur noch dem i5 die Sporen zu geben. Aber erstmal teste ich das so wie es grade ist bei Metro Last Light...
 
Dir muss nur klar sein, dass es bei der 290X keine Crossfire-Brücken gibt und die Kommunikation zwischen den Radeons via PCI-Express stattfindet.
Die Dual-Single GPUs dagegen machen das onboard mittels PCI-E 3.0 Chip (16x).

Kennst du Benchmarks, die den Unterschied aufzeigen? Zwischen 2x8x PCIe 3.0 und 2x16x PCIe 3.0 dürften bestenfalls Unterschiede im Rahmen der Messtoleranz liegen...
 
Der Hintergrund ist, das ich das Ganze GERADE erst durch habe. Mantle läuft im CF beschissen und 144Hz liefen mit den CF Karten auch nicht. lies dir den Thread durch, den ich gepostet habe, bevor du etwas von dir gibst.
Ich hatte es mit einem 2500k @4,4Ghz getestet (ist vielleicht 5% langsamer als ein 4670k @ 4,5) und da wurden selbst 2 280X Karten ausgebremst.

Der Haswell liegt da eher 10-15% vorne.
 
Ich habe doch schon das maximale Offset drauf via Trixx.
1200MHz -> Artefaktbildung. Asic ist aber auch nicht der Burner mit knapp 65%.

Egal die 1180/1500 werde ich so erstmal betreiben, vielleicht teste ich nochmal 1200/1500, aber mehr wird nicht gehen.
Jetzt heißt es nur noch dem i5 die Sporen zu geben. Aber erstmal teste ich das so wie es grade ist bei Metro Last Light...

Die Artefakte können auch durch den Speicher entstehen. Manche Speicher schaffe einfach keine 1500 Mhz. Dreh den mal etwas runter. Core-Takt geht vor Speicher-Takt. Geh mal auf 1350 Mhz-Speicher und teste dann.

Ansonsten, dreh mal die Lüfter auf 100% und setze das Power-Target auf +50%, wenn du das nicht schon getan hast. ;)
 
Zuletzt bearbeitet:
Der Hintergrund ist, das ich das Ganze GERADE erst durch habe. Mantle läuft im CF beschissen und 144Hz liefen mit den CF Karten auch nicht. lies dir den Thread durch, den ich gepostet habe, bevor du etwas von dir gibst.
Ich hatte es mit einem 2500k @4,4Ghz getestet (ist vielleicht 5% langsamer als ein 4670k @ 4,5) und da wurden selbst 2 280X Karten ausgebremst.

Worauf willst du hinaus?
Denn A) sind es Messungen zur Folge eher um die 15% zwischen den genanten CPUs, B) hängt der Leistungsunterschied auch vom Rest ab. Lahmer RAM vs. schneller RAM mit scharfen Timings bringt da durchaus nochmal ein paar wenige Prozentpunkte. Könnten also durchaus auch 17, 18 oder gar 20% Unterscheid werden.

Ebenso taugt ein 144Hz Monitor für weit mehr wie ausschließlich 144Hz... Er kann auch mit 120Hz betrieben werden um mal etwas zu benennen... Dann nutzt der TE halt im CF 120Hz, was ja wohl gehen dürfte.

Auch ist das Thema, ob da was ausgebremst wird oder nicht, mal echt massiv vom Spiel abhängig. Spiel ein Gothic 3 mit PCGH Extreme ini und du bist selbst mit einer Karte und UHD + SGSSAA extrem! im CPU Limit. Spiel hingegen einen anderen Titel, der weit weniger CPU Leistung frisst (der TE testet wohl gerade Metro:LL), dann schaut das komplett anders aus.
 
Kennst du Benchmarks, die den Unterschied aufzeigen? Zwischen 2x8x PCIe 3.0 und 2x16x PCIe 3.0 dürften bestenfalls Unterschiede im Rahmen der Messtoleranz liegen...
Ja, aber wie alt sind Sie?
Seit BF4 ist mir bewusst das Echtzeit Rendering keine Phantasie ist, sie findet bereits statt!
Das ist zwar noch etwas von Ray-tracing entfernt aber schon relativ hochwertig, ich meine Downsampling (Auflösungsskalierung) oder DSR/VSR.
Bei nvidia war es dann OGSSAA was aktiv auf alle Kanten im Spiel wirkte, leider etwas unscharf auf meinem TV, erst die Tahitis liefern mir ein top Bild!

Worauf ich hinaus will, PCI-E Version ist egal aber x8 oder x16 macht bei Multi-GPU gewaltig was aus wenn man auf Ultra Details spielen (interagieren) will.
 
Wie gesagt: Wenn es bei ihm läuft ignoriert meine Posts.

Bin gespannt auf die Gaming Performance im CF mit Mantle und einer Intel CPU ;)
 
Ja, aber wie alt sind Sie?
Seit BF4 ist mir bewusst das Echtzeit Rendering keine Phantasie ist, sie findet bereits statt!
Das ist zwar noch etwas von Ray-tracing entfernt aber schon relativ hochwertig, ich meine Downsampling (Auflösungsskalierung) oder DSR/VSR.
Bei nvidia war es dann OGSSAA was aktiv auf alle Kanten im Spiel wirkte, leider etwas unscharf auf meinem TV, erst die Tahitis liefern mir ein top Bild!

Was will der Autor dieses Posts mir jetzt damit sagen?
Bitte um Erklärung... Ich kann es nicht nachvollziehen...

Worauf ich hinaus will, PCI-E Version ist egal aber x8 oder x16 macht bei Multi-GPU gewaltig was aus wenn man auf Ultra Details spielen (interagieren) will.

Das würde jeglichen Messungen widersprechen.
Fakt ist, PCIe 2.0 mit 16 Lanes bietet die gleiche Bandbreite wie PCIe 3.0 mit 8 Lanes. Der TE hat ein Sockel S1150 System aka 2x 8 Lanes mit PCIe 3.0 Ausführung. Sozusagen das max. was der Sockel bietet.

Meinen eigenen Messungen zur Folge liegt der Unterschied zwischen 16x und 8x bei unwesentlich mehr Performance für erstes. Und dabei ist es auch ziemlich egal, ob das MGPU Gespann nun irgendwelche Brücken verwendet oder nicht. Schon zu Zeiten der RV770 GPU fanden sich Folien im Netz, dass AMD zur Kommunikation der GPUs untereinander nicht ausschließlich die CF Brücke nimmt. Auch liegt die Bandbreite der alten CF Brücke bei irgendwas um die 900MB/sec. Also nix, was der PCIe Slot nicht stämmen würde. Keine GPU vom Schlage Tahiti bei AMD, wo die Brücken noch dran waren, hat dadurch irgendwelche signifikaten Nachteile. (also von der Brücke selbst)
Die CF Skalierung misst sich bei weitem nicht maßgeblich an der Performance der CF Brücke und ob diese dran ist oder nicht... Sondern hängt an ganz anderen Faktoren.

Und unterm Strich ist es für den TE sowieso alles völlig nebensächlich. Denn er kann an der PCIe Slotbestückung so oder so nix ändern... Mehr wie 16x Lanes in 3.0 Ausführung ist nicht. Weder bei Intel noch bei AMD. Es sei denn, er rüstet auf S2011 um, was ich ehrlich gesagt nicht glaube ;)

Bin gespannt auf die Gaming Performance im CF mit Mantle und einer Intel CPU ;)

Nutzt er halt kein Mantle, wenn es scheiße läuft... Ich versteh immernoch net, worauf du hinaus willst. Er hat kein BF4, wenn ich den Post oben richtig deute. Und für die anderen Mantle Titel stand heute wäre wohl bestenfalls ein Thief ein Kandidat, wo Mantle überhaupt Sinn ergeben könnte/würde. Oder seh ich das falsch?
In den hunderten/tausenden Titeln, die kein Mantle können, muss er sowieso mit DX 9-11 klar kommen... Und das ist halt einfach so schnell wie es ist.

PS: auch AMD schickt sich übrigens an (mit dem Omegatreiber) das Overheadverhalten, selbst in Mantle Titeln, zu verbessern ;)
Es kann also nur besser werden...
 
Zuletzt bearbeitet:
Nimms mir nicht übel, aber liest du den Themenbezug überhaupt?

Er hat doch schon zwei 290er Karten. Und nein, es sind keine "X" es sind non "X".
Jegliche Empfehlungen zu anderen Modellen sind A) etwas spät und B) ist die Empfehlung zur 295X2 einfach preislich, sowie unter anderen Faktoren wie der Stromstecker Problematik, der Kühlerproblematik usw. völlig uninteressant.
Soll heißen, die 295X2 ist keine Alternative. Und wenn sie 10% besser skalieren würde als zwei adequate Single GPUs... Was bei weitem nicht der Fall ist!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh