7970 vs 7950 Crossfire 2560*1600 oder doch nvidia?

Immer die selben geblendeten. Es ist echt anstrengend.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Angesichts der tatsache, dass eine gtx 690 mit effektiven 2 gb vram selbst in den gebenchten triple monitor setups meist schneller rechnet als eine titan mit 6gb vram, sollte man mit 2x 4gb auf jeden fall auf der sicheren seite sein für 2560x1600. :-)
 
4Gb sind na klar super aber der mehrpreis ist zu heftig weil für das geld kannste dann wieder zwei HD7970 mit guter belüftung und 1050mhz kaufen!
 
Bevor dir da der vram zu knapp wird, bist du ohnehin längst im unspielbaren fps bereich.

Das zeigt doch die 690 mit ihren effektiven 2gb prima.
 
Es sei denn man nutzt extrem texture mods wie z.b. Skyrim oder crysis 2 maldohd dann sind nicht die fps das problem sondern die menge an speicher und da hat man mit der HD7950@ cf für den preis einfach super leistung und genug ram! OC@1100 ist da auch nicht das thema und dann auch schneller als ein HD7970 sys! Ich sehe das ganze halt mit nem blick auf die kosten und was dabei rum kommt und namen oder hersteller interssieren mich dabei nicht!
 
Zuletzt bearbeitet:
Sehe auch so Powerplay P/L und OC und 3GB Ram ist Pflicht und da sind die HD 7950 die besten Karten. Aus dem Grund habe ich vor 8 Monaten meine beiden 7950 gekauft und sehe da ich hatte recht.

Ich habe mit dem Kauf 7950 CF gegenüber der HD 7970 CF 280€ gespart und dann für jede GPU für je 65€ Wakü gekauft, Die waren so günstig das ich dachte AMAZON hat Fehler gemacht weil diverse shop diesen Wakü Kühler für 90€ verkauft haben.
 
Zuletzt bearbeitet:
Okay es werden zwei 7950. Die gigabyte windforce sind die besten oder?

Habt ihr noch einen Vorschlag für ein Netzteil?
 
@Powerplay

Zeig mal deine Skyrim-Mod-Liste, hier sind mir die 2GB noch nie ausgegangen.

@Minga bua

Mit einem vernünftigen 600W Netzteil sollte man auf der sicheren Seite sein.
 
Zuletzt bearbeitet:
namen oder hersteller interssieren mich dabei nicht!

Das ist eine vernünftige Einstellung und das sehe ich genauso.


Was das VRAM angeht:
Wie festgestellt wurde, sind die Fälle, wo 2x2 GB hier zu knapp wird, also Extrembeispiele mit extremem Modding. Und auch bei drastischem Texture-Modding sind die Fälle, wo 2GB zu knapp werden, extrem selten. Da kann ja dann jeder überlegen, ob er sowas betreibt oder nicht, insofern kann man über das was p1skop4T da sagt "3GB RAM ist Pflicht" wohl streiten.


Jedenfalls hat der User ja auch bei nVidia die Wahl ob er sich mit "nur" 2GB begnügt (die einer GTX 690 selbst in der 5760er-Auflösung im Normalfall noch reichen), oder ob er lieber eine Konfiguration mit 2x4 GB erwirbt (womit er für Extremmodding in Zukunft wiederum besser aufgestellt wäre als mit 3GB). Besonders dramatisch sind die Preisunterschiede zwischen 2- und 4 GB-Karten inzwischen ja nicht mehr.

Preislich muss er dafür vielleicht dann etwas mehr ausgeben, aber (!) warum ich persönlich auch in diesem Fall die nVidia-Lösung präferiere, ist (neben der besseren Stereo 3D Unterstützung, dem AFAIK immer noch höher möglichen Downsampling und den flexiblen Möglichkeiten vom nV Inspektor) eben nach wie vor die Mikroruckler-Geschichte.


Zwar wurde hier ein Frame-Limiter (Radeon Pro) als "Killer"-Argument genannt, aber wie gesagt ist das nur ein Workaround.
Das Problem dabei ist ja nicht nur, dass man damit viel Multi GPU-Skalierung verschenkt (schliesslich muss man den FL, damit er Wirkung zeigt, nicht an den Durchschnitts-FPS, sondern am Unteren Ende ansetzen, sonst hat man in Fällen wo die Framerate darunter fällt doch wieder Mikroruckeln), sowie das Gepfrickel mit den Einstellungen diesbezüglich, die sich auch nicht jeder User machen will - sondern vor allem eines:

Die Tatsache, dass man in den wenigsten Fällen vorher weiss, wie sich der Frame-Verlauf über ein gesamtes Spiel verhält.
In den drei Stages am Anfang habe ich vll 100 fps, und in den nächsten drei aber nur 40. Sowas ist ja immer situationsbasiert.
Soll man jetzt jedes Spiel erstmal durchspielen, damit man weiss welche Framerate passend ist, und dann hoffen dass man nicht unter die FL-Grenze fällt, damit man es im zweiten Anlauf endlich genießen kann? ;)

Das kann ja wohl kaum die ultimative Lösung sein und es verschenkt CF-Leistung.
Um die tatsächliche Lösung des Problems dagegen muss sich AMD nach wie vor dringend kümmern.
Das muss nVidia auch, aber die sind diesbezüglich seit langer Zeit schon deutlich weiter als AMD, und haben sich da insbesondere mit Kepler nochmal verbessert.

Deshalb bin ich (!) hier für nV, wie im Eingangsposting beschrieben.
Mikroruckeln geht IMO einfach gar nicht.

Grüsse.
 
Zuletzt bearbeitet:
@p1skop4T
Da wird ja auch mit der GTX 590 bzw. 580 SLI verglichen. ;)

Von Full-HD hat übrigens gar keiner geredet hier, aber auch da gibt es Anwendungsszenarien für SLI/Crossfire:
SGSSAA, Stereoscopic 3D etc.

Der User hier spielt übrigens nicht in 5760*1080, sondern nur in 2560*1600 (also wesentlich geringer), siehe Eingangsposting. ;)
 
Zuletzt bearbeitet:
Hmm ich merke gerade das mein Board nur 16x und 8x PCIE3.0 unterstützt -.- MAcht das was?
 
Gigabyte GA-Z77X-UD3H

ich blick da grad nicht durch. Da stehen so viele sachen auf der page.

1 x PCI Express x16 slot, running at x16 (PCIEX16)
* For optimum performance, if only one PCI Express graphics card is to be installed, be sure to install it in the PCIEX16 slot.
1 x PCI Express x16 slot, running at x8 (PCIEX8)
(The PCIEX16 and PCIEX8 slots conform to PCI Express 3.0 standard.)
* The PCIEX8 slot shares bandwidth with the PCIEX16 slot. When the PCIEX8 slot is populated, the PCIEX16 slot will operate at up to x8 mode.
* The PCI Express x16 slots support up to PCI Express 2.0 standard when an Intel 32nm (Sandy Bridge) CPU is installed.
1 x PCI Express x16 slot, running at x4 (PCIEX4)
* The PCIEX4 slot shares bandwidth with all PCI Express x1 slots. All PCI Express x1 slots will become unavailable when a PCIe x4 expansion card is installed.
3 x PCI Express x1 slots
(The PCIEX4 and PCI Express x1 slots conform to PCI Express 2.0 standard.)
1 x PCI slot
 
Hmm.. sowas gefällt mir nicht. Macht das keinen großen Unterschied?
 
Oder Du nutzt eine DualGPU-Karte, dann hast Du wieder 16x.
Zwar teilen sich dann zwei GPUs die Bandbreite, könnte aber zumindest in der Theorie einen minimalen (!) Vorteil bringen wenn eine GPU grad nur ein Viertel braucht und die andere dann drei Viertel davon zur Verfügung hat - bei zweimal 8x wär letztere dann auf 8x begrenzt.

Ob das allerdings tatsächlich so funktioniert weiß ich nicht, da ich nicht weiß wie flexibel das Speichermanagement der DualGPU Lösungen ist.

Grüsse.
 
Caseking kann mir leider nicht sagen ob die von denen angebotenen Modelle mit 1,25Volt laufen oder nicht hmm..
 
Ich habe 2 VTX3D 7950er auf einem Z77X-D3H Board am laufen.
Auflösung 2560x1440.
Läuft wirklich gut und mit RadenPro auch keine Mikroruckler.
Das einzige was mich etwas stört ist die Lautstärke.
Wie ein kleiner Düsenjet beim spielen ;)
 
Oder Du nutzt eine DualGPU-Karte, dann hast Du wieder 16x.
Zwar teilen sich dann zwei GPUs die Bandbreite, könnte aber zumindest in der Theorie einen minimalen (!) Vorteil bringen wenn eine GPU grad nur ein Viertel braucht und die andere dann drei Viertel davon zur Verfügung hat - bei zweimal 8x wär letztere dann auf 8x begrenzt.

Ob das allerdings tatsächlich so funktioniert weiß ich nicht, da ich nicht weiß wie flexibel das Speichermanagement der DualGPU Lösungen ist.

Grüsse.

7990 und 690 laufen mit 3.0x16 vorrausgesetz es steckt auch ein Ivy-Bridge im Board.
 
Jo, er hat ja einen 3570K.

Aber ob PCIe x16 oder x8, das ist mal sowas von egal... gibt's überhaupt Boards, die 2x PCIe x16 schaffen? Abgesehen von irgendwelchen sündhaft teuren Luxus-Teilen?
 
7990 und 690 laufen mit 3.0x16 vorrausgesetz es steckt auch ein Ivy-Bridge im Board.

Wissen wir. ;)

Die Frage war ja nicht ob es im 16x-Modus läuft - dass es das in dem Fall tut, ist ja klar bei einer ein-Karten-Lösung.
Sondern ob sich daraus ein Vorteil gegenüber zweimal 8x ergibt (gleiche GPUs bei gleicher Taktung mal angenommen).

Klar hat hier eine einzelne Grafikkarte die selbe Bandbreite zur Verfügung wie ansonsten zwei, aber es handelt sich ja auch um zwei Grafikchips, die sich die Bandbreite dann teilen.

Grüsse. ;)
 
War die Diskussion nicht über lanes 16x vs 8x ? Was hat PCIE 2.0 und PCIE 3.0 damit zu tun?
 
3.0 ×8 Fach kann man mit 2.0×16 gleich stellen das hat es damit zu tun.
 

Leider nicht geeignet für die Beantwortung der Frage, da Dual-GPU-Karten im Vergleich fehlen. :-/

Ansonsten gute Infos für den Vergleich PCIe 2.0 gegen 3.0.


Vielleicht hab ichs einfach noch nicht deutlich genug gemacht was ich gemau meine.
Stell Dir einfach zwei PCI 3.0 Interfaces vor, jeweils im 8x-Betrieb. Darin steckt jetzt ein SLI oder Crossfire.

Dabei könnte sich ja jetzt die Situation ergeben, dass Grafikkarte 1 zu einem bestimmten Zeitpunkt nur 80% von der damit zur Verfügung gestellten Bandbreite benötigt, während Grafikkarte 2 gerade 120% gebrauchen könnte.

Bei zweimal 8 Lanes würde Grafikkarte 2 in diesem Fall (ein wenig!) ausgebremst, während Grafikkarte 1 nen Bandbreitenüberschuss hat.

Mich würde interessieren, ob eine Dual-GPU-Karte, die nun in einem PCIe 3.0 16x-Slot steckt, nun die Bandbreite so dynamisch verwalten kann, dass die Bandbreite so aufgeteilt wird, dass GPU 2 in dem Fall eben die 60% erhält, und GPU1 nur die 40%, die sie braucht.

Verstehste? ;)

Ist natürlich rein theoretisch, ich weiß nicht ob die Karten überhaupt so arbeiten (können) und natürlich wäre der Performance-Vorteil nochmal kleiner als der eh schon geringe Vorteil von 16x gegenüber 8x.


Grüsse!




Gruss.

---------- Post added at 15:51 ---------- Previous post was at 15:49 ----------

3.0 ×8 Fach kann man mit 2.0×16 gleich stellen das hat es damit zu tun.

Geht aber a) nur wenn die Grafikkarte den PCIe 3.0-Standard beherrscht, und b) ist der Vergleich natürlich bei selben Voraussetzungen gemeint, sprich zweimal PICe 2.0 8x VS einmal PCIe 2.0 16x, bzw. zweimal PICe 3.0 8x VS einmal PCIe 3.0 16x.

;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh