Gerücht: AMD beginnt mit Abverkauf der Radeon HD 7990

Ich hatte mit einer HD 7950 auf HD 7970 Level in FullHD bei Crysis 3 bei "sehr hoch", oder wie das höchste heißt, stellenweise unter 24 FPS. Du bist definitiv hart im nehmen, wenn du das so mit einer HD 7770 spielst...

auch wenn Linux keine wunderwaffe ist ,kann es bei korrekter Hardware und korrekter Konfig durchaus ein Windows Basierendes System ausstechen. Dazu bedarf es ein Leistungsschwächeres System als das wo Windows drauf arbeitet. Jendefalls kann ich die Angaben vom Kollegen mit der HD 7770 bestätigen ,zwar nicht auf Windows ( da ich es nicht verwende ) sondern auf Linux. die HD 7770 ist durchaus eine brauchbare Grafikkarte die man verwenden kann. Mich hat der Preis von fast 750-1000 Euro für die HD 7990 immer abgeschreckt. Und bei der Konkurrenz Nvidia ist dort das Preis Dilemma ähnlich. Aus meiner Sicht und Meinung kann und darf ruhig eine Leistungsstarke Grafikkarte ein paar Euro kosten. Wäre auch bereit Preise von ca. 400-500 Euro dafür hinzunehmen bzw. auch dafür zu bezahlen ,nur Je höher der Preis desto höher auch die Ansprüche eines "Gamers" oder Anwenders für dieses Produkt. Dies hat schon Nividia komplett verbeutelt und AMd kommt mit Ach und Krach auch dahin. Nur wenn man in die o.g. Preisregionen stößt. wird auch das Klientel kleiner. Da kann man mit Millionen Stückzahlen als Verkauf (Beispiel) nicht rechnen. Man muss auch hier Berücksichtigen das es Menschen gibt die für solche Preise einen Monat Locker davon leben können (Beispiel Hartz IV ,Arbeitslose ,etc.) . Wenn man also auf die Masse gehen will dann sollte man auch an der Preisschraube was drehen. Das gilt für Nvidia genauso auch für ATI/AMD gleichermaßen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
auch wenn Linux keine wunderwaffe ist ,kann es bei korrekter Hardware und korrekter Konfig durchaus ein Windows Basierendes System ausstechen. Dazu bedarf es ein Leistungsschwächeres System als das wo Windows drauf arbeitet. Jendefalls kann ich die Angaben vom Kollegen mit der HD 7770 bestätigen ,zwar nicht auf Windows ( da ich es nicht verwende ) sondern auf Linux. die HD 7770 ist durchaus eine brauchbare Grafikkarte die man verwenden kann.

Ich sage auch nicht, dass man eine HD 7770 nicht verwenden kann, hatte selber mal eine und Crysis 3 in genannten Einstellungen kann ich mir auf dem Ding nicht angenehm spielbar vorstellen.
 
Was bringen SLI und Crossfire an zusätzlicher Leistung?

Der Leistungsgewinn beim Einbau einer zweiten Grafikkarte liegt durchschnittlich bei rund 60-80%.
Die Skalierung mit jeder weiteren Grafikkarte sinkt dann weiter ab.


Wann ist die Nutzung von Multi-GPU sinnvoll?

Immer dann wenn viel Leistung benötigt wird:

-Multi-Monitor Betrieb
-3-D
-Auflsöungen >Full-HD
-Nutzung von Downsampling oder SGSSAA
-Nutzung maximaler Qualitätsfeatures in nahezu jedem Game
-Benchmarks
(-Nutzung von aufwendigen Mods)


Wann ist die Nutzung von Multi-GPU nicht sinnvoll?

-Bei niedrigen Auflösungen
-Wenn man kein Problem damit hat in einzelnen Titeln auch mal Details reduzieren zu müssen (z.B. 4x anstatt 8xAA)
-Wenn man empfindlich auf Mikroruckler ist
-Bei der Verwendung von Einstiegsgrafikkarten
-Bei Luftkühlung: Wenn die etwas höhere Lautstärke stört
-Wenn die Hardware nicht darauf ausgelegt ist


Macht es Sinn Karten wie die HD7850 oder kleiner im Crossfire-Betrieb zu nutzen?

Jein. Je mehr Fps zwei Grafikkarten generieren, desto weniger sind Mikroruckler wirklich sichtbar. Je weniger leistungsstark die verwendeten Grafikkarten allerdings sind, desto eher rutscht man in Bereiche, in denen die MRs wirklich störend werden (abhängig davon wie empfindlich man ist). Deswegen sollte man [...] besser zu Grafikkarten aus dem High-End Segment greifen.


--> Der SLI und Crossfire Thread (FAQ - Benchmarks - Tests)
 
Zuletzt bearbeitet:
Nutzung aufwendiger Mods kannst du streichen, die hängen in der Regel am Vram und den verdoppelt man durch Multi-GPU nicht. ;)
 
Alles an den Haaren herbeigezogen.

btw ein Spiel wie RAGE bei 60fps und ähnlichem System wie meines (es läuft nur bis 60fps) läuft mit zwei Karten um 100Watt sparsamer aus der Steckdose.
Eine GPU die nahezu am limit läuft (99%) verbraucht mehr Strom als zwei identische GPUs die sich die GLEICHE Arbeit teilen (2x 35%-50%). Klingt komisch, IST aber so. Und naturlich: Zwei Karten die beide am limit ackern und somit die doppelte Leistung erbringen ziehen logischerweise auch gerne die doppelte Leistung.. aus nichts kommt nichts.

Und nein, aus 1 GPU @ 30fps kann mit 2 GPUs durchaus 60fps werden...

Das klingt nicht nur komissch sondern unglaublich. Ich überwache den GPU Stromverbrauch meiner 7970 Live via Aida auf dem G19 Display und zusätzlich mit eine Energiemessgerät. Sinkt die Auslastung der GpU auf 50%, spare ich noch lang nicht eine soviel, als das was eine 2. Grafikkarte bei 50% konsumieren würde, denn eine Grafikkarte verfügt über mehr Verbraucher als nur die GPU.
Man kann ja einiges schönrechnen, aber sorry, das 2 GPU bei 50% weniger verbrauchen als eine bei 100, glaub ich kein Stück, zumal das wohl auch nicht der Sinn von Cross Fire ist.
 
Man kann auch nicht mit zwei GPUs die FPS bei gleichen Einstellungen verdoppeln, das entspräche einer nicht erreichbaren 100%igen Skalierung... Mal davon ab, dass man nicht 60 FPS hat sondern 2 mal 30 FPS, genau da treten ja die Microruckler auf (Auch bei Nvidia, wenn man die Optimierungen ausschalten würde).
 
Nutzung aufwendiger Mods kannst du streichen, die hängen in der Regel am Vram und den verdoppelt man durch Multi-GPU nicht. ;)

Ist ja auch nicht von mir, sondern aus dem genannten Thread. :)

Habs mal ausgeklammert.
 
War auch nur eine Ergänzung, viele glauben ja, dass man dann "mehr" Speicher hat.
 
Das klingt nicht nur komissch sondern unglaublich. Ich überwache den GPU Stromverbrauch meiner 7970 Live via Aida auf dem G19 Display und zusätzlich mit eine Energiemessgerät. Sinkt die Auslastung der GpU auf 50%, spare ich noch lang nicht eine soviel, als das was eine 2. Grafikkarte bei 50% konsumieren würde, denn eine Grafikkarte verfügt über mehr Verbraucher als nur die GPU.
Man kann ja einiges schönrechnen, aber sorry, das 2 GPU bei 50% weniger verbrauchen als eine bei 100, glaub ich kein Stück, zumal das wohl auch nicht der Sinn von Cross Fire ist.

Ganz so unglaublich ist das gar nicht... Denn bei aller Theorie vergisst du einen Fakt, der der 100% ausgelasteten Single GPU derbe in die Verbrauchssuppe spuckt. Nämlich das bei steigender Hitze mehr Verbrauch erzeugt wird. Das ganze ist physikalisch begründ/belegbar.
Heist also, eine GPU bei 100% Load und sagen wir 90°C GPU Temperatur wird mehr verbrauchen als die selbe GPU bei ebenso 100% Load aber nur 45°C. Je nachdem, wieweit die Lücke auseinander klafft, kann das schon eine ganze Menge ausmachen.

Nur mal als Vergleich, ich hatte seinerzeit meine damalige Workstation mal durch Furmark + Prime95 voll ausgefahren. (2x Xeon 5160 @ 3,4GHz, diverse HDDs, Lüfter usw., 1x GTX 470@750/1500/1550@1,075V + 1x GTX 465@470 Bios@750/1500/1550@1,175V)
Der Volllastverbrauch im kalten Zustand (also kurz nach Start des Runs) lag bei ~900-910W. Nach Aufwärmphase und steigenden Temperaturen stieg der Verbrauch auf 1000W+. Das sind gute 10% mehr Verbrauch bei gleichem Endergebnis, nur zurückzuführend auf die Abwärme und den daraus resultierenden Mehrverbrauch, denn an der Belastung von Furmark und Prime95 wärend des Runs ändert sich ja nix.

Es ist also durchaus denkbar, das eine GPU unter Volllast durch diesen Umstand in Summe mehr verbraucht, als zwei identische GPUs bei Teillast. Bei heutigen Modellen kommt sogar noch hinzu, das der Turboboost unter Volllast greift, wärend er unter Teillast zum Teil eben nicht greift (weil nicht benötigt) -> was ebenso mehr Verbrauch für die Single GPU bedeutet, weil mehr Takt und vor allem auch mehr VGPU Spannung (die im Quadrat zum Verbrauch skaliert, wärend der Takt 1:1 skaliert).

Heist also unterm Strich, klingt komisch, ist es aber im Grunde gar nicht ;)
 
Zuletzt bearbeitet:
Naja die meisten holen sich aber nicht 2 Grafikkarten um diese dann immer nur auf 50% Auslastung laufen zu lassen. Da hätte dann auch eine gereicht.
Und 2 Grafikkarten werden je nach Gehäuse und Kühlung ja auch wärmer als eine einzelne Grafikkarte.
Zwei Grafikkarten lohnen sich doch nur wenn man die Leistung braucht, bei mehreren Bildschirmen und hoher Auflösung oder dem Zwang alle Regler auf Anschlag ballern zu müssen.
Es holt sich ja niemand 2 Grafikkarten wegen CS oder Minecraft, also kann man schon von hoher Auslastung ausgehen und dann steigt auch der Verbrauch stark an. Und die Skalierung beträgt auch garantiert nicht 100%, der Verbrauch dann schon eher.
 
Durchaus, das sollte zumindest idR so sein... Zumahl man wohl ewig bräuchte um den potentiellen Verbrauchsvorteil gegen den Anschaffungspreis der zweiten GPU zu rechnen. Dazu gibts noch weitere Nachteile von MGPU Gespannen. Aber darum gings ja nicht.
 
Ja aber die ganze Diskussion macht eh keinen Sinn. Weder hat man durch 2 Grafikkarten doppelt so viele FPS und Geld spart man garantiert auch nicht. Egal wie schön man sich das rechnet.
 
Ich sage auch nicht, dass man eine HD 7770 nicht verwenden kann, hatte selber mal eine und Crysis 3 in genannten Einstellungen kann ich mir auf dem Ding nicht angenehm spielbar vorstellen.

Es iaber leider so. Nur weil du Windows nutzt und damit nicht deine gewünschten Anforderungen gerecht geworden bist heißt es nch lange nicht das es generell sso sein mus. Was einer nicht hinbekommt schafft ein anderer auf seine art und weise. Generell nutzen viele windows weil sie nichts anderes kennen und deswegen klemmt es dort bei den meisten .Nicht nur weil sie oftmals einfach die Konfigs nicht kennen oder weil auch denen großteils das wissen dazu einfach fehlt. Es wird einfach das Teil in die Kiste gestopft Treiber aktualisiert ( oder alten zuerst entfernt dann neuen Installiert) und das wars. Dann kommt das große gejammer das hinten und vorne nichts funktioniert und das große Rumgetrolle wieso weshalb warum findet in den Foren statt. Ich muss zugeben das ich solche probleme unter Linux nicht kenne und nie hatte. Die Gründe im gesamten können Unterschiedlicher nicht sein ,angefangen vom Laien der gerade mal es geschafft hat den Power Knopf zu drücken und weis wie die Maus zu Bewegen ist ( Mausschubser) bis hin zum Nicht geprüften aber mit Vorurteilen vollgestopfter Anwender/Profi/Experte (viele nennen sich so sindes aber nicht) reicht das Klientel. Es ist auch kein Vorwurf das man nicht alles wissen kann , niemand ist Perfekt ,auch Ich nicht. Aber wenn man mal etwas erreicht hat und weis wie man es macht dann kann man auch sich drüber freuen z.B. über den Besitz einer HD 7770 die bei korrekter Konfiguration sogar Leistungsstärkere und Teuere Konkurrenzmodelle Paroli bieten kann.
 
ok also wenn man eine schlappe grafikkarte hat, brauch man keine neue, man muss nur linux drauf machen :popcorn:
 
2x 3072MB Sapphire Radeon HD 7990 Aktiv PCIe 789¬ ist Billiger wie ein TITAn und deutlich schneller für das Geld


Bin echt am Überlegen ob ich die Karte holen soll und meine beiden GTX780 Verkaufe. Komme irgend wie nicht klar mit NV Treibern in BF3 schaut das mit NV Karten absolut schlecht aus. Pixelig, Kantig, Wasser wird nicht richtig da gestellt.
Es ist echt Traurig das NV nicht in der Lage war eine Treiber raus zu bringen wo BF3 anständig läuft.

Wenn ich wüsste wie der Protoype Treiber ist würde ich nicht lange Fakeln und die beiden GTX780 abstoßen.

2x 3072MB Sapphire Radeon HD 7990 Aktiv PCIe 3.0 x16 (Retail)

Alle Fälle wäre Radeon HD 7970 GHz CrossFire aus zwei separaten Grafikkarten immer noch die schnellste und beste Gameplay-Erfahrung, für einen geringeren Preis.


http://www.hardocp.com/article/2013...ersus_geforce_gtx_titan_review/1#.Udl9El7wArg
 
Zuletzt bearbeitet:
Es iaber leider so. Nur weil du Windows nutzt und damit nicht deine gewünschten Anforderungen gerecht geworden bist heißt es nch lange nicht das es generell sso sein mus.

Der von mir angesprochene Benutzer verwendet auch Windows und , dass du ein riesen Linux-Fan bist weiß ich auch. Nur interessiert mich die Linux-Loberei nicht. Ich habe schon genug Zeit mit diesem einfachen, tollen und leicht handhabbaren BS gehabt.
 
nvidia hatte von anfang an treiber, wo bf3 bestens lief. ich habe bf3 mit 560Ti SOC sli durch gespielt 1-2 monate nach release. hatte null probleme mit der grafik. performance war meistens bei 120-160fps mit sparsamen AA und schatten optionen in fullHD.
mit irgendeinem neueren treiber sollen erst probleme entstanden sein.

im multiplayer lief auch alles perfekt.



wenn du auf crossfire setzen willst, kannst du dich schon mal auf sowas freuen.
NVIDIA GeForce GTX 760 2GB Review - GK104 at $250 | Battlefield 3 - SLI
Multi-GPU-Benchmarks: Battlefield 3 - Testbericht Nvidia GeForce GTX 770: Die Radeon HD 7970 im Fadenkreuz
 
Es iaber leider so. Nur weil du Windows nutzt und damit nicht deine gewünschten Anforderungen gerecht geworden bist heißt es nch lange nicht das es generell sso sein mus. Was einer nicht hinbekommt schafft ein anderer auf seine art und weise...

Also deine Einstelung zu Linux in allen Ehren, aber du willst uns hier doch nicht allen ernstes weis machen, das beim Einsatz von Linux anstatt Windows ein Grafikkarten Rohpowerunterschied von guten 250%+ kompensiert werden kann!?
Wenn Mick oben mit einer GPU auf Leistungslevel HD7970 in Crysis 3 bei FullHD und höchsten Settings streckenweise unter 24 FPS erreicht, was schon arg an die Spielbarkeitsgrenzen geht, dann kann das faktisch unter Linux nicht auf einmal ganz anders ausschauen. Sicher mag Linux hier und dort ein paar wenige Prozente schneller sein (was auch ein paar wenige Reviews belegen), aber definitiv kompensierst du damit keine 2,5x Leistungsvorteil.


Mal ganz davon ab, ich könnte mich auch irren, aber wie bekommst du bitte Crysis 3 zum laufen unter Linux!? Weil so ganz rein offiziell geht das wohl nicht...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh