PowerColor präsentiert die Devil 13 HD7990

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.220
<p><img src="images/stories/logos/powercolor.jpg" width="100" height="100" alt="powercolor" style="margin: 10px; float: left;" />Auf der Computex zeigte <a href="http://www.powercolor.com/de/default.asp" target="_blank">PowerColor</a> eine beinahe fertige Version der Devil 13 HD7990, doch nun soll das Warten ein Ende gefunden haben, denn die Karte ist offiziell vorgestellt worden und soll auch in Kürze verfügbar sein. Da es bisher noch keine Anzeichen für eine Radeon HD 7990 von AMD gibt, hat sich der taiwanesische Hersteller dazu entschlossen seine eigene Lösung auf den Markt zu bringen. Auf dieser arbeiten zwei Tahiti-XT-GPUs in einem CrossFire auf einem PCB. Eine derartige Dual-GPU-Lösung ist keine Weltneuheit, im Falle der Devil 13 HD7990 aber zumindest die erste Karte, die dies...<p><a href="/index.php?option=com_content&view=article&id=23515&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auf den Test bin ich mehr als gespannt!
 
Geiles Teil.
 
Ich denke mal, dass man dafür zwei große Scheine auf den Tisch legen darf (2*500 => 1000 Euro)
 
Was sieh auch Wert ist wenn man sich den Preis der GTX 690 rein zieht wieso auch nicht.
 
Das ding wird auch so Performen wie ne GTX690, dann hat sie noch mehr V-Ram und ist Limitiert, vielleicht kostet sie sogar mehr wie 1000.
 
Und die Vorteile gegnüber einem Crossfire 7970 System liegen wo ? Das ist mir unklar, denn preiswert wird es sicher nicht. Zwei 7970 sind derzeit für ca 750 Euro zu haben und wenn das Teil hier teurer wird, dann ist es nicht wirklich interessant.
:confused:
 
Heise meint zu wissen, dass die Karte über 1000 Euro kosten wird:
http://www.heise.de/newsticker/meldung/Erste-Radeon-HD-7990-4096-Kerne-8-TFlops-525-Watt-1000-Euro-1674396.html
 
Und die Vorteile gegnüber einem Crossfire 7970 System liegen wo ? Das ist mir unklar, denn preiswert wird es sicher nicht. Zwei 7970 sind derzeit für ca 750 Euro zu haben und wenn das Teil hier teurer wird, dann ist es nicht wirklich interessant.
:confused:

Eine Devil 13 ist einfach cooler als ein 7970 CF :d

Außerdem gibts für 750€ kein 7970 CF
 
Stimmt - sind 729 Euro plus Versand.
Dafür ist es aber schon die GHz Version.

Gigabyte Radeon HD 7970 WindForce 3X, 3GB GDDR5, DVI, HDMI, 2x Mini DisplayPort (GV-R797OC-3GD) Preisvergleich | Geizhals Deutschland

3072MB Gigabyte Radeon HD 7970 WindForce 3X Aktiv PCIe 3.0 x16 (Retail)

Und "cooler" ist die Devil 13 schon mal gar nicht, bei 500 Watt Abwärme. Es passen noch nicht mal mehr Karten in ein Gehäuse, weil das Teil 3 Slots belegt und die meisten Boards nur 2 Slot Abstände für die PCI-X Sockel haben.

Also ich würde das Teil nicht kaufen wenn es 750 Euro übersteigt. Und ich bin schon einer der Bekloppten, die schweinemäßig viel Kohle für Hardware raushauen (wegen Bitcoin Mining). Aber jenseits der Realität lebe ich deshalb dann doch noch nicht.
 
Zuletzt bearbeitet:
900€ für ein Pre-Launch Preis...also kann man fast sicher sein das die Karte sobald sie verfügbar ist ca. 800€ kosten wird.
Im zweiten Bios sollte die Karte schneller als eine GTX 690 sein.
 
Stimmt - sind 729 Euro plus Versand.
Dafür ist es aber schon die GHz Version.

Gigabyte Radeon HD 7970 WindForce 3X, 3GB GDDR5, DVI, HDMI, 2x Mini DisplayPort (GV-R797OC-3GD) Preisvergleich | Geizhals Deutschland

3072MB Gigabyte Radeon HD 7970 WindForce 3X Aktiv PCIe 3.0 x16 (Retail)

Und "cooler" ist die Devil 13 schon mal gar nicht, bei 500 Watt Abwärme. Es passen noch nicht mal mehr Karten in ein Gehäuse, weil das Teil 3 Slots belegt und die meisten Boards nur 2 Slot Abstände für die PCI-X Sockel haben.

Also ich würde das Teil nicht kaufen wenn es 750 Euro übersteigt. Und ich bin schon einer der Bekloppten, die schweinemäßig viel Kohle für Hardware raushauen (wegen Bitcoin Mining). Aber jenseits der Realität lebe ich deshalb dann doch noch nicht.

die verbraucht keine 500 Watt schon sch**** wenn man nicht lesen kann.

Außerdem kostet die nie im Leben weniger als zwei Standard 7970
 
Die drei 8poligen Anschlüsse könnten der Grund sein,warum sich AMD bisher ziert eine 7990 Referenz unter eigenem Namen zu zeigen.
 
Zuletzt bearbeitet:
900€ für ein Pre-Launch Preis...also kann man fast sicher sein das die Karte sobald sie verfügbar ist ca. 800€ kosten wird.
Im zweiten Bios sollte die Karte schneller als eine GTX 690 sein.
Ab Auflösungen mit 2560*1600 wird sie schon überwiegend schneller sein bei 925 MHZ da der Turbo durch die Stärkere Auslastung kaum noch zum tragen kommt bei der GTX690.
In FULL HD brauch man kaum schauen da beide Lösungen meist im CPU Limit liegen.
Wie immer wird es aber auch eine Treiber Frage sein wie gut es ab gestimmt ist das hat man ja auch schon oft erlebt.
 
Zuletzt bearbeitet:
die verbraucht keine 500 Watt schon sch**** wenn man nicht lesen kann.

Außerdem kostet die nie im Leben weniger als zwei Standard 7970

Pass du erstmal deine Ausdrucksweise an, in diesem Tonfall braucht hier niemand das diskutieren anzufangen!

Die 7970 als GHz Edition braucht unter Furmark 351 Watt, die Standard-Version etwa 300 Watt (HT4U Testmuster, also direkt die Leistungsaufnahme der Karte). Demnach wird die Dual GPU mit 1 GHz Takt und 1375 MHz Speichertakt irgendwas dazwischen mal zwei verbrauchen.
Das ist so oder so deutlich mehr als 500 Watt. Bei normaler Spielelast wird sie aber trotzdem unter 500 Watt liegen, das sind ja nur die Furmark Extremwerte.
 
Der Verbrauch hängt auch mit den Grafiksettings zusammen.
Man kann so pauschal nicht sagen was eine Karte beim Gamen braucht.
Wenn ihr ein Strom Messgerät für die Steckdose habt müsst ihr mal selber schauen.
Ein Beispiel welches ich noch im Hinterkopf habe was ich selbst mal geprüft hatte.

Bf3 @FullHD Ultra Grafik 1325MHz GPU im CF ca 760-780W wenn ich SSAA da zu Aktiviert habe waren es ca. 900W Gesamtsystem ohne Monitor.
Ganz brutal verändern sich auch die Stromwerte bei Alan Awake 8*MSAA V.S 8* SSAA das habe ich auch auf meinem SLI mit GTX580 aus gemacht legt man dan noch eine höhere Auflösung als Full HD an steigt der Verbrauch weiter und die Werte bewegen soch er Richtung Furmark als das was mal getestet wurde unter einfachen Settings in Full HD.
MFG
 
Zuletzt bearbeitet:
LOL - 800W um mit dem rechner zu spielen?? da müsste ich ja mit dem klammersack gepudert sein..

aber hübsche karte.. kann man bestimmt in die vitrine stellen.. als machbarkeitsstudie oder kuriosität.
schon krass was die nicht alles aufzufahren versuchen.. sieht auch kaum nach holzhammer-methode aus.

naja.. ein weiteres produkt in AMDs portfolio, das ich nicht haben will.. damit decken sie dann weiterhin 100% ab.

vllt. entwickelt ja mal einer einen wrapper, der es ermöglicht NV-treiber auf AMD-hardware über DC laufen zu lassen, dann
gäbe es wenigstens funktionierende software.. ;-)


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Was sind bitte 900 W bei so hohem OC mit meinem 580SLI @ 1GHZ kam ich mit Downsampling in Richtung 1000W bei deutlich weniger Leistung.
Stellt euch mal nicht so an.:)
 
GTX500 ist aus heutiger sicht ja auch ur-alt. das teil da oben ^^ ist "brandneu".


(..)

mfg
tobi
 
Ja Verbraucht aber auch keine 800W .
Das war von mir ein aufgeführtes Szenario bei Extremen OC mit den 900W und einem CF HD7970 @ Max V und Takt 1325MHZ/1825MHZ auf den GPUs und Ram.


Der gesamt Verbrauch der Devil und einer Platform wie ich oder du sieh nutzt wird unter normalen FullHD Settings bei rund 500 W liegen +- CPU Limits und Grafik Settings spielen auch noch mit rein.
Da wird alles noch im grünnen Bereich werkeln Tobi.

Die Software bei AMD hatt einige schwächen das ist richtig die gibt es bei NV aber auch genau so wie es auf beiden Seiten positive Aspekte gibt.

Mit den 3GB Ram auf der Karte kann man so oder so in einer anderen Liga spielen alls mit kümmerlichen 2GB Ram und einer vor sich her krepsender Speicheranbindung.
Allein hier kann man eine 7990 nicht mit ner 690 im Verbrauch vergleichen.
Es hat alles sein führ und wieder auf beiden Seiten und ist hier und da nicht perfekt.
 
Zuletzt bearbeitet:
Also ich empfinde meine 690 nach langem mal wieder als perfekte Grafikkarte. Schnell, leise, hochwertig, solide Treiber, halbwegs energieeffizient. AMD ziert sich, weil die das nicht toppen können, so einfach ist das. Bin von nem AMD Crossfire gewechselt und bereue nichts. Alles ist nun besser. AMD ist derzeit für mich keine Option, egal ob sie 3 theoretische fps mehr rausholen oder nicht.
 
Zuletzt bearbeitet:
Pass du erstmal deine Ausdrucksweise an, in diesem Tonfall braucht hier niemand das diskutieren anzufangen!

Die 7970 als GHz Edition braucht unter Furmark 351 Watt, die Standard-Version etwa 300 Watt (HT4U Testmuster, also direkt die Leistungsaufnahme der Karte). Demnach wird die Dual GPU mit 1 GHz Takt und 1375 MHz Speichertakt irgendwas dazwischen mal zwei verbrauchen.
Das ist so oder so deutlich mehr als 500 Watt. Bei normaler Spielelast wird sie aber trotzdem unter 500 Watt liegen, das sind ja nur die Furmark Extremwerte.

Wieso sollte ich mich da anpassen wenn Leute hier diskutieren ohne den Text zu lesen ?

Und "cooler" ist die Devil 13 schon mal gar nicht, bei 500 Watt Abwärme

Die Strom- und Spannungsversorgung hat PowerColor auf ein 12+2+2-Design aufgebohrt. Verwendet werden hier dann auch digitale PWM, Super Cap, UHB- und PowerIRstage-Bauteile. Sie sollen für eine höhere Stabilität, bei geringerem Stromverbrauch, längerer Lebensdauer und niedrigeren Temperaturen sorgen.
 
Also ich empfinde meine 690 nach langem mal wieder als perfekte Grafikkarte. Schnell, leise, hochwertig, solide Treiber, halbwegs energieeffizient. AMD ziert sich, weil die das nicht toppen können, so einfach ist das. Bin von nem AMD Crossfire gewechselt und bereue nichts. Alles ist nun besser. AMD ist derzeit für mich keine Option, egal ob sie 3 theoretische fps mehr rausholen oder nicht.

jupp.. würde ich unterschreiben, wenn ich es nicht schon an anderer stelle getan hätte. dass die "probleme", die es ja hier und da auf beiden seiten gibt immer relativiert werden ist albern. bei AMD sind störungen gravierend und im alltag störend; bei NV betrifft es vllt. mal nen flackernden schatten in irgendeinem spiel. ich hab z.b. für meine 7970 bis heute noch keinen treiber, mit dem sich der klonmodus fehlerfrei nutzen lässt. die ersten im januar und februar brachten keine stabilen 120Hz über DP zustande.. sowas.. oder dass morphologisches antialiasing (sofern mal im CCC eingestellt) sogar das media center zermatscht, sodass man am besten vor jedem spiel und jeder anderen applikation einmal am treiber vorbei muss -> nervig. oder die ständige aufforderung des konfigurationsdialogs für die tonausgabe, wenn man den bildschirmmodus wechselt.. egal wie oft man den haken setzt, dass man dieses fenster nicht mehr sehen möchte.. *gg* nur ein paar erlebnisse seit 7970.. persistent! man könnte jetzt noch über videofunktionen mosern oder über fehler in spielen, nur will ich das gar nicht. ich finde AMD zunehmend uninteressant.. daher: zweitrechner (weniger nervig, weil weniger gefordert, weniger gebraucht ~ aber er verbraucht wie ein großer).


(..)

mfg
tobi
 
Zuletzt bearbeitet:
jupp.. würde ich unterschreiben, wenn ich es nicht schon an anderer stelle getan hätte. dass die "probleme", die es ja hier und da auf beiden seiten gibt immer relativiert werden ist albern. bei AMD sind störungen gravierend und im alltag störend; bei NV betrifft es vllt. mal nen flackernden schatten in irgendeinem spiel. ich hab z.b. für meine 7970 bis heute noch keinen treiber, mit dem sich der klonmodus fehlerfrei nutzen lässt. die ersten im januar und februar brachten keine stabilen 120Hz über DP zustande.. sowas.. oder dass morphologisches antialiasing (sofern mal im CCC eingestellt) sogar das media center zermatscht, sodass man am besten vor jedem spiel und jeder anderen applikation einmal am treiber vorbei muss -> nervig. oder die ständige aufforderung des konfigurationsdialogs für die tonausgabe, wenn man den bildschirmmodus wechselt.. egal wie oft man den haken setzt, dass man dieses fenster nicht mehr sehen möchte.. *gg* nur ein paar erlebnisse seit 7970.. persistent! man könnte jetzt noch über videofunktionen mosern oder über fehler in spielen, nur will ich das gar nicht. ich finde AMD zunehmend uninteressant.. daher: zweitrechner (weniger nervig, weil weniger gefordert, weniger gebraucht ~ aber er verbraucht wie ein großer).


(..)

mfg
tobi


Du armes Kind, auch wenn das alles Off Topic ist was du schreibst und vermutlich sich niemand für deine Beiträge interessiert muss du hier nicht so rumheulen.
Dein tolles Nvidia verliert schon wieder 6,8 % des Marktanteils...
Hast du dich nie gefragt ob es nicht an deiner eigenen Unfähigkeit hängt das die AMD Karten bei dir nicht richtig laufen ?
 
Du armes Kind, auch wenn das alles Off Topic ist was du schreibst und vermutlich sich niemand für deine Beiträge interessiert muss du hier nicht so rumheulen.
Dein tolles Nvidia verliert schon wieder 6,8 % des Marktanteils...
Hast du dich nie gefragt ob es nicht an deiner eigenen Unfähigkeit hängt das die AMD Karten bei dir nicht richtig laufen ?

nein, mein MCTS-zertifikat hab ich gewonnen, die fachinformatikerausbildung gekauft und bei c't haben immer andere meinen namen über ihre artikel geschrieben. ich bin auch nicht seit 1984 dabei sondern erst seit 2008, sieht man ja am anmeldedatum hier im forum :-P

davon ab, musst du meine erfahrungen und meinungen nicht lesen, wenn sie dir nicht passen. untertöne sind geschenkt, schulhofniveau.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Du armes Kind, auch wenn das alles Off Topic ist was du schreibst und vermutlich sich niemand für deine Beiträge interessiert muss du hier nicht so rumheulen.
Dein tolles Nvidia verliert schon wieder 6,8 % des Marktanteils...
Hast du dich nie gefragt ob es nicht an deiner eigenen Unfähigkeit hängt das die AMD Karten bei dir nicht richtig laufen ?

Ich möchte mal ein Forum erleben, wo nicht ständig diese bescheuerten Fanboys-Koleriker unterwegs sind welche einfach nicht raffen, das dies hier eine reine "Diskussions- und Informations Plattform" darstellt, wo jeder seine Erfahrungen einbringt kann und darf wodurch andere Mitleser daran teilhaben.
Beleidigungen,Anfeindungen ect. Sind nur im Kindergarten-Forum anzutreffen !

Zum Thema:
Die Devil 13 ist keine Karte von AMD.
Sie haben den Boardpartnern freien Lauf gelassen, und nun bringt PowerColor eben ein Eigendesign auf den Markt.
3x8pin Stromversorgung ist schon gewaltig und sprengt die Spezifikation, die einst einen Zimmerbrand verhindern sollte, bei weitem.
Kein Wunder also, das AMD ihre Finger da lieber raushalten möchten. Sollen die Boardpartner tun was sie wollen, aber eben auf eigene Gefahr und Garantie.

Zudem ist die Treiberunterstützung ebenfalls nur bei Powercolor zu suchen, was wohl wieder zu einigen Problemen führen könnte.
Vorallem die "Microruckler-Thematik" ist ein Thema, was wohl gerne verschwiegen wird. NVIDIA hat mit der Einführung der GTX690 den Microrucklern den Kampf angesagt. Mittels Hardwarechip, werden diese nun aktiv bekämpft und das Ergebniss ist hinreichend bekannt und als sehr positiv anzusehen.
Dies scheint aber bei der Devil 13 eben nicht der Fall zu sein und auch Powercolor hält da stillschweigend inne....

Was haben wir dann also ?
Eine 900 Euro Karte, die limitiert ist und ein zusätzlichens Netzteil benötigt, mit griffbereiten Feuerlöscher neben dem Schreibtisch und so wie es den Anschein hat, immernoch unter feinste Microruckler leidet.
Einzig und alleine der etwas größere V-Ram und das schneller Speicherinterface sowie die unbestreitbare bessere GPGPU-Fähigkeiten stechen da etwas, gegenüber der Konkurrenz, hervor.

Mein Resümee lautet:
Man muss schon sehr AMD-liebend und Microruckler-blind sein um so ein Monster zu ertragen.
Finger weg. Fürs selbe Geld gibt es besseres und vorallem sicheres.
AMD weiß schon, warum sie diese Karte wohl lieber nicht auf den Markt bringen werden, und das sagt schon viel über so eine Karte aus.
 
Zuletzt bearbeitet:
Was haben wir dann also ?
Eine 900 Euro Karte, die limitiert ist und ein zusätzlichens Netzteil benötigt, mit griffbereiten Feuerlöscher neben dem Schreibtisch und so wie es den Anschein hat, immernoch unter feinste Microruckler leidet.

Toll du beschwerst dich über Kindergarten Niveau, aber schreibst selbst dermaßen provokant das sich die Leute angegriffen fühlen....
Falls ich keine Toxic mehr abbgekomme versuche ich mal so eine Devil Karte zu bekommen dann kann man immernoch antesten und ein Urteil fällen ;-)
Eins ist sicher die Karte wird eine echte Rarität.
 
Naja mich wundert das etwas "nur" 900€ für die Karte fragt sich wie viele es in DE zu kaufen gibt.
 
Dein tolles Nvidia verliert schon wieder 6,8 % des Marktanteils...

Vieleicht solltest du dich erstmal auf den aktuellen Stand bringen,bevor du andere hier anprollst.Bei diskreten Karten ist nix mit Verlust.

"Aus einem Analystenforum liegen auch Zahlen der Marktforscher von Mercury Research vor, die wiederum auch diskrete Grafiklösungen einzeln aufführen. Demnach hat Nvidia den Anteil bei diskreten Grafiklösungen auf 57,1 Prozent Marktanteil steigern können, während AMD im zweiten Quartal dieses Jahres auf 42,9 Prozent abgerutscht ist."

Mercury Research Q2-2012 PC Graphics Report | AMD Message Board Posts
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh