Radeon 7990 hab ich was verpasst?

Status
Für weitere Antworten geschlossen.

Daunti

Urgestein
Thread Starter
Mitglied seit
23.01.2012
Beiträge
4.197
Ort
Dromund Kaas
Seit wann ist die denn auf dem Markt?
Und warum hab ich nichts in den News gelesen, dass die schon released wurde
und die Händler die schon haben?

Quelle:
Caseking auf der Gamescom
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wurde sie doch noch gar nicht... Wo hast du die denn gesehen?
 
Würde mich auch Interessieren. Es gibt zwar Spezifikationen der HD 7990 aber das sind alles nur inoffizielle Daten.
 
Bitte weitere Infos in den Startpost - ansonsten schließe ich hier, wegen Spam.
 
ok
Gestern Gamescom Caseking Stand Vitrine
Eine 7990 drinnen und die Aussage vom Mitarbeiter, dass sie schon einige Tage erhältlich sei.
Foto hab ich leider nicht, aber falls heute noch jemand vorbei kommt.

EDIT:
Ich hab mal nach 7990 gegoogelt und dieses Bild gefunden:
amd-radeon-hd-7990.jpg

Es ist genau die, die ich gesehen habe.
 
Zuletzt bearbeitet:
krass was für ein aufwand bei deren dual-GPU-lösung nötig ist. sieht nicht aus, wie präzise selektiert.. eher wie mit dem holzhammer zusammengeschustert.



bei NVidia kriegt man zwei top-GPUs mit nur einem einzelner propeller gekühlt. und das sogar erstaunlich leise (zwei customGTX680 mit je 3 propellern waren lauter).



(..)

mfg
tobi
 
Zuletzt bearbeitet:
krass was für ein aufwand bei deren dual-GPU-lösung nötig ist. sieht nicht aus, wie präzise selektiert.. eher wie mit dem holzhammer zusammengeschustert.



bei NVidia kriegt man zwei top-GPUs mit nur einem einzelner propeller gekühlt. und das sogar erstaunlich leise (zwei customGTX680 mit je 3 propellern waren lauter).



(..)

mfg
tobi

Und der kühler bringt mir mit ner wakü genau was? :p
 
Das hatte ich vor ein Paar Tagen im 7970 Thread gepostet.
Neues zur Powercolor Devil 13 - News Hartware.net
Es scheint, als habe der Hersteller die Kühllösung weiter optimiert, so dass die Karte entweder Ende August oder aber Anfang September zu haben sein wird. Die Devil 13 benötigt drei 8-Pin-Stromanschlüsse und taktet mit 925 MHz für die GPU und effektiv 5,5 GHz für den GDDR5-RAM. Die Preisempfehlung soll sich angeblich auf ca. 1200 Euro belaufen. :asthanos:

Die Powercolor HD 7970 X2 Devil 13 belegt im Rechner drei Slots und setzt auf ein Kühlerdesign mit drei Lüftern. Der Stromverbrauch soll sich auf bis zu 525 Watt (TDP) belaufen. Damit richtet sich die Grafikkarte in limitierter Auflage in erster Linie an gut betuchte Enthusiasten.
@TobiWahnKenobi
1.
Die gezeigte Karte Arbeitet mit vollem HD7970 Takt nicht beschnitten wie die GTX690.
2.
Unter der Haube werden 2 grössere Chips gekühlt als bei der GTX690.
3.
Die HD7970*2 oder HD7990 hat 6GB Ram an Board die GTX690 nur 4GB.

Das einzigst gute an der GTX690 für mich ist das NV sich bei der Mircoruckler Problematik bemüht .
Aber durch die kleine Speicher Menge von nur 2GB und das kleine SI ist die Karte auf längere Sicht gesehen keine Option.

Eine Multi GPU Karte soll eine Highend Karte verkörpern und ist für hohe Auflösungen konzepiert nicht aber mit so wenig V Ram.

Mit der HD7990 ist man bis 2014 Safe mit dem Speicher.
 
Zuletzt bearbeitet:
Das hatte ich vor ein Paar Tagen im 7970 Thread gepostet.
Neues zur Powercolor Devil 13 - News Hartware.net



@TobiWahnKenobi
1.
Die gezeigte Karte Arbeitet mit vollem HD7970 Takt nicht beschnitten wie die GTX690.
2.
Unter der Haube werden 2 grössere Chips gekühlt als bei der GTX690.
3.
Die HD7970*2 oder HD7990 hat 6GB Ram an Board die GTX690 nur 4GB.

sag ich ja.. holzhammer.. bekloppt.. ökonomisch daneben.. einfach nur irgendwas, das AMD in die landschaft rotzt, um was zu haben. etwas, das nicht in jedes gehäuse passt und das sicher nicht in jeder umgebung kühlbar ist (stichwort: seitenwand offen lassen, zusatzlüfter nebenstellen usw). neues netzteil ist dafür bei einigen sicher auch fällig, falls die karte überhaupt in stückzahlen verfügbar wird und kein papiertiger bleibt.

Das einzigst gute an der GTX690 für mich ist das NV sich bei der Mircoruckler Problematik bemüht .
Aber durch die kleine Speicher Menge von nur 2GB und das kleine SI ist die Karte auf längere Sicht gesehen keine Option.

Eine Multi GPU Karte soll eine Highend Karte verkörpern und ist für hohe Auflösungen konzepiert nicht aber mit so wenig V Ram.

Mit der HD7990 ist man bis 2014 Safe mit dem Speicher.

das mit dem sync dachte ich auch mal, aber seit ich dieses display habe stört mich tearing eh sowas von selten, dass es kaum noch spruchreifes thema für mich ist.
abseits der spieleleistung ist bei der GTX690 das da das gute! und ein wertigeres stück hardware hatte ich seit 1984 nicht in der hand. die karte wirkt peinlichst präzise gefertigt. boost geht bis 1150-1202MHz, wie bei den palits. nur halt auf nem NVidia PCB mit selektierten bauteilen und wie geschrieben präzise gefertigt. mit dem china-PCB und den china-bauteilen samt china-lüfterkonstrukt einer palit hat die karte gar nichts gemein.. selbst wenn sie langsamer wäre, wäre es die bessere karte.

sli_vs_sliw4fde.jpg


aber ich will hier auch nicht weiter mit meiner konkurenzkarte stören - die AMD-karte ist genauso ne AMD-karte wie es ne beliebige HD7970 ist und eine davon lärmt grad neben mir (meine freundin spielt skyrim mit SGSSAA @30°C! raumtemp) -> unerträglicher schrott, aber wenigstens hab ich meine ansprüche soweit zurückgeschraubt, dass ich behaupten kann, der AMD-treiber läuft. gestern hat sogar dirt showdown @3D @beamer funktioniert.. passt schon - auch wenn ich es nicht benutzen würde, wenn ich ein besonders gutgehendes pressesample kriegen würde und behalten dürfte - oder wenn man sie mir auf den rücken tattoviert.. ausser dem leistungsreduzierten X4 da unten, wo ich eh keinen anspruch an irgendwas habe, hatte ich von AMD noch nichts, das mich dauerhaft zufrieden gestellt hat; und bei grakas sowieso nicht, weil man da murksige treiber viel zu schnell merkt. aber das ist ein anderes thema und interessiert hier nicht.

btw,
ich mutmaße mal, dass man zwei tahity-XTs genommen hat, um die konkurenz überholen zu können. sparsamere (genügsamere) lösungen würden das wohl nicht schaffen.. oder AMD schläft mal wieder aufm baum.. *schulterzuck* ist beides denkbar.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ich bin kein Freund von Luftkühlung bei solchen Monstern es haben sich ja auch schon Leute über die Lautstärke der 690 beschwert.
Bin eh der Meinung das auf Dual Karten Wakkü gehört.
 
was ist wakkü? wakker kühlung? sorry.. spaß.. nö.. da gehört gekauft, genutzt und irgendwann ersetzt. bin froh, dass ich die 300W TDP nicht mit im wakü-kreislauf habe. und nein, die karte ist leise.

ich hatte jetzt echt genug modelle zum vergleich.. HD7970, GTX680, GTX680 jetstream @SLi und vormals die 5er reihe mit phantom (gainward) -kühler, den ich damals auch mit unter wasser gesetzt habe - bei beiden karten..

laut oder hörbar muss nicht zwingend störend sein. die 690 stört bei 95% lüfterdrehzahl mit 2800u/min weniger als die referenz HD7970 mit 60%, weil es eine komplett andere tonlage ist. die ATI fängt regelrecht an zu schreien. der lüfter auf der GTX690 hat keine eigengeräusche ausser dem luftstrom. das ding war für den hersteller sicher teuer, denn sonst hätten alle karten so ein system und müssten ihre abwärme nicht mit 2 oder 3 propellern abführen, wenn für 2GPUs ein guter propeller reicht. auch braucht man - wie wir hier ja sehen können - keine 3 slotsbreiten kühlerprofile samt billigst-plastikummantelung.

die palitGTX mit ihren 2,5 slots, etlichen heatpipes und drei ventilatoren schaffte es nicht an das geräuschniveau heran, das ich jetzt habe. und hier steht noch immer single gegen multi-gpu. aber das ist der tribut, den man mit chips von der stange, PCBs aus china und minderwertigen bauteilen erhält. leckströme, ausschöpfen von grenzbereichen, mehr abwärme..

ein vergleich mit dem 3DM2011 in performance-lauf -> palit jetstream GTX680 in meinem i7 @5GHz -> 16.800 punkte. mit der GTX690 in meinem i7 @4.9GHz (!) -> 16.400 punkte. absolut nicht spruchreifes delta.

jetzt aber gut.. lass uns, falls es noch was zu quatschen gibt, im nvidia-thread weitertickern.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Was hast du für klumpige gehäuse schaut voll billig aus ist das Blech 1000€ GPU und so eine Case :lol:
 
Das ist keine 7990 sondern eine 7970x2 die schon etwas länger angekündigt ist, vermutlich erscheint die Devil 13 im September.
 
Das ist keine offizielle AMD HD7990, sondern ein Custom-Desgin von PowerColor in Form einer HD7970x2.
 
Steht auch in meinem Link und Text.
 
Ja aber Farbe passt, sorry da gab es so viel zu sehen.
Aber das der Mitarbeiter gesagt hat, dass es die 7990 gibt und was auf dem Schild stand weiß ich.
Können auch nur 2 Lüfter gewesen sein.

(Ich könnt mich klatschen, dass ich ich kein Foto gemacht hab)
 
Ich hab die auch gesehen, und es war ganz klar die 7970x2 Devil 13.
 
Was heißt, dass der mir 1. Müll erzählt und 2. die Müll hingeschrieben haben.
 
Wenn das Case seine Ansprüche erfüllt, passt das doch.
Nicht jeder will sich überteuerte Lian Li Gehäuse kaufen, die nicht mal ein Kabelmanagement haben ^^

jupp.. ich bin seit ewigkeiten chieftek-kunde.. hatte 11 jahre ein CS901 als haupt und ein CS601 als nebenrechner.. als die zu klein wurden bin ich auf die dragon-serie gewechselt. wichtig ist neben der gewohnheit, dass meine drei radiatoren intern platz finden und dass man von aussen nichts sieht und das teil auch ohne havarie auf den kopf gestellt werden kann (zum entlüften lege und stelle ich das case immer auf alle seiten und den kopf). und natürlich wichtig, dass es nicht schnarrt oder surrt wie die 50€-klasse.

wie es aussieht ist nebensächlich - das 07 vom foto hab ich für 80€ bekommen; preis lt. geizhals ist 140€ - war ein ungeplanter gelegenheitskauf bei atelco als ich bluray-rohlinge geholt habe - reicht für das was es tut völligst und billig kommt mir das auch nicht vor. wäre das case nicht so schnuggelich klein, wäre ich nicht zu ner GTX690 gekommen und würde mit drecks-SLi aus einzelkarte made in china durchs i-net trollen.

ich hab auch keine 1000€ grafikkarte -> ich hab mehrere grafikkarten, von denen ich zur zeit eine GTX690 und eine HD7970 nutze - 1000€ übersteigt das locker :-) die kaputte palit für 500€ können wir ja auch noch mit reinrechnen.. die ist aber schon in der orangen tonne gelandet.

warum werden hier im forum immer durch stichelei-randbemerkungen thread-abdriftungen erzwungen? komme da gedanklich nicht hinterher.. *kopfkratz* ist ja eine form von neid und weil wir grafikseitig grad nicht großkotzen können, weisen wir die welt auf unser lian li hin? *lachweg* von welchem schulhof bist du denn geflüchtet? gäbe es von lian li oder einem anderen hersteller etwas, das ich im vorbeigehen sehe und toll finde, kaufe ich es. *schulterzuck* ich kaufe doch eh jeden shice.. wenns gefällt. was ich so im monat auf den kopf hauen kann reicht zwar nicht für yacht und porsche, aber 1000€ spielgeld kann ich im mittel lostreten ohne dass ich hungern muss. wir verdienen beide gut und meine frau mag mein hobby.


in welchem kontext stehen gehäuse eigentlich zu MGPU-lösungen? dafür haben wir doch ein gehäuse-forum..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ich bin kein Freund von Luftkühlung bei solchen Monstern es haben sich ja auch schon Leute über die Lautstärke der 690 beschwert.
Bin eh der Meinung das auf Dual Karten Wakkü gehört.


Selbst Erfahrung machen macht klug.
Was wer wo schreibt ist blos hören sagen. Zumal, die 690 ist nicht kastriert. Der Grundtakt ist niedriger als der von der 680, dafür geht der Boost genau so hoch, sonst wäre die Karte nicht immer vor dem 680 SLI.

Aber es gibt ja immer welche die es besser Wissen.
 

GK104 400 A2 -> chip für wald und wiesen GTX680er vs. GK104 355 A2 -> chip für GTX690


Selbst Erfahrung machen macht klug.
Was wer wo schreibt ist blos hören sagen. Zumal, die 690 ist nicht kastriert. Der Grundtakt ist niedriger als der von der 680, dafür geht der Boost genau so hoch, sonst wäre die Karte nicht immer vor dem 680 SLI.

Aber es gibt ja immer welche die es besser Wissen.

stimmt!! ne kastration wäre das wegstreichen irgendwelcher einheiten. der hier ist nur besonders selektiert. und er kommuniziert pauschal mit PCIe-3.0 x16 mit der zweiten GPU und ist nicht auf wohlwollen von CPU+MB angewiesen, wie zwei GTX680, die auf sandybridge-systemen mit 2x PCIe-2.0 x8 laufen. für mein system siehts derweil so aus, dass ich kartenintern volles 3.0 nutze und extern 2.0 x16. wer um die theorie bescheid weiss, müsste drauf kommen, dass das sicher geringfügig besser ist und wahrscheinlich in extremsituationen wo das interface extern zum tragen kommt, 1-2% bringt.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ich habe das Thema nun geschlossen. Wirkliche Neuigkeiten fehlen und Beiträge gab es nun genug.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh