AMD Radeon HD 7990 noch im Juli?

Redphil

Redakteur
Thread Starter
Mitglied seit
02.12.2004
Beiträge
6.827
Ort
Leipzig
<p><img style="margin: 10px; float: left;" alt="AMD" src="images/stories/logos/AMD.jpg" height="100" width="100" />Während der Computex im Juni hielten wir die Ohren offen und versuchten möglichst viel Messegeflüster zur Radeon HD 7990 aufzufangen (<a href="index.php/news/hardware/grafikkarten/22760-computex-2012-messegefluester-zur-radeon-hd-7990.html" target="_blank">wir berichteten</a>). AMDs Dual-GPU-Flaggschiff wird schließlich schon länger erwartet. Was wir zu hören bekamen, war allerdings durchwachsen. So soll es Probleme mit dem PLX-Chip gegeben haben, konkret traten Inkompatibilitäten zu manchen Mainboards auf. Neue Gerüchte deuten jetzt aber daraufhin, dass AMD noch im Juli auf NVIDIAs GeForce GTX 690 reagieren könnte.</p>
<p>Der Launch von "New Zealand" - so die...<p><a href="/index.php?option=com_content&view=article&id=23020&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
habe es nicht ausgerechnet, aber bei 2560*x pixel, das ganze 3 mal (oder sogar 6 mal)+ crysis2+texturmods, werden 3gb/gpu recht knapp..

bin bei crysis2/64bit/texture-mod/dx11 und 1080er auflösung schon bei 1500MB angekommen ..

und die 12gb kann man ja nicht als gesamtspeicher sehen, sondern als 6gb/gpu
 
Ich dachte es kommt gar keine mehr.

Erstens gibt es kaum Bedarf und zweitens muss sie die GTX690 in einigen Bereichen effektiv schlagen um überhaupt Gewinn erzielen zu können. (mit solchen Karten wird sicherlich ohnehin kaum Gewinn gemacht)

In der Zeit HÄTTE ich längst zwei 7970 mit wakü und Übertaktung, würde ich sie wirklich brauchen. Da warte ich doch nicht Ewigkeiten auf einen überteuerten dual GPU krüppel. ^^
 
Ich kauf mir eigentlich schon seit beginn der 3870x2 jedes Jahr 2 Stück einfach aus Tradition :-)
Diese Dual-GPU Karten sind ja schon interessant wenn man am Board gespart hat und z.B nur ein PciExpress 16fach hat man aber trotzdem mehr leistung haben will als eine single Karte liefern kann.
Das selbe Spiel gilt natürlich für die Menschen die nur 2 Pciexpress 16fach haben aber QuadCrossfire umsetzen möchten.

Sowie ich AMD kenne werden die Dual GPU Karten nicht so brutal teuer werden wie das Nvidia gerade abzieht mit seiner GTX 690.
Denke die 7990 Radeon wird maximal 750€ kosten selbst wenn sie schneller ist als die Nvidia ^^.
 
Ich dachte es kommt gar keine mehr.

Erstens gibt es kaum Bedarf und zweitens muss sie die GTX690 in einigen Bereichen effektiv schlagen um überhaupt Gewinn erzielen zu können. (mit solchen Karten wird sicherlich ohnehin kaum Gewinn gemacht)

In der Zeit HÄTTE ich längst zwei 7970 mit wakü und Übertaktung, würde ich sie wirklich brauchen. Da warte ich doch nicht Ewigkeiten auf einen überteuerten dual GPU krüppel. ^^

ich denke, jeder weiß, das die karten keiner braucht aber viele wollen sie einfach.. genauso wie chromfelgen auf dem auto.. ich kann mir kein urteil über ati erlauben, aber die nvidia-karten sind geil.. ich habe selber eine 590er+wakü und bin sehr zufrieden.
und meine schwitzigen hände werde ich nie vergessen, als ich nach einer woche den kühler entfernt habe und den wakü draufgepackt habe.. 640€+wakü und keine garantie.. 1^^

https://picasaweb.google.com/108838230042986020931/2PC?authuser=0&feat=directlink
 
12 GB VRAM sind ungefähr so nötig wie ein drittes Ei. Entschuldigt bitte meine drastische Ausdrucksweise, aber das ist wirklich absolut sinnlos. Selbst bei fünf Monitoren (sofern die Anschlüsse das überhaupt zulassen sollten) sind 12 GB Videospeicher überdimensioniert. Der Rest der Karte wird viel eher den Laufpass geben, als dass diese 12 GB wirklich zum tragen kommen. Es sieht halt geil aus, aber wer z.B. GPU-lastige Anwendungen benutzt, und ich meine KEINE Spiele, der wird wohl viel eher auf eine Quadro, FirePro oder sogar Tesla zurückgreifen.
 
Zuletzt bearbeitet:
@dustyon3: Effektiv sinds ja "nur" ( xD xD ) 6GB...nur xD
 
12 GB VRAM sind ungefähr so nötig wie ein drittes Ei. Entschuldigt bitte meine drastische Ausdrucksweise, aber das ist wirklich absolut sinnlos. Selbst bei fünf Monitoren (sofern die Anschlüsse das überhaupt zulassen sollten) sind 12 GB Videospeicher überdimensioniert. Der Rest der Karte wird viel eher den Laufpass geben, als dass diese 12 GB wirklich zum tragen kommen. Es sieht halt geil aus, aber wer z.B. GPU-lastige Anwendungen benutzt, und ich meine KEINE Spiele, der wird wohl viel eher auf eine Quadro, FirePro oder sogar Tesla zurückgreifen.

Wenn du ein Zuchtbulle wärst, würdest du mit einem dritten Ei die komplette Konkurrenz deklassieren, d.h. wenn du 12GB, welche ja eigentlich nur 6GB sind nicht brauchst, heißt es nicht, dass niemand anderer sie braucht.
 
hey, amds kundschaft votiert seit längerem für sinnlos größere vram-mengen, also behalten sie den kurs bei.
vram bringt keine leistung wenn er nicht genutzt wird und wir tun uns auch keinen gefallen wenn ihr nur um den speicher aufzupumpen halbgare mods benutzt und damit die ganzen budgetkarten die eigentlich stark genug wären ausbootet. um so schneller entsteht auch ein zwang durch die spielehersteller immer schritt zu halten wenn 8gb pflicht werden oder eben 12gb real...
danke lieber käufer. >:(
 
Poloniumium schrieb:
hey, amds kundschaft votiert seit längerem für sinnlos größere vram-mengen, also behalten sie den kurs bei.

Es ist ja auch eher nicht negativ, wenn wirklich sicher ausreichend viel V-ram auf den Karten verbaut ist, damit auch bis zur neuen Konsolengeneration mit Sicherheit genügend Speicher verbaut ist.
Zudem lockt das auch Spielhersteller etwas mehr V-ram fordernde Texturen für die PC Versionen zu bringen.

WO bleibt da doch gleich ein substanzvolles Argument was gegen die Tendenz zu mehr V-ram spricht?
Ich weiß nicht ob du deine Kommentare auch durchliest, aber irgendwie ergibt der so nwas von gar keinen Sinn. :hmm:
 
hast du dir nie die hypothetischen probleme vom schlaraffenland überlegt? :)

es ist ein kostenfaktor, es verleitet zu falschen tendenzen und am schlimmsten: meine karte hat wesentlich weniger und könnte dadurch noch schneller ausgebootet werden. (also hier müsste einem die selbstironie mit dem gesäß zuerst ins gesicht springen... ;))
 
Gibt es irgendwo einen Anhaltsspunkt, dass mehr V-ram der High End Produkte die Mitelklasse Produkte ausbooten?
Das war doch früher genauso.
Früher war es sogar ein probates Mittel generell zu wenig V-ram zu verbauen um die Leistung zu limitieren ( 8800gt 256mb) 8800gts 320m.
Heute bekommt man selbst bei der HD 7850 schon auch für extreme Settings + Texturmods ausreichende 2GBV V-ram.

Das 1Gb V-ram bei einer GTX 560 Ti zu einem öfters limitierenden Faktor werden, konnte man schon ergo bei Release sehen, da wird gar nichts ausgebootet.
Sei doch froh, dass die entwicklung vorangeht.
 
Zuletzt bearbeitet:
Ah das sind wieder sinnlose bemerkungen von denen die NV Karten besitzen AMD und VRAM Bla bla bla wenn NV das machen würde dann aber hallo. Dann würde die NV GTX690 2000€ Kosten und es wären genug Idioten da die Zahlen würden Haubtsache es steht NV drauf.

Dann brauchen wir keine Autos mit 500PS da wir alle im Wohngebiet nur 30 Fahren dürfen :lol:
 
Zuletzt bearbeitet:
Was war das jetzt für ein trauriger Versuch ein NVIDIA vs. AMD bashing anzuzetteln? :/
 
jupp, piskopat wurde enttarnt.

es geht auch wirklich gerade um mittelklassekarten. die ganz kleinen für den oem-markt haben ja auch wieder gigantische vram-ausbauten um zu blenden. dann aber 4gb ddr2 oder 3 statt eben gddr5.
 
hey, amds kundschaft votiert seit längerem für sinnlos größere vram-mengen, also behalten sie den kurs bei.
vram bringt keine leistung wenn er nicht genutzt wird und wir tun uns auch keinen gefallen wenn ihr nur um den speicher aufzupumpen halbgare mods benutzt und damit die ganzen budgetkarten die eigentlich stark genug wären ausbootet.

Wieso denn bitte Mods? Es reichen schon 2 Jahre alte Spiele ohne irgendwelche Mods bei FullHD Bildschirmauflösung, um über 1,5GB zu füllen. Und da AMD ja ein 384Bit SI hat, kann man nur zwischen 1,5GB, 3GB oder 6GB wählen, dazwischen liegende Speichergrößen machen keinen Sinn.
Da bei DualGPU Karten der Speicher ja auch für jede GPU die selben Daten bereit halten muss, stehen bei 6GB also effektiv nur 3GB zur Verfügung. Will man nun eine Multi-Monitor Auflösung nutzen, dann werden die 3GB pro GPU durchaus auch mal knapp. Insofern ist der Kundenkreis für die 12GB Variante vielleicht gering, aber sinnlos ist die Karte sicher nicht.
 
Nun da die Rohleistung der karte in dem bereich liegen wird in dem reale 3gb schonmal knapp werden könnten, ist es nur konsequent die auf reale 6gb zu bringen. ist doch besser so, als wenn die karte wegen rammangel einbricht. eine 690gtx würde ich mir so nie kaufen mit real 2gb.und sind wir mal ehrlich. wer karten in dem preisgefilde kauft, regt sich auch nicht über 50 euro mehr auf weils eben 12 statt 6gb speicher wurden.und ja ich könnte die leistung der karte gut gebrauchen.
wer einmal mit 3 monitoren gezockt hat, will nciht mehr zurück zum briefmarkenkino. da sollte man nicht immer von sich auf andere schlie0en und argumentieren das man sowas nie braucht, alle spiele sind nur konsolenports bla bla bla.
ich kann diese argumente nicht mehr lesen.
 
Zuletzt bearbeitet:
hey, amds kundschaft votiert seit längerem für sinnlos größere vram-mengen, also behalten sie den kurs bei.
vram bringt keine leistung wenn er nicht genutzt wird und wir tun uns auch keinen gefallen wenn ihr nur um den speicher aufzupumpen halbgare mods benutzt und damit die ganzen budgetkarten die eigentlich stark genug wären ausbootet. um so schneller entsteht auch ein zwang durch die spielehersteller immer schritt zu halten wenn 8gb pflicht werden oder eben 12gb real...
danke lieber käufer. >:(

Was laberst du eigentlich für einen mist? Ist doch gut wenn die Leute sich Graffikarten mit mehr VRAM kaufen, dass führt nur zu einer besseren Grafik. Nicht rumweinen nur weil du dir so etwas nicht leisten kannst.
 
Hoffentlich tut auch AMD was gegen die Mikroruckler. Ansonsten kann man die Karte eher nicht empfehlen.
 
Hoffentlich tut auch AMD was gegen die Mikroruckler. Ansonsten kann man die Karte eher nicht empfehlen.
Boxleitnerb diese Microruckler nimmst du als Spieler gar nicht wahr bei konstanten 60 FPS mit vysnc. Die GTX690 hat auch Mircorruckler wen man davon ausgeht. Komm Bitte jetzt nicht bei NV ist das nicht so schlimm. Sind diese Probleme da ja oder nein, das wird aber immer schön geredet wieso auch immer.
Es sind genug User da die CF haben komisch nur das die wenigstens sagen ja ich merke dass es alles ruckelt und schüttelt.

NV kämpft auch mit Probleme warum zählst du die nicht auf. Es geht hier um eine Karte mit Monster Speicher um eine Highend Modell. Verstehe auch die User nicht wo immer mit diesen Dummen Kommentare kommen braucht kein Mensch. Weil derjenige sich das nicht leisten kann sollen alle Verzichten oder.

Also wenn diese Karten für AMD oder NV nicht lohnen würde dann glaub mir die würden dann diese Karten niemals Bauen, anscheinend ist die Nachfrage da und macht auch Gewinn.
Die GTX690 Kostet 960€ wenn AMD für diese Karte 800€ verlangen würde dann ist die Karte Perfekt.

Kommen wir jetzt zu tat Sachen warum kauf ich immer AMD und nicht NV. Weil NV einfach überteuert ist. Ich habe seit Jahren Dual GPU aber schaut euch die Preise von NV an und von AMD.
Zwei AMD Highend Modelle sind genau so Teuer wie ein NV Karte. Das war schon immer so, und ich lass mich nicht übern Tisch ziehen warum soll ich so viel Geld Zahlen für einen Namen. Bei NV habe ich das Gefühl irgendwie ein Dummer wird schon Zahlen und ich gehöre nicht zu diese Gruppe sry.

Hier ein User hat Probleme mit SLI http://www.hardwareluxx.de/community/f14/staendig-abstuerze-bei-msi-n570gtx-m2d12d5-oc-899838.html oh mann das ist halt wenn man NV Kauft und SLI betreiben möchte :lol:
 
Zuletzt bearbeitet:
Auf die konstanten 60fps musst du erstmal kommen. Ich kaufe kein SLI/CF und wähle die Settings so zahm, dass die min fps bei 60 liegen und ich den Großteil der Performance durch VSync verschenke, das ist eigentlich vollkommener Schwachsinn. Und natürlich ist es bei Nvidia besser. Nicht in jeder Situation natürlich, das kommt sicherlich auf die absoluten fps und auf die Engine an, aber im Schnitt schon.
Schönreden muss man gar nichts - AFR hat nunmal diese Probleme, aber AMD tut eben gar nichts dagegen nach aktuellem Stand der Dinge. Da eine anständig getimte Bildausgabe die halbe Miete bei AFR ist, darf und muss man solche Unterschiede darlegen. Dass wenige CF-User sich melden und "jammern", kann viele Gründe haben. Erst mal ist der prozentuale Anteil sehr klein. Zweitens ist nicht jeder so empfindlich. Drittens kann man mehr als 60fps haben bzw. im CPU-Limit sein. Viertens kann man es merken und verschweigen, weil man es vielleicht nicht zugeben will, dass es einen stört.

Warum soll ich bei Nvidia Probleme aufzählen, wenn es hier um AMD geht? Und was du mit deinem Kommentar zu "dummen Kommentaren" willst, weißt nur du selbst. Mein Kommentar war jedenfalls on topic und ist auch relevant. Ob sich etwas für AMD oder NV lohnt, ist dem Kunden doch vollkommen egal. Es geht hier um das Produkt an sich, und das weist eben diesen Mangel in einem größeren Maße als bei der Konkurrenz auf. Bei Nvidia zahlst du mehr, das stimmt. Dafür reichen oft auch weniger fps für ein sehr anständiges Spielgefühl im Gegensatz zu CF, und die Versorgung mit Profilen ist meist auch vorbildlich. Mit Grauen erinnere ich mich an Herbst 2011, als gleich 3 Blockbuster nicht oder nicht gescheit mit CF liefen, aber mit SLI keine Probleme machten. Da muss man nicht "dumm" sein, um die teureren NV zu kaufen, sondern man ist anspruchsvoll und informiert und will ein (gleich) funktionierendes Produkt haben.

Der User mit dem 570 SLI ist vollkommen off topic. Hast wohl nichts Besseres gefunden gerade, um Nvidia schlecht zu machen. Bleib doch in Zukunft beim Thema und schweife nicht dermaßen ab.

Ich finde deine Einstellung traurig. Statt ebenfalls zu fordern, dass AMD hier Verbesserungen anbringt (die anderen und nicht zuletzt auch dir nutzen würden), verteidigst du AMD und redest das Problem weg. Nicht cool, solche Fans braucht keine Firma. So tritt keine Verbesserung ein.
 
Boxleitnerb diese Microruckler nimmst du als Spieler gar nicht wahr bei konstanten 60 FPS mit vysnc. Die GTX690 hat auch Mircorruckler wen man davon ausgeht. Komm Bitte jetzt nicht bei NV ist das nicht so schlimm. Sind diese Probleme da ja oder nein, das wird aber immer schön geredet wieso auch immer.
Es sind genug User da die CF haben komisch nur das die wenigstens sagen ja ich merke dass es alles ruckelt und schüttelt.

Da hast du recht das ist echt komisch anhand solcher Ausschläge:;)

microrucklerdmdra.png


Test: Nvidia GeForce GTX 690 (Seite 8) - ComputerBase

Es lässt sich unschwer erkennen, dass die Frameverteilung bei einer Single-GPU-Konfiguration am besten ist: Komplett identisch ist die Frameausgabe auf der GeForce GTX 690 nicht, jedoch lässt sich in Serious Sam 3, was sehr empfindlich auf Mikroruckler reagiert, kein Stocken erkennen. Ganz anders bei AMDs CrossFire.Was im Diagramm „wild“ aussieht (die Frameausgabe erfolgt abwechselnd zwischen 15 und 62 Millisekunden), fühlt sich auch genauso an
 
Zuletzt bearbeitet:
Kommen wir jetzt zu tat Sachen warum kauf ich immer AMD und nicht NV. Weil NV einfach überteuert ist. Ich habe seit Jahren Dual GPU aber schaut euch die Preise von NV an und von AMD.
Zwei AMD Highend Modelle sind genau so Teuer wie ein NV Karte. Das war schon immer so, und ich lass mich nicht übern Tisch ziehen warum soll ich so viel Geld Zahlen für einen Namen. Bei NV habe ich das Gefühl irgendwie ein Dummer wird schon Zahlen und ich gehöre nicht zu diese Gruppe sry.

Jetzt sinkt das Niveau aber wirklich ab, jeder Hersteller hat seine Vorteile.
Man kann die µruckler bei AMD mit nem limiter gut bekämpfen, aber Nvidia bemüht sich und bietet bei FRamemetering zumindest wenn man geradeausläuft ein für heutige Verhältnisse annehmbahres Bild bei niedrigeren FPS Gefilden.
Ich muss Áber trotzdem etwas relativieren. Man hat lange gebraucht um die µruckler zu erkennen. Ich denke Tombman (leider verstorben) war einer der ersten aus dem 3DCenter die das gemerkt haben und analysiert haben, vorher isses keinem aufgefallen. ^^

Off Topic zu deinem Off Topic pisko.

Ich habe meine HD 7970 PCS+ wieder zurückgesendet, weil die Karte "a klump" war.
Jetzt behalt ich meine GTX 480 1,5GB und meine HD 7770 2GB.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh