AMD Radeon R9 290X im Test

Machen sich die Taktsprünge wie sie wohl im Quietmode auftreten auch in den Frameverläufen bemerkbar?
Diese Taktsprünge hat man im Ht4u Test festgestellt: Auch künftig gibt es hier keine Möglichkeit die Techniken von AMD und NVIDIA exakt miteinander zu vergleichen, denn während NVIDIA nach dem Erreichen von Limits praktisch eine gleichbleibende Taktung vorhält, schwankt diese bei der Darbietung der R9 290X massiv. Sprünge zwischen 820 und 890 MHz in Bruchteilen von Sekunden sind dabei keine Seltenheit.
Quelle: Testberichte & Artikel bei HT4U.net

Wenn dadurch die FPS zu sehr schwanken sollten, würde man das ja auch im Spielverlauf bemerken bzw. müsste dann der Spielfluss "ruckeliger" erscheinen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn das so wäre. müsste die 7990 doch deutlich besser sein, da intern ein PLX Chip verbaut ist.
 
@aden
Wenn ich das Diagramm richtig deute, dann geht es da um eine Brücke, mit 2 Brücken kann das ein wenig variieren (besser aussehen) ;)
 
R9 290X Besitzer bereits den Neuen Treiber aufgespielt, runtergeladen habe ich jenen bereits, mir fehlt aber die Karte :-)
Mein Shop hat nur mehr 2 Karten da, für 557 Euro und ist mir zuviel, da die Preis unter 500 Euro sein sollten, aber Verfügbarkeit ist mehr als mau, daher die gesalzenen Preise!
Da warte ich doch lieber auf die R9 290 für etwas mehr als 350 Euro...
 
Man kann zb. mit Asus GPU Tweak den 2 D Takt von GPU und Speicher einstellen.
Meine 7970 laufen mit 200 GPU und 75 Speicher eins A im 2 D allso null problemo.
Das sollte bei der 290 wohl auch funzen.

Das hat bei der alten 5870, mit der ich das seinerzeit versucht habe, zu extremen Bildfehlern geführt, sobald ein zweiter Monitor an der Karte hing. Und solange das nicht auch ohne Zusatzsoftware oder BIOS-Mods (siehe meinen Misserfolg) funktioniert, bleibe ich etwas grüner, obwohl ich eigentlich ausschließlich Battlefield spiele...
 
Das hat bei der alten 5870, mit der ich das seinerzeit versucht habe, zu extremen Bildfehlern geführt, sobald ein zweiter Monitor an der Karte hing. Und solange das nicht auch ohne Zusatzsoftware oder BIOS-Mods (siehe meinen Misserfolg) funktioniert, bleibe ich etwas grüner, obwohl ich eigentlich ausschließlich Battlefield spiele...
Das Problem gibts mit der 7970er bzw. 280er mit 2 Monitoren immer noch... Hab ja auch im thread schon gebeten das mal mit der 290x zu überprüfen - aber werd ich dann wohl selbst machen...
 
Zuletzt bearbeitet:
vlt. ist es auch einfach komplizierterer Treiber und mit der Bridge CF tauglich zu machen als wenn das ganze über PCIe geht!
Wird schon seien Gründe haben und solange es sich nichts verschlechtert...
 
vlt. ist es auch einfach komplizierterer Treiber und mit der Bridge CF tauglich zu machen als wenn das ganze über PCIe geht!
Wird schon seien Gründe haben und solange es sich nichts verschlechtert...

Ich glaube für AMD ist schon "Treiber" kompliziert, wenn man sich hier mal die letzten seiten durch liest. :d
 
Mick Böse wirklich Böse.Zähle 148 Rückwärts und Schaffe und Co erscheinen auf der Tanzfläche.(Bin mit meiner 7970 voll zufrieden) :)
 
Ohne Boost 4.0.Ich bin so glücklich. hiding.gif
 
Och ich seh das gebooste ganz entspannt, ich finde die 290x auch mit Boost sehr gut. Würde ich viel Spielen, und die Leistung rausspielen, würde ich mir davon wahrscheinlich ein Custom-Model holen. :d
 
Dann sollen die Säcke von AMD und NVIDIA auch bitte schön die Powerstates freigeben.:eek:
 
Huhu,

mal ne Frage, hat hier einer der R9 290X User auch das Problem das der Mauszeiger in gewissen Bereichen (z.B. wenn man Text makieren will oder in Paint) wesentlich größer ist (wie mit Lupe)?

Wenn jemand weiß wie ich das weg bekomme wäre ich dankbar :)

Gruß
Chris
 
Ich glaube was dann angeht, wird der Kunde der geknebelte Depp bleiben. ;) Wobei man der Fairness halber sagen muss, dass das 90% der Kunden wahrscheinlich eh nicht tangiert...
 
Wieso keine Black Edition 290X oder 780GTX,alles frei einstellbar wahrscheinlich halten Sie uns für nicht kompetent genug.uglygruebel.gif
 
Naja, aber auch wenn GK110 im Gamermarkt Teildeaktiviert ist, hat der Chip so viele Transistoren. ;) Die schneiden sie bei deaktivieren ja nicht raus. :d
Da du selber den Begriff "Teildeaktivierung" angesprochen hast, glaube ich du hast schon genau verstanden was ich meinte. Zumal ich ja auch schrieb: "Es ist eigentlich weitreichend bekannt das die Titan nicht alle 7,1 Milliarden Transistoren für ihre Performance nutzt, der Vergleich ist also falsch." Ich schrieb nicht, das der Titan-GK110 weniger als 7,1 Milliarden Transistoren besitzen würde.
 
Ich glaube eher, dass sie ihre Handbreit-Weiterentwicklungsschritte dann schlechter an den Mann bringen könnten. ;) Man merkt hier ja schon, dass wenig wettbewerb ist. Bringt Nvidia wenig, bringt AMD wenig - was bei realem wettbewerb doch schon ein dummer Zufall wäre. Inzwischen haben die Siamesischen Zwillinge sich ja schon so eng umschlungen, dass man sogar das GK110-Theater mit den 290er immitiert. dabei bleibt halt irgendwo die Innovation auf der Strecke und damit der Kaufanreiz. Ich mein weder durch Mantle, True Audio noch G-Sync sehen Spiele besser aus und das wird gerade alles in Zentrum der Aufmerksamkeit gerückt.

Aber wahrscheinlich bin ich nur alt, böse und gelangweilt von der 2013er Hardware... :fresse:

- - - Updated - - -

Da du selber den Begriff "Teildeaktivierung" angesprochen hast, glaube ich du hast schon genau verstanden was ich meinte. Zumal ich ja auch schrieb: "Es ist eigentlich weitreichend bekannt das die Titan nicht alle 7,1 Milliarden Transistoren für ihre Performance nutzt, der Vergleich ist also falsch." Ich schrieb nicht, das der Titan-GK110 weniger als 7,1 Milliarden Transistoren besitzen würde.

Aber dann stimmt die Angabe in dem Test doch. ;) Dafür hast du mit der Größe definitiv recht gehabt. :)
 
Zuletzt bearbeitet:
290X DP SP 1:8.Die Fire Pro wird wahrscheinlich 1:4 haben. Teildeaktiviert ab in den Mülleimer damit.

Mick lass uns auf Kaveri umschwenken.Das nächste Highlight auf dem Wir rummosern könnern.:bigok:
 
Zuletzt bearbeitet:
[...]

Aber dann stimmt die Angabe in dem Test doch. ;) Dafür hast du mit der Größe definitiv recht gehabt. :)
Die Aussage "Aus 6,2 Milliarden Transistoren der "Hawaii"-GPU holt AMD nahezu die gleiche Performance, wie NVIDIA aus 7,1 Milliarden Transistoren." suggeriert dem Leser, das AMD aus deutlich weniger Transistoren nahezu die gleiche Leistung erreicht wie nVidia mit 0,9 Milliarden Transistoren mehr. Der Vergleich ist aber nicht korrekt, da die Titan bekanntlich nicht das ganze Potenzial der 7,1 Milliarden Transistoren ausschöpft. Was nVidia mit dem Full-GK110 mit allen Schaltkreisen zu leisten im Stande ist, wissen wir ja noch gar nicht, aber hoffentlich bald mit der 780 Ti. Man kann nur erahnen was grob möglich wäre anhand der Quadro K6000 Spezifikationen.
 
Mick lass uns auf Kaveri umschwenken.Das nächste Highlight auf dem Wir rummosern könnern.:bigok:

Wir verstehen uns. :d

- - - Updated - - -

Die Aussage "Aus 6,2 Milliarden Transistoren der "Hawaii"-GPU holt AMD nahezu die gleiche Performance, wie NVIDIA aus 7,1 Milliarden Transistoren." suggeriert dem Leser, das AMD aus deutlich weniger Transistoren nahezu die gleiche Leistung erreicht wie nVidia mit 0,9 Milliarden Transistoren mehr. Der Vergleich ist aber nicht korrekt, da die Titan bekanntlich nicht das ganze Potenzial der 7,1 Milliarden Transistoren ausschöpft. Was nVidia mit dem Full-GK110 mit allen Schaltkreisen zu leisten im Stande ist, wissen wir ja noch gar nicht, aber hoffentlich bald mit der 780 Ti. Man kann nur erahnen was grob möglich wäre anhand der Quadro K6000 Spezifikationen.

Okay das ist wirklich etwas irritierend geschrieben. :) Und jo mal die 780ti abwarten.
 
Die Aussage "Aus 6,2 Milliarden Transistoren der "Hawaii"-GPU holt AMD nahezu die gleiche Performance, wie NVIDIA aus 7,1 Milliarden Transistoren." suggeriert dem Leser, das AMD aus deutlich weniger Transistoren nahezu die gleiche Leistung erreicht wie nVidia mit 0,9 Milliarden Transistoren mehr. Der Vergleich ist aber nicht korrekt, da die Titan bekanntlich nicht das ganze Potenzial der 7,1 Milliarden Transistoren ausschöpft.

Das Problem ist doch, es gibt keine Gamer GPU mit vollen 15 SMX und allen sonstigne Einheiten :wink:
Sprich willst du GK110, musst du zum Teildeaktivierten Chip greifen. Warum NV hier keine vollen Chips liefert, kann nur spekuliert werden... Die K6000 zeigt, das es zumindest stand heute definitiv möglich ist.
Das heist aber dann immernoch nicht, das es zu Titan Release, bzw. noch eher, zu K20/K20X Tesla Release auch möglich gewesen wäre -> oder noch besser, ob es sinnvoll gewesen wäre aus wirtschaftlicher Sicht.
Volle 15 SMX und nur noch ein Bruchteil funktionsfähige Chips am Ende ist halt scheinbar nicht besser als nur 14 bzw. 12 SMX, dafür mehr Ausbeute.
So ganz falsch ist die Aussage da im Text wohl nicht... Den Teil, den man als verschnenkte Fläche ansehen könnte, ist halt die "Reserve" für die höhere Ausbeute... Und einkalkulierte Reserve ist alles andere als untypisch :wink:

Interessant dürfte wohl eher werden, ob es überhaupt jemals einen GK110 im Vollausbau geben wird... Die K6000 ist doch GK180, wenn ich das recht in Erinnerung habe ;)
 
Soweit ich 3DC verstanden habe stellt Hawaii einen neuen Record in der Packdichte dar.So eng gepackt hast du das gleiche Problem wie Haswell.Kleine Fläche viele Transistoren viel Abwärme.;)
 
Soweit ich 3DC verstanden habe stellt Hawaii einen neuen Record in der Packdichte dar.So eng gepackt hast du das gleiche Problem wie Haswell.Kleine Fläche viele Transistoren viel Abwärme.;)

Haswell hat das "Hitzeproblem" aber eher wegem dem nicht verlöteten Deckel :wink:
Mach den Deckel runter und die Temps sind i.O.
 
Tolle Karte zum fairen Preis! Don weißt du ob bei dem neuen Treiber die Leistungssteigerungen auch auf die 290xer zutreffen. z.B. Richtung +10% in BF3 ist ja nicht unerheblich.
 
Das Problem ist doch, es gibt keine Gamer GPU mit vollen 15 SMX und allen sonstigne Einheiten :wink:
[...]
... ja eben, für eine solche Aussage fehlt schlicht eine 7,1 Milliarden GK110-A1 / GK110-B1 / GK180 Gamer Grafikkarte mit allen Funktionseinheiten ;)


Interessant dürfte wohl eher werden, ob es überhaupt jemals einen GK110 im Vollausbau geben wird... Die K6000 ist doch GK180, wenn ich das recht in Erinnerung habe ;)
Der GK180 wurde doch bisher nur im Zusammenhang mit Tesla K40(X) genannt?!


Aber was solls ... einfach hoffen das Gamer ebenfalls in den Genuss von 28xx nVidia Shader kommen :)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh