GPU14 Tech Day: AMD zeigt die Radeon R9 290X

Brauche die 290X auch sehr dringend. Meine 6970 mit Accelero ist Vergangenheit, übergangsweise ist da jetzt ne 4870 drinnen. Grauenhaft sag ich euch. Heiss und laut, selbst mit 20% Lüfter und Idle bei 55 Grad. Kein Zustand so...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Finale Spezifikationen der AMD Radeon R9 290 und 290X - ComputerBase


Also R9 290X mit 2816 SPs und bis 1 GHz, R9 290 mit 2560 SPs und rund 950 MHz

Mich düngt, dass die ganzen durchgesickerten Benchmarks nur mit der R9 290er mit etwas mehr Takt erzeugt worden ist. Vermutlich gibt es noch keinen Vollausbau mit 2816 SPs als R9 290X.
Wäre natürlich schon Hammer und würde nochmal 5-10% mehr Performance herausholen, zur schon jetzt geschlagenen GTX Titan.
Sagte ich nicht schon einmal, das 40-50% Performanceanstieg zur HD7970Ghz durchaus möglich wären ? ;)
 
Bei 2816 Shader muss das teil schon ordentlich abgehen, fals da nicht wieder irgendwas limitiert weil die GTX680 hats ja auch irgendwie immer geschafft mit 30% weniger Shaderpower teilweise schneller zu sein.
Die GTX780 hat da nun auch 22% weniger shader aber dafür mehr ROPs und mehr TMUs und mehr Tessalationsleistung daher bin ich gespannt wie es da im schnitt aussehen wird.
Bei 50% schneller als HD7970GE wäre man ca. auf höhe der GTX780 welche bei gleichem Takt wirklich nahezu 50% schneller ist.
Könnte dann wirklich so sein das eine R290X@ OC 1200Mhz auch nur so schnell ist wie eine GTX780@1200 oder GTX Titan@ 1116Mhz
 
Hab ich was verpasst? 780gtx 50% schneller als die 7970Ghz?
Die cherrypicks musst du mir mal zeigen :) una auch da wirds schwierig nehme ich an
 
Mit 1000MHz und 37% mehr Einheiten wird man keine 50% schneller sein.
 
Hab ich was verpasst? 780gtx 50% schneller als die 7970Ghz?
Die cherrypicks musst du mir mal zeigen :) una auch da wirds schwierig nehme ich an

Das habe ich doch damals mit Thunderburne vorgeführt. FarCry 3, Crysis 3, Metro LL, BF3 Multiplayer, Splinter Cell und nun schau dir mal die BF4 Beta an und rechne mal hoch wie die GTX780 da bei takt gleichheit im vergleich zur HD7970GE abgeht.

Bei der Frostbite Engine ist der Vorsprung aber nicht so groß eher so bei 35%

Nahezu bei allen Anfordernden Games rennt der GK110 schon stark davon.
 
Zuletzt bearbeitet:
Bei +38% Rechenleistung und + 11% mehr Bandbreite wird man dank des stärkeren Frontends im schnitt vllt 25 - 30% schneller als die 7970 GE sein - aber nur mit vollen Takt. Was in der Praxis erreicht wird, werden Reviews zeigen.

Ich gehe davon aus, dass der Takt in games eher Richtung 900MHz gehen wird.
Anders als bei Kepler ist das aber kein boost, sondern eher ne drosselung ...
Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Ich vermute das man aber teilweise in bereichen wo der Thaiti noch geschwächelt hat die leistung dann konstanter haben wird und womöglich an die 50% mehr power erreichen wird. Halt bei Games wie Metro LL wo die Tessalation der AMD die luft abschnürt oder bei Crysis 3, FarCry, Splinter Cell und co
Es sei den AMD hat wieder die Bullshit treiber vorm herren ausgepackt :kotz:
 
Zuletzt bearbeitet:
Mit 1000MHz und 37% mehr Einheiten wird man keine 50% schneller sein.
In einigen Games wird Titan vorne liegen und einigen Games wird die R9-290X mal vorne liegen, also gleichstand.
In Multi GPU wird Nvidia mit SLI weiterhin die Nr.1 bleiben, CF ist weiterhin hinten dran.
 
Woher nimmst Du das Wissen, dass SLI auch in Zukunft besser sein wird als Crossfire?
Die Frame-Pacing-Tests mit aktuellen Treibern und die Tatsache, dass zukünftig keine Crossfire-Bridge nötig sein wird, lassen doch hoffen, dass AMD an Lösungen für Multi-GPU-Probleme arbeitet.
 
Bei 50% schneller als HD7970GE wäre man ca. auf höhe der GTX780 welche bei gleichem Takt wirklich nahezu 50% schneller ist.

Wieso vergleichst du bei gleichem Takt?

Ich gehe davon aus, dass man ca 30% mehr Performance erzielt, also knapp über einer Stock Titan.

Duplex schrieb:
In Multi GPU wird Nvidia mit SLI weiterhin die Nr.1 bleiben, CF ist weiterhin hinten dran.

Warum ist CF hinten dran? Der Framepacingtreiber sieht aktuell recht gut aus und die Skalierung ist genausogut wie bei SLI.

Nachteile hast du denke ich bei Directx9 und TRipple Head Monitor, da funktioniert kein Frame Pacing.

Aber generell SLI besser? Da würde ich skeptisch sein, vor allem mit absoluten Aussagen bezüglich der Zukunft.

Powerplay schrieb:
Es sei den AMD hat wieder die Bullshit treiber vorm herren ausgepackt

Ich erinnere mal, dass man die Leistung zu den ersten GCN Treibern nicht nennenswert verbessert hat, das spielte sich ab im Rahmen von ~ 4 bis 5%.
 
Zuletzt bearbeitet:
Ja weil mit das halt interessiert weil PCGH halt mit fixen 864Mhz bei der GTX780 und 837Mhz bei der Titan bencht und sich diese beiden karte mit OC oder besser gesagt durch das ändern des Power Targets sofort bei 1000Mhz einpendeln.
Dann kommt noch hinzu das ich immer auf ergebniss mmit max OC schau und da sau viele GTX780 genauso wie die HD7970 die 1200Mhz machen vergleiche ich es auch so.
Nur bei gleichem Takt kann man sehen was eine GPU wirklich leistet im direkten vergleich.

Würde die R9 290x natürlich im bereich von 2Ghz takten wäre ein solcher vergleich absolut hinfällig und nicht vergleichbar aber da beide GPUs nahezu gleich takten finde ich das man das so schon vergleichen kann.


Bei einigen Games hat man bei GCN schon wirklich viel leistung herausgeholt. Hatte doch zwei davon und manchwar war es wirklich erstaunlich was da für sprünge kammen.
Hauptsache man gibt den Testern auch gute treiber. Finde das AMD da manchmal echt total dumm ist was die Treiber angeht, besonders wenn man sich freut das man z.B. Dead Space mit erzwungendem SSAA zocken kann und nach 3 Monaten will man es mal wieder zocken aber AA geht nicht mehr. Dann bringen sie die möglichkeit profile anzulegen und man kann SSAA für jedes game anpassen aber der nächste treiber lässt AAA oder SSAA nicht mehr im Profil zu so das man es Global erzwingen muss. Das ist einfach lächerlich das sowas passiert und nicht korregiert wird.


EDIT: Mal was anderes ist eigentlich bekannt ob man die Bildqualität verbessert hat oder muss man noch immer mit der schlechteren AF Quali , im vergleich zu NV, leben??
Besonders weil bei AMD schon ein spürbarer leistungsverlust vorhanden war wenn man die bildqualität auf NV Niveau angehoben hat
 
Zuletzt bearbeitet:
Och, bei SLI gibt es schon noch einige Vorteile. AFR-VSync z.B. Oder die SLI-Bits. Solche Möglichkeiten hat man bei AMD leider nicht. Aber es geht ja voran, wer weiß ob sie das nicht auch nachmachen irgendwann.
 
Powerplay schrieb:
Nur bei gleichem Takt kann man sehen was eine GPU wirklich leistet im direkten vergleich.

Nein, das sieht man nicht, ich weiß auch gar nicht wie du darauf kommst, man sieht das was die GPU wirklich leistet in den Standardsettings.

Übrigens testet PCGH die GTX 780 mit 901 mhz und auch das nur, weil der Takt in der Praxis nicht höher ausfällt, bei der Titan klebt man desöfteren auch auf den 837 mhz fest.
 
In einigen Games wird Titan vorne liegen und einigen Games wird die R9-290X mal vorne liegen, also gleichstand.
In Multi GPU wird Nvidia mit SLI weiterhin die Nr.1 bleiben, CF ist weiterhin hinten dran.

Titan mit 1000MHz ist knapp 40% schneller als die 7970GHz. 290X mit 1000MHz hat 30% mehr Rechenleistung und 11% mehr Bandbreite. Ich sehe nicht, dass die 290X auf dem Niveau von Titan ist, wenn beide mit MaxClock laufen.

Anders sieht es aus, wenn die 290X deutlich länger und öfters einen hohen Boost halten kann als Titan und GTX780. Dort verschenkt man bei beiden knapp 10% an Leistung, siehe z.B. GTX780: Nvidia GeForce GTX 780 im Test (Seite 12) - ComputerBase
 
Lustig wird das benchen. Nach welchen Norm man das wohl machen soll...

Am gerechtesten wäre es wohl, wenn man sowohl die Kepler-Karten (boost 2.0) und auch die R9 200er mit max boost testen würde.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Ich glaub Mantle ist interessant, das sollte es ja für jedes Game geben wegen PS4/Xbone
 
Nein, das sieht man nicht, ich weiß auch gar nicht wie du darauf kommst, man sieht das was die GPU wirklich leistet in den Standardsettings.

Übrigens testet PCGH die GTX 780 mit 901 mhz und auch das nur, weil der Takt in der Praxis nicht höher ausfällt, bei der Titan klebt man desöfteren auch auf den 837 mhz fest.

Also bei mir hat die GTX ohne zu tun meinerseits die 901Mhz nicht gehalten. Das ging nahezu immer auf 864Mhz runter.
wenn ich allerdings nur die lüfter kurve etwas angepasst habe hat sie fast immer die 1006Mhz gehalten ohne dabei groß lauter zu werden


Ich glaub Mantle ist interessant, das sollte es ja für jedes Game geben wegen PS4/Xbone
1++++ Absolut weil das wäre mal ne sehr gute sache ;) Wobei ich es sogar nochbesser finden würde wenn es da einen LowLevel API standart geben würde
 
Zuletzt bearbeitet:
Lustig wird das benchen. Nach welchen Norm man das wohl machen soll...

Am gerechtesten wäre es wohl, wenn man sowohl die Kepler-Karten (boost 2.0) und auch die R9 200er mit max boost testen würde.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App

Sehe ich nicht so.

Auf den max. Boost haben viel zu viele Zufallsfaktoren Einfluss. Baseclock und ab die Luzie...das sind dann die "gerechtesten" Tests.
 
Richtig. Es gibt bei AMD keinen Baseclock mehr.
Und die Zufallsfaktoren haben einen vernachlässigbaren Einfluss. Da macht u.U. die Spieleauswahl mehr aus.

Standardeinstellungen
Maximaleinstellungen

Beides sollte getestet werden, dann kann sich jeder "sein" Ergebnis aussuchen.
 
Jup dann testet man die karten so wie sie original ausgeliefert werden! einfach einbauen treiber installieren und los gehts. Dann schickt NV ne Karte mit Asic von 50% welche absolut keine hitze bekommt und sie taktet immer bei über 950Mhz... Kaufste dann diese karte läuft sie bei Crysis 3 dann nie über 864Mhz lol
 
Naja, es ist ziemlich offensichtlich, wie die Tests ablaufen werden.

AMD muss einfach nur länger den Boost halten und schon gewinnen sie. Bei PCGH und HT4U natürlich deutlicher, weil die die GTX780 und Titan Karten erstmal auf einen Takt fixieren, der deutlich unter MaxClock ist...

Jup dann testet man die karten so wie sie original ausgeliefert werden! einfach einbauen treiber installieren und los gehts. Dann schickt NV ne Karte mit Asic von 50% welche absolut keine hitze bekommt und sie taktet immer bei über 950Mhz... Kaufste dann diese karte läuft sie bei Crysis 3 dann nie über 864Mhz lol

Bei den GTX780 Karten gibt es ja genug custom designs, die dann schonmal fast 15% schneller sind. Werden aber bestimmt von den Reviewer ignoriert. :lol:
 
Zuletzt bearbeitet:
@sontin
die werden die R9 mit sicherheit auch fixen nur auf welchen wert?? --> kommt halt drauf an was AMD oder NV Zahlt :shot:
 
Richtig - AMD gibt keinen basis-Takt an. Ergo kann man diese auch nicht vergleichen.

Es kann also vorkommen, dass eine R9 290X in der Praxis mit deutlich weniger als die 1000 MHz taktet (bsp. mit nur 750 MHz und somit kaum schneller als die 7970 GE agiert).

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Naja die wird bestimmt nen minimal taktung haben was man mit furmark schnell herausfinden wird
 
Jup dann testet man die karten so wie sie original ausgeliefert werden! einfach einbauen treiber installieren und los gehts. Dann schickt NV ne Karte mit Asic von 50% welche absolut keine hitze bekommt und sie taktet immer bei über 950Mhz... Kaufste dann diese karte läuft sie bei Crysis 3 dann nie über 864Mhz lol

Genau!

Und um das auszuschließen, sollten am besten keine vom Hersteller verschickten und möglicherweise handselektierten Testsamples verwendet werden.

Das wird möglicherweise die Testredakteure in den einschlägigen Testmagazinen traurig stimmen, macht aber nix, wenn dadurch die Objektivität optimiert wird.
 
Naja, wenn man als AMD 6 Monate Zeit hat Boost 2.0 zu analysieren, dann sollte man wirklich keine Probleme haben mindesten auf Titan Niveau zu sein.
Dazu muss man doch nur ein TDP Limit von 250W als primäres Ziel festlegen und die Kühlung darauf auslegen, 85-90°C bei "angenehmer" Lautstärke zu erreichen. Schon rennt meine Karte wahrlich >90% mit MaxClock durch die Gegend und ist wohl mindesten auf Titan-Niveau, wenn nicht schneller.

/edit: Hier gibt es einen Firestrike Extreme Screenshot: http://videocardz.com/46407/amd-radeon-r9-290x-290x-specifications-confirmed-leaked-slide

Leicht über GTX780 Niveau: http://hexus.net/tech/reviews/graphics/55445-nvidia-geforce-gtx-780/?page=4
 
Zuletzt bearbeitet:
Firestrike hat doch auch sau viel Tessalation und da ist NV halt klar besser weil 5units und die R9 nur 4
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh