Finale Spezifikationen der Radeon R9 290X und R9 290 (Update)

Weil der Boost temperaturabhängig ist und wir noch nicht wissen, welche Taktraten im längeren Betrieb so anliegen. Genauso hätte ich "x MHz" hinschreiben können.

Das sollte dann aber auch bei gleichen Bedinungen im Test (sprich gleiche Umgebungstemperatur, bzw. Gehäuseinnenraumtemperatur) auch für alle anderen Boost (V1 und V2) GPUs bei NV gelten :wink:
Falls du das gemeint haben solltest -> auch gut :fresse: mich verwunderte nur das avg. MHz bei den NV GPUs...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum macht ihr eigentlich soviel Gedanken wegen Boost??

Mein größte sorgen ist das ich mit der Karte keine 144Hz Spielen kann die 7970 hatten Probleme mit der Hz Zahl. Das wäre für mich KO Kriterium. Die Karte würde sofort zurück gehen ohne wenn und aber.

DON @ Stegan kann die R9 auch die 144Hz stämen bitte im Test mit aufnehmen DANKE

Sicher kann sie das, hatte mit meiner 7970 nie Probleme 120/144Hz zu fahren, da gabs damals wohl mal kurz Probleme auf dem Desktop mit flackern, mehr aber nicht...

Grüße
Sharie
 
Ob die 210W in Spielen dann auch so vorhanden sind oder ob sich dies eher auf Furmark&Co bezieht, keine Ahnung. Ich denke, effizienzmäßig wird es zwischen Hawaii und GK110 keine sonderlichen Unterschiede geben.

Macht kein Sinn die Aussage.
Entweder throttelt AMD anhand der Temperatur oder des Stromverbrauchs. Im ersten Fall läuft es wie bei nVidia, dass man 80°C immer hält und im zweiten Fall wird man überall den selben Verbrauch aufweisen, also auch in Spielen.
 
Das sollte dann aber auch bei gleichen Bedinungen im Test (sprich gleiche Umgebungstemperatur, bzw. Gehäuseinnenraumtemperatur) auch für alle anderen Boost (V1 und V2) GPUs bei NV gelten :wink:
Falls du das gemeint haben solltest -> auch gut :fresse: mich verwunderte nur das avg. MHz bei den NV GPUs...

Es ist doch nur eine Prognose, die man nunmal an irgendwelchen Taktraten festmachen muss.
Bei der Testmethodik würde ich mich wie gesagt nicht zwingend auf einen bestimmten Zustand festlegen, sondern zeitgemäß endlich mal von der Vorstellung von nur einem Takt/Arbeitspunkt abrücken. Ich kann's nicht mehr lesen, ehrlich. Der eine Spieler wohnt in Norwegen, der andere in Südafrika. Der eine hat ne "heisse" Kiste, der andere hat gute Belüftung. Der eine mags laut, der andere leise usw usf.

Macht kein Sinn die Aussage.
Entweder throttelt AMD anhand der Temperatur oder des Stromverbrauchs. Im ersten Fall läuft es wie bei nVidia, dass man 80°C immer hält und im zweiten Fall wird man überall den selben Verbrauch aufweisen, also auch in Spielen.

Im Dauerbetrieb wird die Temperatur das (gemittelte) Limit sein (die Maximaltaktspitzen werden aber sicher hier und da wegen Powerbegrenzung abgeschnitten). Aber: Der Grenzwert wird nicht bei 80°C liegen, sondern deutlich höher. Dass man hier bis auf kurze Eingriffe automatisch auch an das Powerlimit stößt, ist nicht gesagt.
 
Zuletzt bearbeitet:
Es ist doch nur eine Prognose, die man nunmal an irgendwelchen Taktraten festmachen muss.
Bei der Testmethodik würde ich mich wie gesagt nicht zwingend auf einen bestimmten Zustand festlegen, sondern zeitgemäß endlich mal von der Vorstellung von nur einem Takt/Arbeitspunkt abrücken. Ich kann's nicht mehr lesen, ehrlich. Der eine Spieler wohnt in Norwegen, der andere in Südafrika. Der eine hat ne "heisse" Kiste, der andere hat gute Belüftung. Der eine mags laut, der andere leise usw usf.

Deswegen sag ich ja, den Takt ganz außen vor lassen und die Dinger unter möglichst gleichen Testbedinungen durch die Tests prügeln. Was dann eben die Umgebungstemperatur ebenso beinhaltet wie beispielsweise den Luftstrom durch irgendwelche Gehäuselüfter usw.
Die Rahmenbedinungen sollten dann natürlich auch genannt werden... (wurde ja so zum Teil schon bei den Boost V2 Reviews so gehalten) und dann sollte auch die Vergleichbarkeit passen...

Um auf das "Vorheizen" zurück zu kommen, das sollte folglich dann auch bei beiden Herstellern erfolgen, kann aber bei den GPUs weggelassen werden, wo nachweislich keine Temperaturabhängigkeit vorhanden ist...
 
Und ich meine eben, es darf nicht nur ein Set von Testbedingungen geben, sondern mindestens zwei. So wie Computerbase das gemacht hat, fand ich es sehr gut. Man wusste, was man "out of the box" kriegt, aber auch, was man im Optimalfall kriegt. Sowas sollte man bei jeder Karte machen und beide Werte in die Ratings mit aufnehmen, z.B. per Mouse-over.
 
Die 290 wird schon schneller als die 780, da bin ich ziemlich sicher. Mehr SPs, mehr Takt, mehr Bandbreite...eigentlich mehr alles. Ist nur die Frage, wie der Turbo agiert.

Sowas liest sich immer gut. Die Frage ist aber wie es sich letztendlich ingame niederschlägt... darauf kommt es doch an !! (Wenn man kein prof. "Benchmarker" ist)
 
Pure Verzweiflung weisste noch Lovi? :d AMD hat sowas garnicht nötig. Da hast du es :P

Stimmt da war ja was... :lol:
Erst über AMDs spiele Bundel herziehen und sagen das man es nicht nötig hat und nun was ganz anderes behaupten :shot:
 
Nun gut, die R9 280X ist für einen angepeilten Preis und Lieferbarkeit ab Freitag wirklich heiss, vor Allem die Custom Versionen inkl. OC um die 1000 bis 1050 GPU Takt und noch Boost.
Die XFX Double sieht echt sexy und verdammt gut aus.

Aber was bewirkt der niedrige Preis,- für diese in einer Woche nur mehr Midrange Karten :-(
Entweder wird R9 290X echt nicht recht viel schneller so um die 15 bis max. 20% gegenüber der R9 280X und dafür unter 400 Euro, wennicht nur gute 350+
Oder aber auch jene Karte wird mindestens 25% schneller als die 280X /Stock 850/1000) dann sollte sich auch ein Preis des Referenz Design um etwa 450 bis 480 Euro ausgehen,
Custommodelle, falls erlaubt etwas über 500 Euro

Es ist alles drinnen, so auch bei mir:
Steige von meiner Sapphire HD7950 @1050 Mhz und Keine Boost Karte womöglich gar auf R9 280X mit mindestens 1100/1150 Boost oder gar R9 290 falls der Preis passt um...
Möchte maximal 400 Euro ausgeben, mehr wirklich nicht !!
 
Zuletzt bearbeitet:
Steige von meiner Sapphire HD7950 @1050 Mhz und Keine Boost Karte womöglich gar auf R9 280X mit mindestens 1100/1150 Boost oder gar R9 290 falls der Preis passt um...
Möchte maximal 400 Euro ausgeben, mehr wirklich nicht !!

Wozu? Sehe keinen Sinn darin? Da hättest du gleich zu einer 7970 greifen können. Denn nichts anderes ist ja eine R9 280.
Habe nun meine 7970@1Ghz HerstellerOC seit einem Jahr. Kostenpunkt damals 330€ Neu!

Davon mal ab das du den Unterschied eh kaum spüren wirst. Wenn überhaupt wäre nur die Top-Karte interessant. Aber Jedem das seine.
 
Im Dauerbetrieb wird die Temperatur das (gemittelte) Limit sein (die Maximaltaktspitzen werden aber sicher hier und da wegen Powerbegrenzung abgeschnitten). Aber: Der Grenzwert wird nicht bei 80°C liegen, sondern deutlich höher. Dass man hier bis auf kurze Eingriffe automatisch auch an das Powerlimit stößt, ist nicht gesagt.

Je höher das Temp-Target, umso höher auch der Stromverbrauch.
 
Mit den Specs dürfte selbst die 290 knapp über Titan kommen, die müsste eigentlich rund 25% schneller sein als ne 280x und die 290x packt dann nommal ca 12 bis 14% oben drauf.

Ich tippe auf Titan + 15% für die 290x.

@ Mulit Monitor Sinds wahrscheinlich round about 25%, denn immerhin liegt eine HD 7970ghz da nur magere 12% hinter Titan, siehe CB.
 
Zuletzt bearbeitet:
Ich tippe auf die Leistung einer 780er und je nach Game dann sogar auf Titan Niveau. Wenn das Ding immer mehr Leistung als die Titan hätte, wäre es nicht so "billig".

Auch AMD hat nichts zu verschenken.
 
Zuletzt bearbeitet:
Doch tut es. Der Stromverbrauch wird höher liegen, weil durch das höhere TempTarget man wesentlich öfters höhere Taktraten und Spannungen anliegen hat.

Nein, das sind alles nur relative Angaben. Es sagt nichts darüber aus, wie hoch der Verbrauch bei x °C und y °C ist. Das können 250, 225 oder 200W sein, wir wissen es nicht.
 
Doch tut es. Der Stromverbrauch wird höher liegen, weil durch das höhere TempTarget man wesentlich öfters höhere Taktraten und Spannungen anliegen hat.

Höheres Temptarget, wahrscheinlich höherer Stromverbrauch als mit niedrigerem Temptarget. Mit absolutem Verbrauch hat das nix am Hut, das sind Relationen.
Wenn AMD wie bei den anderen Karten sogut wie immer den Maximaltakt anliegen hat, dann find ich das super, weil mir die Boost hin und her Takterei auf die Nüsse geht und auch das Testen erschwert.

PS: Passen 64Rops nicht viel besser zu 3072 Shadern??
 
also wenn das wirklich stimmen sollte mit den 64ROPs und 2816 shadern wird das ding auf jeden fall ne echte rakete werden und sollte eigentlich in den seltensten fällen wirklich langsamer sein als ne Titan.
Wenn der Boost auch meist in regionen von 950-1000Mhz rennt sollte man klar die schnellste karte am markt haben.
Eine 900Mhz R9 290x sollte dann auch in etwa so schnell sein wie eine GTX780@1100Mhz fals meine rechnung so auf geht
 
Nein, das sind alles nur relative Angaben. Es sagt nichts darüber aus, wie hoch der Verbrauch bei x °C und y °C ist. Das können 250, 225 oder 200W sein, wir wissen es nicht.

Natürlich. Eine GTX780 verbraucht soviel wie eine GTX770. Wenn bei AMD ein höherer Takt und somit eine höhere Spannung anliegt, wird der Verbrauch auch höher sein. Das hat nichts mit Relationen zu tun.
 
Zuletzt bearbeitet:
@power: jup, das sollte in etwa so hinkommen! Hatten ja auch n bisschen mehr Zeit für. Wenn das die benches ebenso wiedergeben was abzuwarten bleibt hat amd nen wirklich heißes eisen (mantle nicht zu vergessen und der konsolenmarkt im allgemeinen;)). Ich für meinen Teil freu mich schon drauf. Nach der 5870er (7970er nur bedingt) mal hoffentlich wieder nen geiles Kärtchen seitens der Roten!!
 
Zuletzt bearbeitet:
Natürlich. Eine GTX780 verbraucht soviel wie eine GTX770. Wenn bei AMD ein höherer Takt und somit eine höhere Spannung anliegt, wird der Verbrauch auch höher sein. Das hat nichts mit Relationen zu tun.

Du verstehst es immer noch nicht. Du weißt nicht, was Hawaii bei einem bestimmten Takt und einer bestimmten Spannung braucht im Vergleich zu anderen GPUs. Du weißt nichtmal, was für Spannungen AMD für bestimmte Taktraten überhaupt benutzt.
 
Wie sich die Spezifikationen in der Praxis auswirken bleibt trotzdem abzuwarten.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Du verstehst es immer noch nicht. Du weißt nicht, was Hawaii bei einem bestimmten Takt und einer bestimmten Spannung braucht im Vergleich zu anderen GPUs. Du weißt nichtmal, was für Spannungen AMD für bestimmte Taktraten überhaupt benutzt.

Natürlich weiß ich es. Man muss sich nur ansehen, was AMD an Spannungen verwendet.

Aber klar, AMD ist sowieso immer besser als nVidia. Die werden also 950MHz+ mit <1,05V schaffen und damit nicht nur schneller als Titan sondern auch stromsparender.

Hype, überall dieser Hype.
 
Die HD7970 war für mich damals wirklich ne super Klasse karte und ich war sehr zu frieden und habe mich auch klar gegen die GTX680 entschieden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh