Weitere Eckdaten zur AMD Radeon R9 390X

geht mir nicht anders!
Ich will unbedingt endlich 8k shader in meinem PC.... 8K!!!!!!elf111elfelf

Das wird so unfassbar geil, Witcher 3 in 4k Downsampling...
AMD bitte, erhöre uns und bring endlich ein Titan Killer :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn bei Intel noch kaum was von Skylake zu sehen ist, weil sie noch am Softwaresupport arbeiten sollen, vor allem am ICC, dann ist das natürlich plausibel. Wenn aber bei AMD noch an den Treibern einer neuen Generation gefeilt werden soll, dann ist das Unfug? Worauf basiert denn diese Erkenntnis?


Es geht ja auch vielmehr um den Chip. In der Titan X werkelt der gleiche Chip wie in der Quadro M6000. Und letztere ist nicht für Gamer gedacht. Nvidia hält immer noch einen vergleichsweise grossen Anteil im professionellen Markt, auch wenn sie da in den letzten Jahren recht viel verloren haben. Wenn sie ihre Chips nur noch auf Gaming trimmen, was seit Kepler auffällig wird, dann werden sie im professionellen Markt noch viel mehr verlieren. AMDs Computing Dominanz ist nicht zu übersehen. Und auch Intel macht mit Xeon Phi deutliche Fortschritte.



1. Bei Intel ist das auch Unfug! Wenn die Treiber jetzt noch optimiert werden müssen, so sehr das man deswegen noch nicht released stimmt etwas aber ganz gewaltig nicht! Egal welches Unternehmen. Nicht gleich bei allen einen Farbenblindheit vermuten, bitte. ;)
2. Wen interessiert die Quadro M6000 jetzt hier. Mich nicht die Bohne, weil die für mich hiermit nichts zu tun hat.

- - - Updated - - -

man ist also bei computerbase schon "informiert" - hmm dann sollte sich doch wirklich mal was tun - ich bin nur immer noch skeptisch wie man mit dem Kühler bis zu 300 Watt Verlustleistung abführen will ( leise )

ob sich doch zum GTA Release oder knapp danach etwas tut - macht mir keine falschen Hoffnungen ;)

Der Kühler ist nicht wirklich kleiner als der, der 290X von XFX, aber das Design ist schlechter, mMn.
 
Wir können nicht davon ausgehend ass die R9 390 allzu günstig wird.. ich schätze nen EInführungspreis von mindestens auf R9 290X Niveau.
Daher gibt es keinen grund am Kühler zu sparen.

Die Hoffnung dass AMD auch einen Effizienz Sprung schafft, steigt deutlich ;)
 
Das ist doch kein "Adaptive Sync," da wird einfach die Bildwiederholrate gesenkt.

@ Übermir

Wie kommst du auf 30FPS? Mach' doch das AA aus, das brauchst du doch eh nicht bei 4K. Ich spiele zwar nur BF3, aber 4 hat doch keine wirklich höheren Anforderungen. BF3 läuft bei mir mit 60FPS.

@ mustrum

Nö, ich habe selbst ein 4K Display und spiele nie unter 60 FPS. Das Problem an den Tests ist, dass da immer mit AA und "alles auf Ultra" getestet wird. Die Tests sind praktisch wertlos.
Du bist wohl einer der Spieler, der immer alle Regler nach "rechts" schieben muss, quasi als Automatismus, aber auch nicht so richtig weiß, was die Einstellungen bewirken und ob sie überhaupt sichtbare Verbesserungen liefern.

Wenn du behauptest "4K ginge nicht" bist du einfach ignorant.



Es geht einfach um die Frage: Welche Einstellung siehst du überhaupt tatsächlich auf deinem Bildschirm? Es ist ja nicht so, als gäbe es nur "alles maxed" oder "alles low," nein, dazwischen kann man an vielen Reglern getrennt rumspielen.
Dann noch der andere Punkt: Durch die Größe (32") und die Auflösung ist das Spielgefühl einfach viel besser als auf FHD und 24". So zumindest mein Empfinden. Die niedrigeren Einstellungen werden gut wett gemacht durch das "4K-Erlebnis."

Ich verzichte auch nicht auf gute Bildqualität (also Schatten, Texturen) und auch nicht auf AF, aber AA kann ich vollständig ausschalten, da mir Aliasing nicht mehr auffällt auf 4K (zumindest bei 32", bei 40" sieht das anders aus).
Und dann die Frage: Muss es "Ultra" sein, reicht nicht vielleicht "High?" Sieht man überhaupt einen Unterschied?
Dauert zwar, seine perfekten Einstellungen zu finden, aber von "low" und "Pixelmatsch" ist das Ergebnis dann meilenweit entfernt.

Ich habe dank meiner drei Bildschirme seit dem Release der R290 an den Details schrauben müssen bis ich mir eine zweite angeschafft habe und eines habe ich daraus gelernt.
Bei hoher Auflösung bringt das nur sehr begrenzt was. Wenn du von unspielbar zu spielbar kommen willst müssen oft entweder Schatten oder ambient occlusion weg. Nur an der Texturqualitätsschraube/Effekte zu drehen hilft selten was. Von AA reden wir erst mal gar nicht, alles über FXAA,SMAA kannst du so oder so vergessen.

Wenn ich eine Highend Grafikkarte kaufe und einen teuren Monitor (oder drei) dazu dann will ich nicht auf Details verzichten müssen. Details High oder Ultra macht selten einen optischen Unterschied aber wenn du der Meinung bist, dass deine 980er für alle aktuellen Spiele in 4k mit leicht reduzierten Details mit guten FPS ausreicht, dann beglückwünsche ich dich zu deiner außergewöhlichen Karte.
 
dünner ist der aber sicher, zumindest wenn man mit den fotos auf der xfx hp von einer entsprechenden 290er ausgeht.

Sehen doch beide vergleichbar aus, nur anderes Design... Beide Dualslot und nach oben leicht über das PCB hinaus gehend... Oder habe ich gerade etwa einen Kinck in der Optik:)

- - - Updated - - -

Wir können nicht davon ausgehend ass die R9 390 allzu günstig wird.. ich schätze nen EInführungspreis von mindestens auf R9 290X Niveau.
Daher gibt es keinen grund am Kühler zu sparen.

Die Hoffnung dass AMD auch einen Effizienz Sprung schafft, steigt deutlich ;)

Alleine wegen dem schlechten Euro Kurs schon, ist zu erwarten das die normale 390 schon über dem damaligen Einführungspreis der 290X liegen wird.

Und zur Effizienzsteigerung, da der Kühler einem normalen Dualslot Design entspricht sehe ich noch nicht, warum das für einen deutlichen Unterschied bei der Effizienz sprechen sollte.
Ich würde eher max einen Unterschied, wie damals bei der 480 und 580 erwarten. Also meinen Informationen zu Folge rund 10% bei gleicher Leistung, bzw. rund 10% mehr Leistung bei gleichem Verbrauch. (Grob)

Zu 4K und eine 980... Also natürlich sieht man AA noch. Beim flüchtigen überfliegen von Vergleichsbildern, also auf dem Monitor nicht stark vergrößert für einen Test, fällt mir sogar in fullHD Fast nichts auf. Aber das ganze Bild wirkt auch in Bewegung ruhiger, viel weniger Kantenflimmern.
Klar, ist der Verlust von AA verkraftbar. Aber wer in fullHD AA nützlich findet, der will es auch in 4K nutzen.
Und bei den wirklich hübschen Titeln reicht auch das AA Deaktivieren nicht mal absatzweise. BF4 und Crysis3 z.B., da kannst du alle Detail mal nur auf hoch stellen und AA komplett deaktivieren und kommst trotzdem nicht in die Nähe von 60min Fps. Szenenabhängig natürlich, aber wenn dann soll es ja auch das ganze Spiel lang flüssig sein.
 
Zuletzt bearbeitet:
ganz klar ein knick in der optik... ;)

hmm, verglichen mit der normalen 290er auf deren hp, fehlt halt dieses schwarze zwischenstück, was das ganze ca. 0.5cm dünner scheinen lässt. evtl. sind aber auch einfach andere grössenverhältnisse schuld an meinem knick. :bigok:


aber aktuell spricht ja nicht mehr viel für die echtheit dieses screens.

contra
- gleiches pcb wie vorgänger (zumindest der sichtbare teil.)
- anderes XFX logo also sonst üblich
- logo schräg aufgedruckt


pro
"ComputerBase kann die Legitimität der Aufnahmen auf Basis eigener Informationen bestätigen."
 
Bin mal gespannt wieviele Shader die Non-XT so haben wird, ich denke ja so 3072-3442 rum.
 
Ich finde es generell noch erstaunlich ruhig um genau Informationen zu den Karten.
 
vor der Titan X Vorstellung wars auch ruhig
 
Bzgl. den Lüfterinterpretationen der abgebildeten Karte: Hinsichtlich "leisen" Kühllösungen wandel ich mittlerweile auf einem Grat. Solange die Karte(n) Idle leise sind, ist das spitze und mMn auch sinnvoll und wünschenswert. Aber unter Last? Wann habe ich meine R290X unter Last? Wenn ich Games über den Plasma flimmern lasse. Dann jedoch sprechen meine Lautsprecher eine deutlichere Sprache als der Lüfter. Also merke ich davon nichts. Sicher gibts auch hier Grenzen, jedoch mMn nicht so strikt zu setzen, wie von manch anderem bei diesem Thema gefordert.
 
Oder aber jeder setzt diese Grenzen für sich selbst! :)
Klar darf ein Rechner unter Last auch hörbar sein. Jedoch wenn ich den unter meinen Kopfhörern höre ist schluss. Außerdem wuselt auch immer meine Frau irgendwo in der gegend rum, die sich stets beschwert ;). Selbst wenn ich noch nichts höre...
 
jaja, frauen und geräusche... meine hat immer das gefühl, dass ich viel zu laut musik höre. hab ihr sicher schon 3 mal probiert zu erklären, dass es bei offenen kopfhörern normal ist, dass man ausserhalb noch soviel hört.
glaube aber, dass sie immer noch nicht überzeugt ist. :stupid::fresse:
 
Wann habe ich meine R290X unter Last? Wenn ich Games über den Plasma flimmern lasse. Dann jedoch sprechen meine Lautsprecher eine deutlichere Sprache als der Lüfter. Also merke ich davon nichts. Sicher gibts auch hier Grenzen, jedoch mMn nicht so strikt zu setzen, wie von manch anderem bei diesem Thema gefordert.
Ich brauche auch keine extreme leise Karte, aber die Lautstärke ist mir trotzdem wichtig.
Erstens spiele ich auch Spiele die ich mit kaum Ton spiele, aktuell z.B Cities Skylines und zweitens wohne ich in einer Mietwohnung und kann abends nicht laut spielen, hab keine Lust die ganze Zeit die Lüfter nebenbei zu hören.

Für mich sind die Zeiten des lauten Desktop-PC einfach vorbei, CPU-Kühlung ist inzwischen auch mit Luft sehr leise, warum soll ich mir dann eine GraKa als Krachmacher ins Gehäuse einbauen?
Vielleicht bin ich auch einfach schon zu alt :wink:
 
Es ist einfach nur noch zum Kotzen, da will man schon AMD sein Geld geben und dann kommen die nicht raus aus ihrem loch. Treiberproblem also, wie lange ist das schon bekannt? Man weiß ja angeblich schon das die Karten im Juni auf den Markt kommen, das heißt also man kann jetzt schon sagen das die Treiberprobleme bis dahin ausgemerzt sind? Hört sich für mich sehr Kurios an. Dann kommt die R9 390X erst im Herbst raus und bis dahin warte ich sicher nicht mehr.
 
Was heißt Treiberproblem... Man überarbeitet gerade die Treiber grundsätzlich & da kommt die Einführung etwas zur unrechten Zeit.
 
Treiber hin Treiber her, Witcher 3 steht in den Startlöchern und ist neben Metal Gear:Phantom Pain vlt. einer der Verkaufsargumente für eine neue Grafikkarte dieses Jahr. Wenn also bis zum 19. Mai bzw. Anfang Juni nichts von AMD kommt dann werde ich danahc auch nichts mehr brauchen weil ich ne neue nvidia habe um wenigstens zocken zu können.
 
Ich sehe das Problem nicht. Die Spiele werden auch so laufen.
 
Was heißt Treiberproblem... Man überarbeitet gerade die Treiber grundsätzlich & da kommt die Einführung etwas zur unrechten Zeit.
Die Treibergeschichte ist in meinen Augen Mumpitz. Du glaubst doch nicht ernsthaft dass sie einen Launch verzögern weil sie gerade eine auch ein bisschen Treiber überarbeiten.

Die neuen Karten bauen genauso auf GCN auf, also braucht man nichts spezielles optimieren.
Und grundsätzlich optimiert hat AMD im Jänner mit dem Omega-Treiber, seit dem gab es keine einzige Release-Version mehr.
 
Zuletzt bearbeitet:
Treiber hin Treiber her, Witcher 3 steht in den Startlöchern und ist neben Metal Gear:Phantom Pain vlt. einer der Verkaufsargumente für eine neue Grafikkarte dieses Jahr. Wenn also bis zum 19. Mai bzw. Anfang Juni nichts von AMD kommt dann werde ich danahc auch nichts mehr brauchen weil ich ne neue nvidia habe um wenigstens zocken zu können.

So ist es, und jetzt kann man sich Nvidias GTX 970 kaufen und The Witcher 3 dazu bekommen, ich will aber keine GTX 970 und auch keine überteuerte GTX 980. Das AMD nur noch an dem Treiber arbeitet halte ich genauso für Mumpitz, was auch immer AMD dazu treibt so lange zu warten, ich hoffe das sich das rechtfertigt. Die Geduld so lange auf die Probe zu stellen:wall: , werde sicher einer von den sein die nicht so viel Geduld haben, leider.
 
Die Treibergeschichte ist in meinen Augen Mumpitz. Du glaubst doch nicht ernsthaft dass sie einen Launch verzögern weil sie gerade eine auch ein bisschen Treiber überarbeiten.

Die neuen Karten bauen genauso auf GCN auf, also braucht man nichts spezielles optimieren.
Und grundsätzlich optimiert hat AMD im Jänner mit dem Omega-Treiber, seit dem gab es keine einzige Release-Version mehr.

So sehr Mumpitz ist es gar nicht. Wir entwickeln ihn ja nicht. Aber komplex wird es genug sein, wenn es viele Baustellen gibt. Was im Januar war, war auch nur ein Teil. Du glaubst doch nicht, dass die wegen VSR, Freesync und der neuen Grafikkartengeneration so lange brauchen. Da muss es schon um mehr gehen.
 
Zuletzt bearbeitet:
Die Treibergeschichte ist in meinen Augen Mumpitz. Du glaubst doch nicht ernsthaft dass sie einen Launch verzögern weil sie gerade eine auch ein bisschen Treiber überarbeiten.

Die neuen Karten bauen genauso auf GCN auf, also braucht man nichts spezielles optimieren.
Und grundsätzlich optimiert hat AMD im Jänner mit dem Omega-Treiber, seit dem gab es keine einzige Release-Version mehr.

Ist doch schon ein Indiz, dass sie an den Treibern werkeln ;)
GCN ist nicht gleich GCN. Ein wenig mehr einlesen in die Materie.

LG Oze
 
Ist doch schon ein Indiz, dass sie an den Treibern werkeln ;)

Das heist aber im Grunde absolut nix -> wie viele Treiber mit WHQL, also offizielle Releases gabs noch gleich letztes Jahr von AMD?
-> dürften wohl ganze 2-3 gewesen sein.

Ich persönlich glaube auch nicht an die Treibergeschichte ;) Allerdings könnte ich mir bspw. Zusammenhänge mit dem HBM Speicher vorstellen.
Jetzt, da AMD zu quasi 100% weis, dass der GM200 "TI" Ableger von NV mit 6GB GDDR5 kommen wird, könnte man nicht nur die WCE Edition mit 8GB versuchen zu vertreiben, sondern womöglich auch die kleineren Ableger... Und die 8GB sind/waren wie schon oft gesagt, im Grunde so nicht angedacht seitens Hynix, sondern es sollte wohl erst mit HBMv2 eine 8GB Version geben.
Eventuell (so meine Denke), schiebt sich der ganze Spaß einfach nach hinten, weil man auf die 8GB Version wartet...

Auch AMD lernt über die Jahre dazu -> sie verhauten fast jeden Release ihrer letzten HighEnd Grafikkarten, nicht durch die Hardware selbst, sondern eher durch Randerscheinungen -> die dann wie der dunkle Schatten über dem Fazit des jeweiligen Releaseartikels schwebte... Vielleicht WILL man diesmal alles richtig machen ;) Dann kommen ein paar Wochen/Monate länger schon hin. Vor allem auch, da der GM200 jetzt aus dem Sack ist. So oder so kann sich Jeder ausmalen, dass der GM200 als "TI" Ableger mit 6GB kommen wird. Und in Sachen Leistung irgendwo im Bereich 10-15% +- TitanX stehen wird. Zeitlich ist der Zug abgefahren, ggü. dem am Markt verfügbaren zu zeigen, was mittlerweile geht, die Lorbeeren hat die TitanX eingestrichen. Mittlerweile wird doch von der Masse sogar erwartet, dass die Fiji XT GPU im Vollausbau wenigstens die TitanX um einige Prozentpunkte schlägt. Und dieses Argument bekräftigt man mit dem Zeitraum zwischen den Releases. Wer später kommt MUSS schneller sein, so denken zumindest viele. Es wird also für AMD nicht einfacher ;)
 
Ich habe eher die Angst vor einer Luftnummer von AMD. 4GB/8GB hin oder her, ich wüsste nicht was AMD davon abhält 4GB Low/Midrange Karten als Konkurrenz zur 960/970 auf den Markt zu werfen. Ich befürchte das AMD auch nicht zaubern kann und die Leute vielleicht enttäuscht sind welche Wunder erwartet haben. Vielleicht hat AMD Angst das wenn man die Leistung des Low/Mid Segments auf den Vollausbau extrapoliert ein böses erwachen gibt und die Karte schon vor Erscheinen als gescheitert betrachtet wird. Gibt ja kein Gesetz was einen zwingt den Vollausbau zuerst zu bringen.
Den sollte so eine Situation eintreten wäre AMD im Zugzwang das Gegenteil zu beweisen oder jene welche die Füsse still gehalten haben rennen zu nvidia bevor AMD überhaupt das High Segment veröffentlicht hat.
 
Zuletzt bearbeitet:
Wann hat Nvidia die neuen Karten raus gebracht? War das nicht im September? Da kamen GTX 960 - GTX 970 - GTX 980 - Titan X, von AMD kam bisher nicht wirklich was neues, außer Gerüchten um Treiberprobleme, HBM Speicher läuft noch nicht, was auch immer. Das ist sehr frustrierend. Mich regt es nur deswegen so auf weil ich Akutell eine neue Karte brauche und dieses Warten macht mich irre :heul:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh