Weiteres Modell: XFX Radeon RX 590 Fatboy OC+ abgelichtet

Vielleicht ist Fatboy eine Anspielung auch das Gewicht mancher Gamer?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wieso gehen hier alle von nem höheren Verbrauch aus?
Das ist eine Effizienzsteigerung alleine aus dem besseren Fertigungsverfahren, was genau das Gegenteil erwarten lässt.


weil man zusätzlichen raum dazu ausnutzt möglichst viel leistung rauszuholen.

ne rx 580 hat auch mehr leistung als eine 8800gtx und läuft trotzdem in 12. gang.
 
Nee ich denke das ist eher die Anlehnung an die zweite Atombombe. die hatte nämlich auch diesen Spitznamen. Wäre aber ziemlich geschmacklos.

Sorry aber das stimmt so nicht, hatte ich in #31 schon drauf hinge gewiesen.
 
Ich sagte ja auch in Anlehnung .... sozusagen ein Mix aus den Namen der beiden Bomben. Die erste hieß "Little Boy" und die zweite "Fat Man"
 
und der ganze aufwand für eine 590 rentiert sich?
Ein Port von 14LPP auf 12LP lostet ncith viel, wenn man nicht vor hat die GPU auch zu shrinken.

dann muss die 580 aber auch mim preis runter
Die aktuelle RX 580 wird wahrscheinlich eh verschwinden und durch eine neue RX 580 mit Polaris 30 ersetzt werden.

Ich sagte ja auch in Anlehnung .... sozusagen ein Mix aus den Namen der beiden Bomben. Die erste hieß "Little Boy" und die zweite "Fat Man"
Dann warten wir ab, ob noch eine Little Man kommt
 
Ja, wenn die LittleMan dann die Leistung einer RX580 in LowProfile-SingleSlot und ohne PCIe-Stecker bringt, wäre das top ;)
 
Wieso gehen hier alle von nem höheren Verbrauch aus?
Das ist eine Effizienzsteigerung alleine aus dem besseren Fertigungsverfahren, was genau das Gegenteil erwarten lässt.
Hoffentlich kommt es auch so.

Die Fatboy wird wahrscheinlich so heißen weil der Kühler im Vergleich zum Vormodell noch etwas höher wurde.
Und mich stört eben die Implementierung des zusätzlichen 6 Pin PCI-E, denn die 225W des 8 Pin sollten wirklich reichen.

Bei AMD gehen viele Hersteller mMn eben den falschen Weg, die Chips laufen dann immer weit weg vom SweetSpot.

Ich lass mich überraschen, der 15.11 ist ja bald.
Würde mir aber eher eine RX590 mit einem Takt von 1450-1500MHz, bei 10-20% weniger Stromverbrauch wünschen.
 
Nur weil sie einen 6Pin mehr hat, muß sie nicht gleich mehr Verbrauchen.
 
Für eine 590 wird der Chip einer 580 ausgelötet und mit der 590 ersetzt. Deshalb ist der Speicher der selbe.
Hatte ich zuletzt mal irgendwo gelesen, aber erklärt den Speicher.

Nie und Nimmer, wer soll die Kosten für sowas tragen? Da kommen die vermutlich billiger weg "alte" RX580 Karten zum Schleuderpreis zu verkaufen und die RX590 ganz normal auf den Markt zu bringen.
 
Zuletzt bearbeitet:
Ich denke auch der Stromverbrauch wird gleich bleiben. Es reicht schon 1500 statt 1400Mhz Boost Takt um in Balkendiagrammen besser zu sein.
Trotzdem werden die Meisten eine GTX1060 statt RX590 kaufen weil denen der finanzielle Vorteil von FreeSync gegenüber G-Sync unbekannt ist.

Oder aber, und da musst du jetzt unbedingt bei mir bleiben, weil das jetzt wirklich nicht so einfach zu verstehen ist: FAST KEIN SCHWEIN INTERESSIERT SICH FÜR FREESYNC.
Und welche Vorteile hat den FreeSync gegenüber GSync? Da gibt es nur den Preis, abgesehen davon ist GSync überlegen. GSync funktioniert sogar mit den meisten verkauften Grafikkarten, FreeSync nicht..... Und wenn FreeSync so ein tolles "Killerfeature" wäre, wie du es immer hinstellen würdest, würde nVidia das unterstützen oder jeder würde AMD kaufen. Also noch einmal, weil du das sicher schon wieder vergessen hast: FAST KEIN SCHWEIN INTERESSIERT SICH FÜR FREESYNC.
 
Du bist mir direkt richtig Sympathisch...

Ich mag Freesync. xD
 
@Betabrot
Dumm nur das Gsync und FreeSync das Selbe ist, nur das Nvidia ihren proprietären Mist wieder durchdrücken will. GSYNC hat keinerlei vorteile gegenüber Freesync. Es ist teurer, kommt von NVidia und der Chip wird extrem heiß. ;)
Finde es ganz "hell" von dir das du das künstliche Aussperren von Kunden auch noch gut findest und verteidigst. :d Zeugt von Intelligenz.
 
G-Sync (hdr) hat Vorteile gegenüber freesync (2). Irgendwann habe ich was dazu gelesen.
 
@Betabrot
Finde es ganz "hell" von dir das du das künstliche Aussperren von Kunden auch noch gut findest und verteidigst. :d Zeugt von Intelligenz.

Ahja, wo hab ich das den genau gemacht? Wo hab ich den geschrieben, das GSync für die Breite Masse in irgendeiner weiße interessanter ist? Zeugt von extrem viel Intelligenz (um es mit deinen eigenen Worten zu schreiben), so viel nicht geschriebenes in einen Text zu interpretieren...... Für dich gibt es wohl auch nur Schwarz und Weiß?
Auch ist GSync und FreeSync eben nicht genau das selbe, worüber man sich auch ganz einfach informieren könnte, bevor man nonsens schreibt. (und der vorteil von GSync ist auch nur minimal, aber hey, Hauptsache man kann seine eigene "Intelligenz" zeigen).

Also dann schreib ich das mal so, damit es auch jemand von deiner Intelligenz versteht: FAST KEIN SCHWEIN INTERESSIERT SICH FÜR FREESYNC UND ODER GSYNC. (sonst würde es sehr viel mehr GSync Monitore geben)
und wenn das immer noch zu schwer für dich ist: https://imlig.jimdo.com/lernen/deutsch-1/erstlesen/
 
Stimmt, aus deinem Beitrag der Freesync kleingeredet und G-Sync gelobt hat sieht man ganz genau, du hast beide Arten kritisiert. Deswegen wurde ja noch mal der Satz kein Schwein interessiert sich für Freesync geschrieben, weil damit G-Sync mitgemeint ist.

Wenn du also schon Anderen die Intelligenz absprichst, solltest deine Texte auch so schreiben, dass deine Absichten klar werden.

Niemand, der deine Gedanken nicht lesen kann, würde darauf kommen, dass du angeblich beide Syncarten nicht für relevant hältst.


Oder aber, und da musst du jetzt unbedingt bei mir bleiben, weil das jetzt wirklich nicht so einfach zu verstehen ist: FAST KEIN SCHWEIN INTERESSIERT SICH FÜR FREESYNC.
Und welche Vorteile hat den FreeSync gegenüber GSync? Da gibt es nur den Preis, abgesehen davon ist GSync überlegen. GSync funktioniert sogar mit den meisten verkauften Grafikkarten, FreeSync nicht..... Und wenn FreeSync so ein tolles "Killerfeature" wäre, wie du es immer hinstellen würdest, würde nVidia das unterstützen oder jeder würde AMD kaufen. Also noch einmal, weil du das sicher schon wieder vergessen hast: FAST KEIN SCHWEIN INTERESSIERT SICH FÜR FREESYNC.
 
@OiOlli:

Die Fanboys hier mal wieder -.- Nicht in der Lage auch nur einen MM über ihre irrationale Meinung nachzudenken. Gamerkind habt ihr hier wirklich verdient......

Aber zeig mir doch mal genau, wo ich GSync hochgelobt habe (besser als Scheiße heist nicht, das ich von Gold rede). Aber diese Aufforderung hatte ich ja schon geschrieben und gekommen ist ja Fanboymäßig NICHTS, außer weitere Anfeindungen und Beleidigungen. Es tut mir "leid" das ich deine Lieblingsfirma "Beleidigt" habe. Und dann noch von "Intelligenz" daherreden (was ich wie ich schon geschrieben habe "um es in deinen Worten zu schreiben" getan habe - Sprich als "Spiegel", in keinem Wort habe ich mich selbst als "Intelligent" bezeichnet - wie den auch, ich bin ja noch so blöd mit Fanboys zu diskutieren, damit disqualifiziere ich mich ja schon selbst)
 
Zuletzt bearbeitet:
Oder aber, und da musst du jetzt unbedingt bei mir bleiben, weil das jetzt wirklich nicht so einfach zu verstehen ist: FAST KEIN SCHWEIN INTERESSIERT SICH FÜR FREESYNC.
Und welche Vorteile hat den FreeSync gegenüber GSync? Da gibt es nur den Preis, abgesehen davon ist GSync überlegen. GSync funktioniert sogar mit den meisten verkauften Grafikkarten, FreeSync nicht..... Und wenn FreeSync so ein tolles "Killerfeature" wäre, wie du es immer hinstellen würdest, würde nVidia das unterstützen oder jeder würde AMD kaufen. Also noch einmal, weil du das sicher schon wieder vergessen hast: FAST KEIN SCHWEIN INTERESSIERT SICH FÜR FREESYNC.

hatte keine Probleme mit Freesync (noch immer ne urlate r290) - außerdem haben TV´s Freesync support aber ich weis DU und deshalb auch der Rest der Welt nimmt ja keine Konsolen her... geschweige denn einen Media-PC. Da gute Monitore auch so sau billig sind kommt es natürlich auch nicht in Frage dass man Ihn behalten will und es somit ein entscheidendes Argument beim Kauf einer Grafikkarte sein könnte...

edit:
Wenn du außer deinem Ragen und Haten vielleicht noch Argumente bringen würdest.. aber was soll man schon erwarten.

der einzige Nachteil der mir einfällt ist, die geringer FPS Range - z.B. haben manche Monitore nur 45-100 FPS Support (Freesync 1) was "damals" bei Gsync glaub ich größer bzw. weiter ausgefallen ist. Aber mit FreeSync 2 (HDR) etc... hat sich ja auch einiges getan in wieweit Freesync 1 Monitore mit 2er Grafikkarten und andersherum funktionieren bzw. wie es bei Gsync ist weis ich nicht aber bei mir läuft es seit Tag 1 ohne Probleme und ich möchte es nicht mehr missen.
 
Zuletzt bearbeitet:
Da benötigt wohl jemand wieder Streicheleinheiten. :d
FreeSync ist nicht nur das geilste Feature seit es Monitore gibt, nein, es ist sogar kostenlos.
Wohl auch mit ein Grund warum sich G-Sync so schwer verkaufen lässt. Kostet eben eine ganze Stange mehr Geld für schlechtere Latenzen, wie es der CB-Test schreibt.

Dank FreeSync kann man so manche Regler aufdrehen oder gleich die Auflösung erhöhen und dies für lau. :drool:
 
Ne, das geilste Feature war ganz klar 3D-Vision.
Schade, dass die Masse ihm nie eine Chance gegeben hat, sonst wüsste sie es besser. Ich kann ohne Nichts mehr spielen, und 4K, krumme Bildschirme Syncgedönse und lauter solcher Unsinn interessiert mich genau so, als wenn die Glitzersternchen auf dem Rahmen drucken würden.
 
Zuletzt bearbeitet:
Betabrot so viel wie du schlicht und ergreifen nicht richtig zu tippen in der Lage bist, solltest du ganz sicher keine Links zu Seiten posten welche sich mit dem Verständnis einer Sprache beschäftigen..

Der Grund dafür, dass sich nicht all zu viele Menschen für freesync interessieren liegt ein kleines Bisschen auf der Hand. Du bekommst doch bei dutzenden Spielen schon beim Starten ein 'nnnnvidiaaaaa' ins Ohr gehaucht. Und mit dem brutalen Aufpreis, den die Kunden für gsync hinlegen erkaufen die (nvidia) sich eine gewisse Exklusivität - zu unrecht.
Freesync habe ich beim Kauf meines ersten 144Hz Monitors zwar registriert, aber im Prinzip nur zufällig mitgekauft. Für Shooter war mir nur wichtig 144Hz|1ms|27"|FHD. Und günstig sollte es sein. Das hätte mir mit gsync nicht passieren können, die Dinger sind einfach sehr deutlich teurer (oder teurer gewesen, ich weiß nicht wie es heute ist. Zu dem Zeitpunkt des Kaufes war ich quasi daily updated und kannte Marken und Preise).
Jetzt würde ich nicht mehr darauf verzichten wollen. Es gibt Spiele die einem einfach mal um ein paar fps einbrechen können, das sehe ich dann nur per Anzeige und merke es nicht im Handling.

Ich sehe einen deutlichen Unterschied zwischen 'interessiert kein Schwein' und 'die Leute haben halt keine Ahnung'.
Interessanterweise ist es in meinem Umfeld so, dass ALLE Neukäufe (Monitor, 120+Hz) sehr gezielt GEGEN gsync ausgefallen sind weil niemand dieses Marketing supporten wollte/will. Und die haben fast alle nvidia Karten verbaut.

Und nun noch zur RX590:
Auch wenn ich das ganze Drama interessiert verfolge bezweifle ich, dass da was wirklich brauchbares rauskommt. Für Gamer.
Bei der Preisgestaltung bin ich wahnsinnig gespannt!
Am Namen kann ich nichts schlimmes dran finden, aber heutzutage ist ja bei allem was passiert immer irgendeine Minderheit offended und so ist das dann halt.
 
Fanboys, einfach nur noch lächerlich. So viele Anfeindungen und noch keiner hat einen Beleg gebracht, RESPEKT.

Man merkt auch echt, das keiner von euch sich mit Menschen unterhält, die zB einfach nur Gamen und mit solchen Foren wie hier (und generell mit Technik) nichts am Hut haben..... Einfach nur noch lächerlich. Aber schön das man euch Fanboys so einfach "verletzen" kann ;) (da hat ein Taliban ja noch mehr Geduld).
 
Zuletzt bearbeitet:
Für eine 590 wird der Chip einer 580 ausgelötet und mit der 590 ersetzt. Deshalb ist der Speicher der selbe.
Hatte ich zuletzt mal irgendwo gelesen, aber erklärt den Speicher.

Und wie soll das funktionieren bei 200Mhz mehr Boost-Takt und einer anderen Fertigung?
Die RX590 wird einfach noch einen Altvertrag aus der Abnahmemenge mit GloFo darstellen um noch etwas aus der 12nm-Fertigung zu verkaufen bis die 7nm von TSMC anläuft.
 
wenn intel einen amd cou adapter für ihre sockel hinkriegen, schaffen die es auch eine lösung dafür zu finden. aber es würde wenig sinn machen
 
@Sertix
Im Prinzip hast du bei G-Sync nur den Vorteil das die Sync-Range größer ist. Inzwischen sind die Unterschiede da aber auch nicht mehr groß. Aktuelle FreeSync Geräte haben da nur etwas weniger.

@Betabrot

Dann lies mal in ruhe deinen Beitrag #46 durch... ;)
Und dann befolge deinen Link mit "erst lesen" mal Selber.
Und dann lies dich mal ein wie G-Sync bzw. FreeSync funktioniert und du wirst merken das es exakt das Selbe ist! ;) Natürlich kocht NV wieder sein eigenes Süppchen in der Umsetzung und verarscht Kunden mit dem Chip für G-Sync der ja angeblich notwendig sein soll XD
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh