Gerücht: AMD Radeon R9 390X vermutlich mit 4.096 Streamprozessoren

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
W
Übrigens an alle die sagen, dass AMD zu viel Saft braucht. Ihr kauft euch doch eh jedes Jahr oder alle 2 Jahre eine neue Graka! Und es gibt auch einige die dann innerhalb von 6 Monaten einfach noch mal upgraden auf z.b 2x NVIDIA Grakas. Sehr schön, dann gebt ihr mehr Geld aus und heult immer noch rum, dass die AMD Grakas mehr Strom benötigen würden. Denkt vorher mal realistisch!

für mich war nie der peak load wichtig
mich störte nur, das in den letzten Generationen AMD immer im Dual Monitorbetrieb und bei Videowiedergabe massiv mehr brauchte (was hier dauernd läuft) - und wir reden hier von teils 30W und mehr Differenz

ob in nem Spiel die Grafikkarte 150 oder 300W braucht ist mir whane (und im Jahresmittel auch zu vernachlässigen)

Ideal für mich wäre ein funktionierendes Abschalten der dez. VGA bis ein Spiel diese fordert (Rest auf onboard) ... aber alle Ansätze dahin waren nur halbgar und funktionierten schlecht....
Ich wünschte mir, man könnte wie auf Notebooks die aktive VGA wechseln (gern auch manuell per SW Switch)



da ich hoffe, dass die next gen von AMD dann Freesync unterstützt und hoffentlich etwas sparsamer im Idle + Multimonitoring wird warte ich drauf (auch mit dem monitorkauf)

die 9xxer von NVidia waren ein MarketingGAG
 
Zuletzt bearbeitet:
für mich war nie der peak load wichtig
mich störte nur, das in den letzten Generationen AMD immer im Dual Monitorbetrieb und bei Videowiedergabe massiv mehr brauchte (was hier dauernd läuft) - und wir reden hier von teils 30W und mehr Differenz

Ja, das kann man durchaus als Negativpunkt stehen lassen. Problem liegt einfach am Speicher, der auf volle Pulle hochtaktet. Warum AMD das macht, kann ich nicht sagen.

ob in nem Spiel die Grafikkarte 150 oder 300W braucht ist mir whane (und im Jahresmittel auch zu vernachlässigen)

Das Problem ist ja nicht der Stromverbrauch an sich. Es ist vielmehr der Aufwand der Kühlung die benötigt wird, oder manche müssten dann extra ihr Netzteil upgraden.
Der Feind eines jeden µATX/mini-ITX-Systems ist die Leistungsaufnahme der Komponenten. Je weniger um so besser. :)
Wer einen Big-Tower nutzt, dem ist der Kühlaufwand schnuppe.

Ideal für mich wäre ein funktionierendes Abschalten der dez. VGA bis ein Spiel diese fordert (Rest auf onboard) ... aber alle Ansätze dahin waren nur halbgar und funktionierten schlecht....
Ich wünschte mir, man könnte wie auf Notebooks die aktive VGA wechseln (gern auch manuell per SW Switch)

Das Problem ist eben der Videoausgang, der an der Grafikkarte anliegt. Man müsste quasi das interne Signal der iGPU durch die Grafikkarte schleifen können aber dazu ist leider der PCIe nicht ausgelegt. Folglich muss die Grafikkarte immer laufen.
Ich bin sicher, das hätte AMD schon längst so bewerkstelligt, wenn es so einfach wäre. AMD hat schon die Zero-Core-Power Option, wo sich eine Grafikkarte komplett abschaltet im CF.
Mehr ist technisch wohl nicht möglich umzusetzen.

die 9xxer von NVidia waren ein MarketingGAG

Der sich glänzend gut verkauft. ;)
 
Ich bin sicher, das hätte AMD schon längst so bewerkstelligt, wenn es so einfach wäre. AMD hat schon die Zero-Core-Power Option, wo sich eine Grafikkarte komplett abschaltet im CF.
Mehr ist technisch wohl nicht möglich umzusetzen.

Doch ist es. Schau auf den Notebookbereich, wo das Gang und Gebe ist... Die Preisfrage ist eher, warum macht man das im Desktopbereich nicht auch?
Gerade in Verbindung mit Zero Core ergibt das ganze einen tiefgründigen Sinn.
 
Wenn ich mich gerade nicht täusche wurde das mit dem Speicher bei Multi-Monitor doch geändert...
Ich meine zumindest, dass der Speicher bei mir nur mit 150 MHz...
 
Gab es das mit diesem Hydrakrams nicht schon? Wobei ich im Moment so fahre, dass ich 2 der 3 Monitore an die iGPU angeschlossen habe, seit einiger Zeit hat AMD es immerhin geschafft, nicht mehr auch dann hochzutakten, wenn die sekundären Monitore an eine andere Grafikkarte angeschlossen sind :fresse:

- - - Updated - - -

Wenn ich mich gerade nicht täusche wurde das mit dem Speicher bei Multi-Monitor doch geändert...
Ich meine zumindest, dass der Speicher bei mir nur mit 150 MHz...

Meine taktet weiterhin hoch.
 
Wer kauft sich den überhaupt das Ref. Kühldesign einer Grafikkarte? Außerdem gibt es Abseits von schlechten Luftkühlern noch andere Komponenten die Lärm verursachen bspw. billige Spulen. Wenns einem um den Stromverbrauch geht sollte man auch mal den Tatsächlichen Stromverbrauch berücksichtigen und dann einfach mal nachrechnen ab wann sich das amortisiert hat. Dann kommen die mittlerweile ein Jahr alten AMD Karten garnicht so schlecht weg wie immer gerne behauptet wird.
 
Zuletzt bearbeitet:
Wenn der Die deutlich größer als 200mm² wird, was wahrscheinlich ist, kommt der Chip entweder erst 2016(16nm finfet) raus oder er wird extrem teuer.
 
Wenn der Die deutlich größer als 200mm² wird, was wahrscheinlich ist, kommt der Chip entweder erst 2016(16nm finfet) raus oder er wird extrem teuer.
Glaube du bist da fehlinformiert... schon der Tonga Chip in Form der R9 285 der architektonisch wahrscheinlich große ähnlichkeiten mit Fiji haben wird, ist 359mm^2 groß. Dabei ist das nicht annähernd der Vollausbau.
Es stimmt, ein großer Chip macht die Graka teuerer, aber nicht so extrem dass es ein enormer Faktor ist. Wenn der Chip allerdings wie vermutet midnestens 40% mehr Leistung bringt als eine GTX 980, dann wird sich AMD es sicher nicht nehmen lassen, die Graka mindestens in diesen Preisregionen anzusiedeln. Wenn sie diese Leistung nur mit AIO Wakü schafft, dann wird sie zumindest nicht noch teurer, da der Kühlaufwand doch manche abschreckt.

Auf jeden Fall kommt sicher auch eine (vieleicht stärker als früher) beschnittene 390 ohne X, schließlich muss AMD ja auch im etwas gemässigteren High-End Bereich was anbieten.
 
Zuletzt bearbeitet:
Der Preis der Karte wird sich an der Leistung orientieren und nicht an der Größe des Die. Ich geh zum Start auch von um die 500€ aus.

Gesendet von meinem Nexus 4 mit der Hardwareluxx App
 
mich störte nur, das in den letzten Generationen AMD immer im Dual Monitorbetrieb und bei Videowiedergabe massiv mehr brauchte (was hier dauernd läuft) - und wir reden hier von teils 30W und mehr Differenz
Das stimmt so pauschal allerdings nicht. Wenn du ähnliche Monitore verwendest, also mit gleicher Auflösung und gleichen Timings, ist die Leistungsaufnahme im Multimonitorbetrieb vergleichbar. Und die Leistungsaufnahme bei Videowiedergabe ist auch nicht generell höher. Das hängt erstens davon ab, in welchem Format das Video vorliegt, Stichwort Blu-Ray. Und zweitens lässt AMD hier aufwändigere Filter laufen, was eine Vergleichbarkeit nahezu unmöglich macht.
 
Und da sowieso beinahe jede aktuelle Intel CPU unter Gamern ne iGPU hat, kann man den 2. Bildschirm ganz einfach darüber anschließen. Und schon geht die Graka wieder komplett runter als wärs nur ein Monitor.
 

Löse und doch alle mal auf und Präsentiere deine Formel für Chipgröße (ohne Aussage zur Lithografie), wie die den Preis bestimmt...

Klar um so kleiner der Chip umso mehr passen auf einen Wafer, aber es gibt dazu noch 1000 andere Faktoren!

Und 200mm² ist verdammt klein das weißt du?


Du Sagst nichts zu Fertigungsgröße aber Schriebst in den Thread über 200mm² wird erst 2016 oder sehr teuer sein,
wenn jemand dann sagt das Preis nicht zwangsläufig mit der die Größe zu tun hat sagst du "Träum weiter"???

Und 500€ sind für AMDs neue Grafikkarte (Referenzmodell) ein äußerst realistischer Preis, sollte sie die GTX980 wirklich um längen Schlagen!
Die Partner dann wahrscheinlich alle so 50 Euro mehr!


Um mal kurz ein Beispiel zu geben:

HD7970, erste High End GPU mit 28nm also neuer Prozess
Die Größe: 365 mm²

Quelle: Test: AMD Radeon HD 7970
 
Doch ist es. Schau auf den Notebookbereich, wo das Gang und Gebe ist... Die Preisfrage ist eher, warum macht man das im Desktopbereich nicht auch?

Und was hat eine MXM-Schnittstelle mit einer PCIe-Schnittstelle gemeinsam ?
Oder anders ausgedrückt. Notebooks kann man nicht mit Desktops vergleichen. Die Technik ist da anders ausgelegt.
 
Zuletzt bearbeitet:
Wäre schön wenn es diese Technologie auf dür Desktops gäbe, aber offenbar ist technisch mit den aktuellen Standards nicht möglich...
Da können aber die Grakahersteller nichts dafür, denn das Board müsste in der Lage sein, den Output der IGP an den PCI Slot zu liefern.
 
Löse und doch alle mal auf und Präsentiere deine Formel für Chipgröße (ohne Aussage zur Lithografie), wie die den Preis bestimmt...

Klar um so kleiner der Chip umso mehr passen auf einen Wafer, aber es gibt dazu noch 1000 andere Faktoren!

Und 200mm² ist verdammt klein das weißt du?


Du Sagst nichts zu Fertigungsgröße aber Schriebst in den Thread über 200mm² wird erst 2016 oder sehr teuer sein,
wenn jemand dann sagt das Preis nicht zwangsläufig mit der die Größe zu tun hat sagst du "Träum weiter"???

Und 500€ sind für AMDs neue Grafikkarte (Referenzmodell) ein äußerst realistischer Preis, sollte sie die GTX980 wirklich um längen Schlagen!
Die Partner dann wahrscheinlich alle so 50 Euro mehr!


Um mal kurz ein Beispiel zu geben:

HD7970, erste High End GPU mit 28nm also neuer Prozess
Die Größe: 365 mm²

Quelle: Test: AMD Radeon HD 7970
"Wenn der Die deutlich größer als 200mm² wird,"
Lern lesen.
 
Gibts dazu schon zahlen?

Also was benötigt Hawaii aktuell allein durch die GDDR5 Speicheranbindung an (mehr) Strom?


Gibt doch jetzt nur Spekulationen in Form von Zahlen, als wenn hier jemand ne Glaskugel hätte und in Richtung 2015 blicken kann.
Hynix kündigt an und man spekuliert weiter drauf los.
Da taucht ne Datenbank auf die auch von einer Wildsau sein kann und es wird gehypt, bißle PCGH Niveau ?

Aber - Die Sprüche die hier abgelassen werden sind es Wert weiter zu lesen :d
 
Ich schiebe den Rechtschreibradikalismus einfach auf die Uhrzeit und freue mich auf frische und muntere Posts am heutigen Tage...
 
Ja ja was auch immer "Diferenzen" sind....
Wenn du nicht weisst was "deutlich" bedeutet, dann schnapp dir ein Lexikon.
Wenns um größen ~400mm^2 geht, würde ich nicht von deutlich mehr als 200mm^2 sprechen, einfach weil das verwirrend ist!
Das ist stimmt mit dem Lexikon überein :)

Du hast noch nicht gesagt woher du diesen Wert her hast und wie du ihn mit dem Preis in Verbindung setzst.

Da taucht ne Datenbank auf die auch von einer Wildsau sein kann und es wird gehypt, bißle PCGH Niveau ?
In die Bank Daten einzuschleusen ist aber nicht grade einfach, soweit ich weiss. Auf jeden Fall schwerer als einen Screenshot o.ä. zu faken was jemand machen würde der falsche Gerüchte streuen will ;)

Und klar, viele Foren leben auch von Spekulation. Was ist dran falsch?
 
Und was hat eine MXM-Schnittstelle mit einer PCIe-Schnittstelle gemeinsam ?
Oder anders ausgedrückt. Notebooks kann man nicht mit Desktops vergleichen. Die Technik ist da anders ausgelegt.

???
Nimms mir nicht übel. Aber bitte vorher informieren...

Einerseits ist es vollkommen wurscht, ob das GPU Modul auf einem MXM Modul untergebracht ist oder nicht -> denn das Abschalten funktioniert auch ohne MXM mit fest verlöteten GPUs.
Andererseits ist die Übertragungsschnittstelle PCIe sowohl im Notebook als auch im PC Bereich völlig identisch.
Da hättest du übrigens auch selbst drauf kommen können. Denn MXM steht für "Mobile PCIEXpress Module", nur so nebenbei. Was es also gemeinsam hat? Es ist das gleiche! Nur in anderer mechanischer Ausführung...

Unterm Strich? Es gibt keine technischen Besonderheiten zwischen Notebook und Desktop, die da irgendwas restriktieren würden.
 
Zuletzt bearbeitet:
[...] die stromaufname wird AMD typisch deutlich über der konkurenz liegen [...]
Sorry, aber was für ein absoluter geistiger Dünnpfiff.

Was bei nVidia einfach besser klappt, ist das Marketing.
Nur weil diese Generation nVidias High-End Gaming GPU etwas effizienter war, ist das schon direkt "Typisch AMD". War es auch "typisch nVidia" als die GTX480 damals dem Blockheizkraftwerk konkurrenz gemacht hat?

Und da haben wir den Grund, wieso AMD trotz besseren P/L weniger Karten verkauft. Dumme verblendete Fanboys, eine größere Fanboybase und das bessere Marketing.
 
was wohl wahrscheinlich ist, dass die 390x in 28nm kommt
daher der große chip

die stromaufname wird AMD typisch deutlich über der konkurenz liegen

aber ich lasse mich gerne überraschen und gerne noch dieses jahr
ich würd ja gerne glauben wollen das mit 20nm usw aber ich bin eher realist

da ich meine 7970 für nen guten kurs losgeworden bin hatte ich eigentlich vor mit ne 970er zu holen aber ich warte doch lieber um zu sehen was AMD so rausreist
ich würde es ihnen wünschen sonst vegitieren die noch jahre im schatten von NV vor sich hin

und jetzt wirds hart für mich min. 3 monate mit onboard grafik :(

Also wenn deine 7970 mit 1,05 Vcore wirklich Stable die 1100Mhz schaffte, ich hätte die nicht voreilig verkauft^^


Aber jetzt mal zu
"was wohl wahrscheinlich ist, dass die 390x in 28nm kommt
daher der große chip"

Wo bitteschön steht den irgendwas von großer Chip?


@john es gibt gründe Nvidia zu kaufen (z.B. Man spielt PhysX unterstützende Spiele oder z.B. Leute die Downsampling nutzen wollen...)
Alle Nvidia Käufer in einen Sack zu stecken und als komplett verblendet dazustellen zeugt nicht gerade von Neutralität...
 
Ich meine es ist deine Entscheidung, aber mit der HD7970 hast du mehr FPS als deiner iGPU! :d :d
 
???
Nimms mir nicht übel. Aber bitte vorher informieren...

Einerseits ist es vollkommen wurscht, ob das GPU Modul auf einem MXM Modul untergebracht ist oder nicht -> denn das Abschalten funktioniert auch ohne MXM mit fest verlöteten GPUs.
Andererseits ist die Übertragungsschnittstelle PCIe sowohl im Notebook als auch im PC Bereich völlig identisch.
Da hättest du übrigens auch selbst drauf kommen können. Denn MXM steht für "Mobile PCIEXpress Module", nur so nebenbei. Was es also gemeinsam hat? Es ist das gleiche! Nur in anderer mechanischer Ausführung...

Unterm Strich? Es gibt keine technischen Besonderheiten zwischen Notebook und Desktop, die da irgendwas restriktieren würden.

Nimm es mir auch nicht übel, aber du hast mal wieder keine Ahnung !
Hättest du nur im Ansatz das verstanden, was ich geschrieben habe, so würdest du nicht so etwas hier schreiben.

Die Desktop-Grafikkarten sind nicht für das "Durchschleifen" des Bildmaterials von der iGPU auf ihren Videoausgang ausgelegt, wenn die Grafikkarte abgeschaltet ist ! Auch die Desktops-Boards können nicht sowohl iGPU als auch GPUs über PCIe ansteuern. Das funktioniert nur mit Hydra, was sich ja bis jetzt nicht durchgesetzt hat.
Zero-Core von AMD schaltet nur die Grafikkarte ab, die man nicht für die Bildausgabe benötigt !
Es ist also keine Frage der Software, sondern es ist technisch nicht möglich. Dazu benötigt man andere Hardware, die dafür ausgelegt ist.
Der Grund warum es bei Notebokks/Laptops geht liegt daran, weil sie immer den selben Videoausgang verwenden. Nur so am Rande. Da ist es also technisch kein Problem die diskrete GPU abzuschalten und intern auf iGPU zu stellen.

Ich habe mich extra kurz gehalten, damit du das auch verstehen kannst. :wink:
 
Zuletzt bearbeitet:

Ausser extrem unfreundliche Antworten, ist von dir wohl nicht viel zu erwarten? Du könntest deine Behauptung auch mal fundieren.

Der mit Abstand größte Kostenfaktor bei einer neuen Grafikkarte ist die Entwicklung. Die größe des Die ist hier erstmal reine Nebensache. (Klar, je kleiner sie ist desto größer könnte die Gewinnspanne werden.) Beim Release der 5870 und 7970 war das auch high End, der Preis orientierte sich aber vornehmlich an der Leistung, davon ist wieder auszugehen. Die 390x sollte schneller sein als die 980, allerdings dauert es bis zum Release auch noch, bis dahin fallen die Preise auch nochmals (sind ja jetzt schon ab 490€ zu haben).
Damit habe ich aufgezeigt wie ich auf einen Preis um die 500€ für die 390x komme.

Und nun du.
 
die stromaufname wird AMD typisch deutlich über der konkurenz liegen
Was heisst typisch? Nur weil Nvidia mittlerweile ihre Consumerkarten beim Computing deutlicher beschneiden und ausnahmsweise mal ihre neue Grafikkartengeneration früher gelaunched hat? Schon Sachen wie G200, Thermi oder Tegra vergessen? Eine höhere Leistungsaufnahme im Vergleich zur Konkurrenz ist eher für Nvidia typisch. Zwar durchaus mit mehr Performance, aber meistens trotzdem mit geringerer Effizienz. Auch Tegra K1 ist da keine Ausnahme. Mit bis zu über 10W eine recht hohe Leistungsaufnahme im Vergleich zu anderen Tablet Prozessoren. Wie man am Nexus 9 sieht, scheint der auch für ordentlich Wärme zu sorgen. So dass lediglich mit 2,3 GHz getaktet wird statt der beworbenen 2,5 GHz. Und ohne dass man gegen die A8X Performance viel zu melden hätte. Und auch mit Maxwell hat sich noch nicht so viel geändert. Wie THG gezeigt hat, unter maximaler Last mit Boost kann auch der Referenz GM204 schnell mal deutlich über 250W ziehen. 165W TDP ist nichts als Schönrechnerei. Das rechtfertigen die scheinbar aggressiveren Stromsparmechanismen unter Teillast nicht.

also interessant wird es wohl anfang 2016
Nicht wirklich. Wenn da "tape out by the end of 2015" steht, dann sollte man mit fertigen Produkten nicht vor 2H 2016 rechnen. GPUs brauchen von Tapeout bis zur Marktreife mindestens 6 Monate. Aber auch nur, wenn alles glatt läuft. Was gerade bei neuen Fertigungen fraglich ist.


Ich erwarte Fiji in 28nm. Tonga mit 32 CUs braucht gut 350 mm². Ein Chip mit 50% mehr CUs dürfte dementsprechend grob in >500 mm² resultieren. Das wäre noch machbar. Mit entsprechenden Automatisierungstools kann es durchaus auch weniger werden. ZB Carrizo scheint als erster AMD Chip HDL zu nutzen. Damit kann man auf der gleichen Fläche im gleichen Node fast 30% mehr Transistoren als noch bei Kaveri unterbringen. Eventuell ist da auch bei GPUs noch Potenzial vorhanden.

Ob noch was in 20nm vor 16/14nm kommt, ist fraglich. Bei Nvidia kann man es ziemlich sicher ausschliessen. Bei AMD schaut das etwas anders aus. Von TSMC erwarte ich zwar auch da nichts. Allerdings haben die noch die Option Glofo. Mit Kaveri haben sie dort ja bereits GCN in Bulk implementiert. Die Basis ist also vorhanden. Und die Updates der Konsolenchips sollen bekanntlich von Glofo in 20nm kommen. Ein passender Prozess sollte also auch vorhanden sein.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh