AMD demonstriert Polaris-System

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.137
<p><img src="/images/stories/logos-2015/amd-radeon-2013.jpg" alt="amd radeon 2013" style="margin: 10px; float: left;" />Anfang Dezember zeigte AMD ausgewählten Pressevertretern erstmals eine der neuen GPUs auf <a href="index.php/artikel/hardware/grafikkarten/37558-amd-verraet-erste-details-zur-polaris-architektur-der-neuen-gpus-2.html" target="_self">Basis der neuen Polaris-Architektur</a>. Hinter verschlossenen Türen war gar ein Blick auf die GPU selbst möglich, auch wenn der Erkenntnisgewinn daraus begrenzt sein dürfte. Auf der CES hatten wir nun auch die Möglichkeit einen Blick darauf zu werfen, Fotos waren natürlich nicht erlaubt. In einer kleinen Box waren zwei Chips zu sehen, zu denen aber keinerlei technische Daten verraten wurden. Erstmals aber gab es nun wohl zwei...<br /><br /><a href="/index.php/news/hardware/grafikkarten/37737-amd-demonstriert-polaris-system.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
3. absatz, 2. Satz:
"Es handelt sich dabei um ein System mit Intel Core i7-4790K, 4x 4 GB DDR4-2600 sowie ein Windows 10 64 Bit, auf dem Star Wars: Battlefront läuft."
Wie schafft man es ddr4 mit ner CPU, die es nur für DDR3-Baords gibt, zu betreiben?
Hatten wir genau den Fehler nicht schon in quasi jeder News zu Polaris?
 
Komm bei den ganzen News in letzter Zeit können Fehler passieren. Außerdem haben wir 22 Uhr und da machen die Augen auch nicht so ganz mit ;)
 
Fehlerteufel komm raus xd

Denke mal, das eine Hand voll Leute Vorort die Artikel schnell schreibt und zur nächsten Präsentation weiter muss. 12h Tage + Jetlag lassen die Fehler zu.
 
Der Fehler war echt verdammt oft schon hier zu finden - immer und immer wieder. :d

Könnte ein Klassiker werden. ;)

@ News ... Wow! Ich finds gut.
 
Man ich bin erschocken AMD könnte ja im Zeitplan sein xD Ich lass mich überraschen ^^
 
Bis man hier keinen neutralen Test gemacht hat bleibe ich skeptisch, AMD hat in der Vergangenheit einfach zu oft enttäuscht.
 
Bezüglich dem Fehler mit DDR3/4, die Angabe mit den "4x4GB DDR42600 MHz memory" stammt so direkt von AMD's Folien, die man u.A. bei ComputerBase sehen kann.
Also entweder können die Leute bei AMD zaubern oder da hat schlicht jemand beim Erstellen der Folien gepennt.
 
Ihr wisst doch:

Wenn auf einer Folie von AMD kein Fehler ist dann ist es ein Fake. ;)
Jup, das hab ich ja schon öfters gehört! :d

Während das System mit NVIDIA-GPU auf einen Verbrauch von 152 W kommt, verbleibt das Polaris-System bei etwa 85 W. Damit möchte AMD die hohe Effizienz der Polaris-Architektur sowie der deutlich kleineren Fertigung verdeutlichen.
Sollte das Stimmen und die NV karte nicht an ihren eigenen Stromsparmechanismen gehindert worden sein, wird die neue Architektur aber absolut beeindruckend! o.o
Die GTX 950 ist doch schließlich eine der effizientesten Karten auf dem Markt.

Wäre klasse wenn die Hersteller von Anfang an so viel wie möglich, aus der neuen Fertigung rausholen. Mein Rechner braucht eine VR fähige Karte < 21cm...
 
Zuletzt bearbeitet:
nun ja die neue generation von nvidia wurde ja damit nicht paralel getestet ich denke nv wird wieder leicht vor amd in sachen energieverbrauch sein
 
Möglich ist das natürlich. Allerdings kommt ein guter teil der Effizienz von Maxwell, vom Weglassen der DP Einheiten in allen Chips.
Pascal soll die aber wieder beinhalten soweit ich weiss, da NV auch den Pro Markt bedienen muss.
In den mitleren und unteren Klassen wird der Verbrauchsunterschied jedenfalls wirklich schnuppe sein weil die 5-6W ja kaum über die Messtoleranz der günstigeren Messgeräte liegen.
 
Zuletzt bearbeitet:
Naja, so transparent wie die Vorstellungen sind könnte die 750-Ti genau so gut beide Monitore befeuern und die AMD läuft im IDLE neben dran^^
 
Falls das mit dem Stromverbrauch so hinhaut, finde ich das schon beeindruckend, grade für AMD. Hoffe dann aber auch mal auf eine geringe Hitzeentwicklung, dann wäre so eine Karte auch für mich sehr interessant, es würde dann vielleicht doch keine GTX 1060 als nächste Karte bei mir eingesetzt werden. Aber mal abwarten wenn es soweit ist :).
 
...
Die GTX 950 ist doch schließlich eine der effizientesten Karten auf dem Markt.
...
Naja nein ist sie nicht wirklich. Ich bin eigentlich erstaunt daß sie weniger Effizient als z.B. ihre Vorgängerkarte die GTX 750 Ti ist.

Gigabyte GeForce GTX 950 OC 2 GB Review | techPowerUp

Kommt natürlich immer auf das Modell an (hier ist ne GigaByte 950 OC getestet worden, die Referenz 950 dürfte vielleicht eine Spur besser sein)

Nichts desto trotz ist die Ansage 85W vs 152W des Gesamtsystems schon nicht übel, auch wenn da vielleicht etwas Rosinenpickerei praktiziert wurde. Wäre interessant zu sehen was z.B. eine GTX 980 auf 60 FPS limitiert da im Vergleich abliefert.
Die kleinere Fertigung hilft jedoch bestimmt die Effizienz zu steigern und die neue Architektur und erweiterte Stromsparmechanismen bestimmt auch.
Bin auf jeden Fall schon sehr gespannt auf die neuen Karten und GPU Generationen (Performance und High End Klasse) beider Hersteller (Pascal/Ableger und Polaris/Arctic Island Ableger).
 
Möglich ist das natürlich. Allerdings kommt ein guter teil der Effizienz von Maxwell, vom Weglassen der DP Einheiten in allen Chips.

Ist das so?
Ich weis nicht... Wenn ich mir GK104 vs. GK110 ansehe, dann ist da irgendwie im Verhältnis der kleine Kepler ohne DP Einheiten sogar schlechter als der große Kepler mit DP Einheiten. Der große Kepler mit leichtem OC schafft 50-70% Performanceplus und säuft das aber nicht weg. Bei Maxwell ist das irgendwie andersrum. Eine 970er mit teildeaktivertem GM204 ist sogar effizienter als eine GM200 980TI -> ~150W bei Modellen, die man an der Leine hat vs. ~250W beim GM200 980TI/TitanX -> ebenso an der Leine. Wie passt das ins Bild mit den DP Einheiten?

Macht für mich eher den Eindruck, als würde Maxwell ziemlich gut mit dem Powerbudget umgehen können und vor allem, die Abschaltung/Taktung der Bereiche geht extrem schnell, weit schneller als bei Kepler. Weswegen die Dinger bei absoluter Volllast auch saufen und mit Werks OC bzw. händisch OCed Modellen ebenso nicht zur stromspar Elite gehören.
 
Naja nein ist sie nicht wirklich. Ich bin eigentlich erstaunt daß sie weniger Effizient als z.B. ihre Vorgängerkarte die GTX 750 Ti ist.
Vorgängerkarte in Bezug auf was? Die GTX 750 Ti spielt in einer anderen Leistungsklasse. Da sind Effizienzvergleiche sowieso schwierig. Die GTX 750 Ti ist in deinem verlinkten Diagramm ja auch effizienter als alle anderen Maxwell Karten bei 1080p. Die allerdings auch Maxwell v2 sind und nicht v1. Das erschwert den Vergleich zusätzlich.
 
Naja der Vergleich ist einfach ohne Substanz solange man nicht weiss in welcher Kategorie der AMD Chip einzuordnen ist. Man könnte wohl einige Chips das Stromsparen beibringen wenn man diese Untertaktet das ist aber kein realisitschen Anwendungsszenario. Es wird zwar von Mittelklasse gesprochen nur wo fängt diese an oder hört auf? Die Zahlen zum Verbrauch sind Eindrucksvoll keine Frage aber wie gut Polaris ist kann man nur im Vergleich zu Pascal ziehen wenn man etwaige Vorteile durch Strukturgrößen rausrechnen kann.
Wirklich interessant wäre es gewesen wenn man die FPS mal nicht auf 60 begrenzt hätte und mal die ausgefahrene Performace/Watt Leistung zu sehen. Dann hätte man wirklich anfangen können zu spekulieren welche Ausbaustufe und wieviel Potential noch drin ist etc. ...
 
Zuletzt bearbeitet:
ach bei solchen chip vergleichen gibt es ja eh keinen wirklich aufschlussreichen test. von daher finde ich diesen hier absolut i.O.
bei gleicher leistung wird der stromverbrauch verglichen.
klar, könnte man auch 10 andere tests machen, aber wirklich aussagekräftiger wären die auch nicht.
und da wohl immernoch 90% aller spieler mit 60hz zocken, ist es doch wirklich eine brauchbare info.

es gibt noch viele unbekannte faktoren aber im vergleich zum fiji release wissen wir jetzt schon unglaublich viel über die neue gen... ;)
 
nun ja die neue generation von nvidia wurde ja damit nicht paralel getestet ich denke nv wird wieder leicht vor amd in sachen energieverbrauch sein
Gründe?
Mit der Nano hat man eine sau effiziente Karte und das ausschließlich via Powertune 2.0, was alle anderen Karten leider nicht nutzen.
Architektur ist bei beiden ähnlich effizient, einzig hat NV weitaus filigraner den Stromverbrauch gemanaged als AMD.
Sehe den Kampf noch als offen an.
 
Mit der Nano hat man eine sau effiziente Karte und das ausschließlich via Powertune 2.0
Äh, das ist nicht so ganz richtig. Der Chip der Nano läuft extrem untertaktet!
Die Fury X (selber Chip) ist allerdings auch nicht dermaßen weit weg in Sachen effizienz von einer 980Ti. Also gesteigert hat man sich sehr gut, da hast du recht.
Jetzt muss das nur noch auch im tieferen Preisbereich (die Nano ist vom Preis her ja sehr weit oben angesiedelt) fortgesetzt werden. Polaris scheint dabei das Ziel zu erreichen.
 
Zuletzt bearbeitet:
@Dragon Tear ich denke eher die Nano läuft im sweet spot und Fury X war für 900MHz vorgesehen aber auf 1000MHz hoch getaktet, da die 980Ti deutlich stärker wurde, als von AMD erwartet...
 
Vorgängerkarte in Bezug auf was? Die GTX 750 Ti spielt in einer anderen Leistungsklasse. Da sind Effizienzvergleiche sowieso schwierig. Die GTX 750 Ti ist in deinem verlinkten Diagramm ja auch effizienter als alle anderen Maxwell Karten bei 1080p. Die allerdings auch Maxwell v2 sind und nicht v1. Das erschwert den Vergleich zusätzlich.
Vorgängerkarte im Bezug auf Modellbezeichnung GTX 750 / Ti -> GTX 950.
Und ja - obwohl die Modellbezeichnung auf einen Nachfolger schließen lässt spielt die 950 doch in einer höheren Leistungsklasse (was ja auch gut ist und bei "neuen" Modellen so sein sollte). Gab' ja oft genug Generationswechsel bei nV und AMD wo sich in der Mittelklasse/Mainstream kaum etwas bei der Leistung getan hat. Und jetzt ist es nicht einmal ein echter Architekturwechsel [klar - Refresh von Maxwell v1 auf v2] aber durch den deutlich stärkeren Chip (mehr Shader und TMU Einheiten) kommt halt auch mehr Leistung raus.

Klar ist es schwer zu vergleichen, wenn man jedoch wie der normale Käufer nach Modellbezeichnung geht rechnet man doch auch mit mehr Leistung und eventuell einer besseren Effizienz. Von der Leistung wird man hier überrascht da die diesmal deutlich höher ausfällt, die Effizienz allerdings etwas schlechter (wenn auch nicht viel) ist.

Man sieht daß der Vergleich auch zu einer unbekannten Polaris GPU noch etwas sinnfrei ist und man tatsächlich fertige und finale Produkte abwarten sollte. Wie dem auch sei, trotzdem glaube ich daran daß Polaris effizienter als Maxwell (v1 und v2) sein wird. Zumindest erwarte ich mir das von einer neuen Generation der diverse neue Stromsparmechanismen zugesprochen wird und aber vor allem einer deutlich kleineren Fertigung.
Ich bin gespannt wann wir bei den GPUs dort ankommen wo wir anscheinend bei den CPUs schon seit einigen Jahren sind. Sprich die Fertigungsschritte auf kleinere Technologien immer schwerer werden und die Taktraten kaum noch effizient gesteigert werden können. Und man Mehrleistung fast nur noch durch Breite kaufen kann.
 
Zuletzt bearbeitet:
Dass die Geschwindigkeit nicht mehr stark gesteigert werden kann, wage ich zu bezweifeln. Das Problem ist eher, dass das immer mehr zu Lasten von Abwärme, Platz und Leistungsaufnahme geht. Gerade aber kleine Hardware mit niedriger Leistungsaufnahme wird vermehrt vom Markt gewünscht - und das ist auch gut so.

Wir waren vor 10 Jahren schon bei 150-200W Leistungsaufnahme - das schafft man auch heute bei einem midrange Gaming-Rechner, allerdings bei wesentlich mehr Rechenleistung. So wie heute jedes halbwegs normale Smartphone wesentlich leistungsstärker ist, als die PCs vor 1-2 Dekaden.
 
Dass die Geschwindigkeit nicht mehr stark gesteigert werden kann, wage ich zu bezweifeln.
Bzgl. GPUs hat das auch niemand gesagt. Da geht es noch immer ordentlich voran, allerdings eben meist aufgrund der "Breite", sprich Shaderanzahl (sowie Textureinheiten und Renderoutputs) und auch der Taktsteigerung.
Sieh Dir die letzten Generationen an, bei nV sind wir z.B. von einer 9800 GTX (128:64:16 Shader:TextureMUnits:RasterOPs) und 675MHz GPU Takt auf aktuell bei einer GTX 980 (2048:128:64) 1126MHz (base) GPU Takt gekommen. Und dazwischen gab' es wie gesagt entweder mehr Shader, TMUs und ROPs und/oder mehr Takt. Speichergeschwindigkeiten sind eigentlich auch stetig gestiegen und/oder die Anbindung und das alles unabhänig von den Architekturänderungen welche wohl ebenfalls Vorteile wie neue Features etc. mit sich brachten.

Nur irgendwann wird man auch bei GPUs mit der Fertigung nur noch schwer und teuer kleiner werden können. Sieh Dir an wie lange nV und AMD nun schon auf 28nm herumgurken. Bei nV seit Anfang 2012 (also bald 4 Jahre) z.B. GTX 680 und bei AMD sogar etwas früher mit Anfang Jän 2012 z.B. HD 7970. Davor waren die Abstände definitinv kürzer.

Und Du sprichst es ja schon an, Leistungsaufnahme und Abwärme sind halt ein großes Thema. Und irgendwann wird man entweder sehr lange auf einer Fertigung verharren oder mit aktuellen Technologien nicht mehr kleiner fertigen können und dann kann man mehr Leistung eigentlich nur noch durch Breite, Takt oder eventuell neuen Architekturen erreichen. Das wird dann schwer wenn man nicht gleichzeitig eben die Leistungsaufnahme und dadurch Abwärme erhöht.

Bei den CPUs sieht man es mMn seit Sandy Bridge recht deutlich. Hier kommt noch dazu daß nicht einfach beliebig viele Kerne auf eine CPU geschnallt werden können und sich die Leistung stetig erhöht da ordinäre Software wie Spiele, Office Anwendungen sowie Browser & Co das nicht oder nur moderat nutzen. Spezielle Anwendungen gerade im Server oder Workstation Umfeld können natürlich Gebrauch von vielen Kernen machen und da hat man nach wie vor ordentliche Leistungssteigerungen.
Mit den Taktraten geht es jedoch sehr schleppend voran, und hier vermute ich eben daß effizient nicht viel mehr als 4 bis 4,5GHz drin sind, je nach Architektur. Sieh Dir die FX-9xxx CPUs an. Oder übertakte einen Sandy, Ivy, Haswell oder Skylake. Wenn da welche bis 5GHz gehen sind die deutlich ineffizienter als bei sagen wir 4GHz.

Das Problem ist eher, dass das immer mehr zu Lasten von Abwärme, Platz und Leistungsaufnahme geht. Gerade aber kleine Hardware mit niedriger Leistungsaufnahme wird vermehrt vom Markt gewünscht - und das ist auch gut so.

Wir waren vor 10 Jahren schon bei 150-200W Leistungsaufnahme - das schafft man auch heute bei einem midrange Gaming-Rechner, allerdings bei wesentlich mehr Rechenleistung. So wie heute jedes halbwegs normale Smartphone wesentlich leistungsstärker ist, als die PCs vor 1-2 Dekaden.
Es gab eine Zeit wo die PCs immer Strom hungriger wurden. Sieht man sich AT Netzteile an waren dort meist so zwischen 200-250W üblich. Die kleinen vollgepackten Gehäuse mit zig Breitbandkabel hatten auch oft keinen bzw. nur den Netzteillüfter um Abwärme ab zu transportieren. Erst mit den schnelleren 486ern wurden CPU Kühler (passiv und aktiv) zum Quasi Standard und Grafikkarten hatten noch lange keine Kühlkörper geschweige denn aktive Kühlungen. Dann ging es rasch voran, das Mainboard brauchte eine höhere Stromversorgung (wg. CPU) -> ATX 20 Pin dann zusätzlich den 4 Pin ATX 12V Stecker -> dann 24 Pin ATX usw. GPUs bekamen extra Stromanschlüsse usw.
In den letzten Jahren rudert man doch immer wieder etwas zurück, was auch gut ist denn sonst hätte jeder von uns mind. ein 700W Netzteil im Rechner welches vielleicht auch immer wieder mal ausgelastet werden würde.
Also eine Zeit lang hat man mitunter auch mehr Leistung mit mehr Leistungsaufnahme bezahlt.
 
Amd lässt eine Demo auf ner Intel Platform laufen? :fresse:

Vermutlich stehen bei den entwicklern auch intel kiste in den büros :d
 
Willkommen in Blitzmerkistan.^^ Wenn ich mich richtig erinnere wurden die Hawaii Benchmarks schon 2013 damals mit einem i7 gemacht.
Bei den GPUs sind sie Konkurrenzfähig, warum sollten sie dann in Ihren Demos und Benchmarks ihre eigene GPU schlechter dastehen lassen?^^

Je nach dem wie Zen wird, ändert sich das wohl Ende 2016/2017.
Vielleicht nutzen sie für die Grafikkarten Veröffentlichungen ja schon Zen Engineering Samples. So könnten sie ein Produktfeld auf den Markt bringen und den Hype für das nächste gleich anfeuern! :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh