AMD: Kommende GPUs sollen pro Takt doppelt so effizient sein

Wenn Nvidia mal günstigere VGA KArten hat und die schneller sind wie die AMD KArten dann werde ich das auch hier schreiben!

Machen Sie doch, du musst nur einfach mal von deinem Tellerrand aufschauen.
- Wie viel Performance liefert eine AMD GPU aktuell, wenn du nen 4k UHD TV über HDMI 2.0 ansteuern willst. (UHD@60Hz)?
- Wie viel Performance liefert eine AMD GPU im Gegenstück zu 3D Vision oder/und 3D Vision Surround?
- Wie viel Performance liefert eine AMD GPU unter x265 in Hardware?
- Wie viel Performance liefert die von dir mehrfach benannte drei Jahre alte AMD GPU unter VSR 2x2?

Das ist keineswegs alles, was sich da finden lässt. Also sollte man einfach mal aufhören hier alle über einen Kamm scheren zu wollen und vollmundig das bessere Produkt propagieren, sondern dies einfach mal dem potentiellen Kunden überlassen. Der nämlich selbst entscheidet was er neben dem reinen FPS pro Geld Verhältnis noch unbedingt braucht.
Auf der pro AMD Seite steht da bspw. TrueAudio, Freesync, Mantle und Stream. Und sicher noch einiges mehr. Auf der pro NV Seite stehen da Sachen wie Cuda, G-Sync, PhysX in Hardware, DSR ab Kepler auch in 2x2 mit allen Modellen, HDMI 2.0/HDCP 2.2, Videobeschleunigung auch in x265 usw. auch das ist keineswegs vollständig.

Und was sagt uns das jetzt? Entweder deine Markteinschätzung ist arg vorbei an der Realität oder aber, der Markt ist durchaus in der Lage, für sich zu entscheiden welche Hardware die eigenen Bedürfnisse abdeckt und welche eben nicht... und da ist nunmal nicht jede Karte für jeden tauglich. Vor allem wenn Features fehlen kann einfach nicht vom besseren Produkt gesprochen werden...

Solche Sachen wie die Steam Umfrage sind da durchaus bezeichnend. Es geht langsam aber stetig runter mit dem roten Anteil. Woran soll das deiner Einschätzung nach denn liegen? An der reinen FPS pro Geldeinheit ganz sicher nicht ;)
Es gab mal Zeiten, da waren die AMD Karten die Energieeffizenteren. Es gab mal Zeiten, da war AMD bzw. ATI noch Featurevorzeiger usw.
Auch reicht es aus meiner Sicht eben nicht, einfach gleich zu ziehen, AMD hat in den letzten Monaten und Jahren viel aufgeholt. Aber es bleibt halt beim Aufholen... siehe Frametimeangleichung im CF Betrieb, siehe Downsampling Features, siehe gewisse AA-Fähigkeiten, siehe Spieleprofile im Treiber. Das gab's bei NV zeitlich früher und Teile davon sind in der Community auch als pro NV Features angesehen. Manches geht bis heute nicht auf gleichem Niveau.
Auf der anderen Seite hast du Versuche wie Mantle, sodass ist klar wünschenswert!! Nur muss das ganze dann auch funktionieren... Denn Mantle hat im Endeffekt eigentlich eher gezeigt, wie bescheiden AMDs DX11 Performance bei hoher CPU Belastung ist, als dass es AMD wirklich weiter brachte...

Unterm Strich, reine FPS Leistung ist heute lange nicht mehr Alles. Wahrscheinlich wiegen für so manchen Käufer von Marke Grün gewisse Gründe so stark, dass selbst die eigentlich teilweise schnellere Karte zum teils gar geringerem Preis doch nicht das richtige Produkt ist....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe hier mal 65%(!!!) der Beiträge entfernt. Die Moderation hat auch Wochenende und nur weil 3,4 Männchen hier abdrehen, heißt das nicht, dass wir sofort da sind und den Kindergarten wieder richten.

Jetzt darf es hier gerne zum Thema zurückkommen, sollten die Störenfriede hier noch einmal in Erscheinung treten, so hagelt es post.

:btt:
 
gnihihi, sagst du.

_______

wie gesagt, ich hoffe ja auf etwas wie die 7870 damals. nur in extra kompakt. :)
 
Zuletzt bearbeitet:
Ja sage ich. Und ich sag dir nochwas. Du fängst an den Bogen langsam zu überspannen!
 
Habe mir gestern ne VGA eingebaut und muss sagen das der VRam nicht ausreicht!
Habe eine neue R9 285X verbaut mit 2 GB Ram, viel zu wenig man sieht immer noch ruckler beim nachladen.

Hoffe das die neuen Karten nicht unter 4 GB VRam haben, besser wären 8 als Standart.
Die Karte geht zurück und ich werde wohl ne kleine im Marktplatz schiessen für 50 bis 60€, das reicht erst mal
EDIT: Meine Festplatte ist eine SSD, also kann es nicht davon kommen!!

Die ATI Karte ist bei COD BO3 einfach in den Scharzbild übergegangen, aber im hintergrund lief das Spiel noch.
Haben die Nvidia zocker auch so ein problem mit einer GTX 960 OC ?
 
Zuletzt bearbeitet:
warum sollten die den VRAM bei zukünftigen Serien verringern??? hä?
 
Es kommt darauf an, in welcher Auflösung man eine AMD 285x bzw. eine Nvidia 960 betreibt. Unter Full HD dürfte es mit beiden Karten bei den meisten Spielen keine Probleme geben.

Aber ich gehe auch nicht davon aus, dass neue Karten mit weniger als 4 GB VRam auf den Markt kommen. Daher würde ich mir da weniger Gedanken machen.
 
Habe mir gestern ne VGA eingebaut und muss sagen das der VRam nicht ausreicht!
Habe eine neue R9 285X verbaut mit 2 GB Ram, viel zu wenig man sieht immer noch ruckler beim nachladen.

Hoffe das die neuen Karten nicht unter 4 GB VRam haben, besser wären 8 als Standart.
Die Karte geht zurück und ich werde wohl ne kleine im Marktplatz schiessen für 50 bis 60€, das reicht erst mal
EDIT: Meine Festplatte ist eine SSD, also kann es nicht davon kommen!!

Die ATI Karte ist bei COD BO3 einfach in den Scharzbild übergegangen, aber im hintergrund lief das Spiel noch.
Haben die Nvidia zocker auch so ein problem mit einer GTX 960 OC ?

Muss nicht unbedingt am Speicher liegen. Eine 2GB Karte würde ich heute aber auch nicht mehr kaufen; die 380 mit 4GB kostet nur unwesentlich mehr.
 
Die 2GB sind bisher nicht das Problem meiner 285 (eine x gab es nie) Eher fehlt die Power wie bei der 960...

Bin gespannt, ob das stimmt. Die r9 380x wäre mir als Übergang lieber gewesen, war aber nicht erhältlich. Anfang 2017 rechne ich mit den Karten erst, dann kann man umsteigen.
 
Ich denke es reicht jetzt so langsam mit dem Gesabbel. :btt:

Warum wurde mein Beitrag gelöscht?
Mag sein daß die Diskussion bzgl. VRAM der GTX 680 und 7970er Serie etwas OT ist, aber dennoch ein Punkt der für kommende Generationen interessant ist. Und der Rest meines Beitrags war OnTopic.
 
Ich frag mich, wie Luxx auf TSMC kommt? Das ist absurd. GloFo hat 14nm für GPUs bereits bestätigt, auch AMD hat nur im Zusammenhang von Zen und K12 von 16nm (TSMC) gesprochen - da Zen definitiv 14nm ist bleibt nur K12 für 16nm.
Und da zum Featureset immer noch Verwirrung herrscht: FL12.0 ist das Featureset, dass die XB1 beherrscht und damit auch alle AMD-Chips ab Bonaire. Dieses FL ist relevant für die Spieleentwickler.
Es gibt aber noch weitere optionale Erweiterungen, die von Skylake unterstützt werden.
Intel Skylake: Core i7-6700K und Core i5-6600K im Test Tabelle in der Mitte
Da Arctic Islands eine neue Architektur mit auf den Weg bekommt, wird man auch dort sicherlich alles unterstützen.

DP 1.3 und HDMI2.0+HDCP2.2 wird man sicherlich ebenfalls unterstützen, das wäre dann der erste Grafikchip, der das kann. Der GM206 kann HDCP2.2, aber AFAIK nur über den DP, nicht über HDMI.
 
Zuletzt bearbeitet:
DP 1.3 und HDMI2.0+HDCP2.2 wird man sicherlich ebenfalls unterstützen, das wäre dann der erste Grafikchip, der das kann. Der GM206 kann HDCP2.2, aber AFAIK nur über den DP, nicht über HDMI.

GM206 soll es angeblich können... oder guck ich schief?
https://forums.geforce.com/default/...s-with-hdcp-2-2-support/post/4628057/#4628057

Wünschenswert für die Zukunft ist das auf jeden Fall. Ich warte ja noch auf meine Freunde hier im Forum, die erst HDMI und HDCP als unwichtig abstempeln und dann vor dem schwarzen eigenen Schirm sitzen, wenn man mal nen 4k HDCP protected Content in Zukunft ansehen will... Rennen dann wohl alle los und tauschen GPU und Monitor... ;)
 
nö.
ich besitze auch immer noch kein bluray laufwerk. irgendwann reichts mit der kopierschutzgängelung einfach.

content der nicht läuft wird nicht gekauft. fertig.
 
Auch ne Möglichkeit, kann man so machen, muss man aber nicht... Jedem wie er es gern mag ;)
 
Es gibt aber schon HDMI 2.0a.
Mal schauen ob Arctic Island das supportet, selbiges bei Pascal.
 
Das einzig wichtige für mich ist eigentlich, dass die neue Generation auch in den kleinen Karten einzieht. Nich so wie jetzt, das man diese 3! Generationen durchschleift und umlabelt.
Im Nebenefekt ist es wieder wünschenswert, das die Leistung deutlich steigt bei gleichem Stromverbrauch.
 
wenn die neuen GPUs DP 1.3 unterstützen, dann funktionieren eh auch passive adapter auf HDMI 2.0
dann ist HDMI 2.0 support nicht mehr wichtig.
 
Die Anzahl der Kerne ist weder korrekt, noch ist sie nicht korrekt. Es gibt schlichtweg keine standardisierte Definition eines Kerns, an die sich die Hersteller halten müssen. Das wird auch kein Gericht definieren.

Sagte Carsten bei PCGH schon, aber weisst ja, die Forumsfachleute sind da Intelligenter als Wissenschaftler... Hat sicher Gründe warum weder Intel noch AMD eine Gesetzlich Stichfeste Definition für Core geben können.. Selbst Moore und Konsorten würden mit den früheren Core Definitionen nicht mehr weit kommen.. Wenn man nun die FPU mal aussen vorlassen würde und nur die Decode Einheit und quasi die CMT Kerne teilt, dann wäre es ein 8 Core.. Könnte spannend werden, welcher Wissenschaftliche MIT Professor sich daran die Finger verbrennen will ;)

@ Rehacomp:
Da mache ich mir keine sorgen, da Tonga und Fiji alles mitbringen.. Man muss nur die UVD updaten, der Controller sollte auch DP 1.3 verstehen können..

Ich vermute eh Ellesmere wird ein Tonga in 16nm, Baffin sicherlich ein verbessserter GCN 2.0 und Greenland wird 2017 aufkreuzen. Ich halte es für Aussichtslos dass NV GP104 gleich in HBM Released. Somit würden GP 110 (100) und Greenland wohl eher 2017 aufschlagen. Ich denke auch nicht, dass AMD groß Investment in die Mittel und Einstiegsklasse stecken wird, Tonga ist 20nm tauglich und das Design sollte auch für 16nm FinFet reichen.. Ausserdem wäre Tonga die Eierlegende Wollmilchsau für AMD, ich sage dazu nur Fiji entspricht einem doppelten Tonga

Vermutlich werden wir sehen 2016:

470 / X Tonga in 16nm mit UVD Update
480 Baffin (Tonga XT oder vllt ein kastrierter Fiji in 16nm) GDDR5
490 GCN 2.0 mit HBM / GDDR5X

So kann man mit 2 Diemasken ziemlich viel Abdecken.. Und 2017 kommt Greenland mit HBM2 und mehr DP Power...
Ich denke aber das trotz 16/14nm Fertigung die Karten nicht Pascal GP 104 überholen, sondern eher dass AMD wieder Effizienztechnisch aufholt. Die Zeit wird zeigen, ob das reicht um Marktanteile zu bekommen.. Ich vermute aber dass Apple wieder Interesse haben wird, vllt gelingt es AMD Fiji in 16nm auch in die Macbooks zu klatschen..
 
Zuletzt bearbeitet:
wenn die neuen GPUs DP 1.3 unterstützen, dann funktionieren eh auch passive adapter auf HDMI 2.0
dann ist HDMI 2.0 support nicht mehr wichtig.
HDMI 2.0 ist heute schon nicht mehr wichtig, da es nur die Übertragunsrate von DP 1.2 bietet (bzw. spezifiziert und zertifiziert wurde)
DP 1.3 wird 8K mit 120Hz befeuern können. ;)
 
wann kann man damit rechnen, mit DP 1.3?
DP 1.3 ist schon Beta, also aus dem HW only "Feature" raus.
Wenn man 4K mit 3D-Brille geniesen will, führt kein Weg an an DP 1.2 vorbei.
 
HDMI 2.0 ist heute schon nicht mehr wichtig, da es nur die Übertragunsrate von DP 1.2 bietet (bzw. spezifiziert und zertifiziert wurde)
DP 1.3 wird 8K mit 120Hz befeuern können. ;)

Und wo hast du das schon wieder augeschnappt?
Das ist falsch!

HDMI 1.4 unterstützt 2160p@30Hz
HDMI 2.0 unterstützt 2160p@60Hz
Displayport 1.2 unterstützt 2160p@60Hz
Displayport 1.3 unterstützt 2160p@120Hz (mehr nicht)

SuperMHL unterstützt erstmal als einziges 4320p(8K)@120Hz

Und nööö HDMI 2.0 ist überhaupt nicht wichtig, nur jeder moderne Fernseher und die Multimediabranche nutzen zu >90% ausschließlich HDMI...



Bis 8K Fernseher draußen sind ist SuperMHL wahrscheinlich etabliert und es gibt Displayport 1.4 mit 8K@120Hz, welches dann aber bestimmt wieder fast nur für Monitore genutzt wird.

MMn. ist die größte Schwäche für Displayport der Standardstecker, diese Verriegelung ist einfach nur Kacke wenn man den Stecker abziehen will. Dies eHaken gehen so oft richtig mies raus.
HDMI sitzt einfach fest genug und lässt sich dennoch ohne Probleme entfernen - das gleiche trifft auf mini Displayport zu.
Man sollte den großen Displayportstecker mMn. aussterben lassen und nur noch mini-Displayport und zukünftig USB-C-Stecker nutzen!
 
Und wo hast du das schon wieder augeschnappt?
Das ist falsch!
Das ist mir völlig Jacke wie Hose!
Ich arbeite in einem ISO Betrieb, da geht es nicht um einzelne Feature sonder um trough-put!
Geht doch heulen wenn es für dich unfair ist... (srry ist nichts gegen dich persönlich!)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh