AMD Polaris 10 Ellesmere soll Leistung der GeForce GTX 980 Ti bieten

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich bezweifele ganz stark dass das so kommen wird... dann müssten sie die "aktuellen" gpus wortwörtlich verschleudern um sie noch los zu werden.
denke eher an 450€ wenn sie wirklich auf Ti niveau liegen wird.

Aber GTX980 Leistung für <200€ wäre schon klasse :)
Nein, so war es "damals" immer: Neue Generation -> 100 % Mehrleistung mindestens. Seitdem man jahrelang auf 28 nm parkt, herrscht Stagnation. Von den Mondpreisen aktueller Hardware ganz zu schweigen. Ich habe damals für eine HD850 zum Ausverkauf 110 € neu bezahlt und sie hat meine HD4850 abgelöst. + 100 % Performance in den Meisten Szenarios.
 
"für eine HD850 zum Ausverkauf 110 € neu bezahlt und sie hat meine HD4850 abgelöst. + 100 % Performance in den Meisten Szenarios."

ATI HD5850 oder ?
 
Nein, so war es "damals" immer: Neue Generation -> 100 % Mehrleistung mindestens. Seitdem man jahrelang auf 28 nm parkt, herrscht Stagnation. Von den Mondpreisen aktueller Hardware ganz zu schweigen. Ich habe damals für eine HD5850 zum Ausverkauf 110 € neu bezahlt und sie hat meine HD4850 abgelöst. + 100 % Performance in den Meisten Szenarios.

Ist mir schon klar, hab die guten alten zeiten auch noch miterleben dürfen, inkl der HD5850 für 110 ;)

Sowieso waren Grakas damals VIEL günstiger.... das 2. stärkste modell gabs nach kurzer zeit fürn paar mark... (X800/ HD4850/HD5850) auch damals die 8800GT gabs für 140 euro.... und die hat mal eben 80% der leistung einer GTX gebracht (so ganz grob ohne jetzt nachzuschauen)...

Also klar, ich hoffe auch dass es so kommt..... nur die letzten jahre herrschte halt stillstand.. daher bezweifele ich das mit GTX980Ti Leistung für 300-350 Euro...
 
Ich denke auch, dass es früher daran lag, dass man sich noch schneller steigern konnte. Wenn alle 1-2 Jahre das alte Flaggschiff trotz gleicher Fertigungskosten abgelöst werden konnte, ist das eine andere Situation als wenn man nur durch stetiges Vergrößern des Dies die Leistung steigern kann.
Deshalb denke ich schon, dass die neuen Karten einen deutlichen Sprung im Leistung/Preis- Verhältnis machen. Ich glaube aber auch, dass die neuen Flaggschiffe auch wieder ziemlich große Dice haben werden und den Kosten entsprechend auch nicht billiger sein werden, als die aktuellen(ca. 700€).
 
Du gewinnst den Anpisswettbewerb ;)
Komm mal runter ich denke ich bin genau so informiert wie du, aber egal... Aber alles Wisser gibt es ja überall. Wolltest du vielleicht am Ende noch etwas konstruktives beitragen?
Alle deine Informationen die du für unumstößlich hälst, woher kommen die, können die für dich vorgefiltert sein? Denk da mal drüber nach. Was bleibt, spekulieren und an Hand der vorhanden Benchmarks bewerten. Gut wenn man unbedingt ein bestimmtes Ergebnis sehen will, dann sieht man das auch. Welche Funktionen, welcher Hersteller wirklich besser drauf hat ist überwiegend noch nicht bekannt, wenn es überhaupt mal, klar getestet werden kann.
Die meisten DX12 Funktionen finden aktuell doch noch in keinem Spiel ihre Verwendung

Zugegeben, "wirkliche" DX12 Features war etwas unglücklich formuliert. Dennoch ändert es nichts daran, dass du dich nicht wirklich mit dem Thema beschäftigt hast. Mal 2 krasse DX12 Benchmarks/Games gegenübergestellt:

Da hätten wir ashes of the singularity, einem Entwicklerteam welches wirklich viel Energie in eine ordentliche DX12 Umsetzung gesetzt hat.
- DX12 Overheadreduzierung vorhanden.
Gerade auch da es ein Strategiespiel ist mit einer enormen Masse an Einheiten. Man kann super sehen wo die Probleme von DX11 sind. Die Drawcalls steigen mit höherer Grafik- und Effekttiefe auch bei anderen Genres immer weiter nur sind eben Strategiespiele hier ein Paradebeispiel.
- Async Compute vorhanden.
Das Feature sorgt schlicht für eine bessere Auslastung der GPU. Mehr Leistung kann immer in eine höhere Bildqualität investiert werden.
- DX12 Multi GPU Rendering vorhanden.
Egal ob verschiedene GPUs eines Herstellers oder sogar unterschiedlicher Hersteller. Eines der interessantesten DX12 Features überhaupt. 30% Mehrleistung häufig 300-400€ Aufpreis im HighEnd. Wenn man nun seine alte GPU weiterverwenden kann ohne CF/SLI Probleme wäre das der Hammer.

Auf der anderen Seite haben wir dann Umsetzungen wie Tombraider. Ein DX11 Game wo, warum auch immer DX12 nachgeschoben wurde. Vielleicht für den Aufkleber auf der Packung.
- DX12 Overheadreduzierung kaum/nicht vorhanden.
- Async Compute nicht vorhanden.
- DX12 Multi GPU Rendering nicht vorhanden.
- DX12 Performance ist unter DX11.

Positive Werbung für das Game und DX12 ist es aber auf keinen Fall. Ich hätte diese DX12 Umsetzung zumindest so nicht auf den Markt geworfen. Auch schlechte Werbung ist gute Werbung... Naja... kann sein. Vielleicht sollte man auch einfach mal einen Blick über den Tellerrand werfen und schauen welcher Hersteller hinter diesem Game steht. Nvidia GameWorks. Nvidia hat schlicht kein Interesse, dass weiter negative DX12 Benchmarks erscheinen solange man die aktuelle Maxwell-Architektur noch auf dem Markt hat. Selbst wenn keiner unter DX12 gewinnt ist das ein Gewinn für Nvidia um die Zeit bis Pascal zu überbrücken.

Blödsinn? Ich erinnere an DX10.1 wo seinerzeit AMD dank der damals modernen API 15-30% Leistung aus den Grafikkarten quetschen konnte. Und da gab es Nvidia Games welche nach den ersten Bechmarks doch glatt den Patch und die API Implementierung zurückgezogen haben.
Ubisoft comments on Assassin's Creed DX10.1 controversy - UPDATED - The Tech Report

So oder so muss man sich aktuelle Bechmarks und Engines sehr genau ansehen um das abschätzen zu können. Wer implementiert DX12 sauber? Wer möchte nur den Sticker? Auch werden nur die ersten exklusiven DX12 Games die API voll ausschöpfen können. Die anderen DX12 Aufsätze sind eher als Feldversuche zu betrachten. Viele Entwickler müssen mit der API noch ihre Erfahrungen sammeln. Ich sehe hier DICE sehr weit vorne dank der großen Erfahrung mit Mantle. Das neue Battlefield Ende des Jahres wird der erste große DX12 Kracher - technisch gesehen. In der Vergangenheit war man mit 64Bit only auch Vorreiter und diese Marke hat eben das Marktpotenzial solche Technologien in den Massenmarkt zu tragen. Battlefield 3 gab es als erstes Spiel zum Beispiel auch ohne XP Support.

Trotzdem muss man bei ashes of the singularity den Hut ziehen. Saubere Implementierung als erstes DX12 Game trotz der vielen verschieden APIs und für die Größe des Studios.
 
Zuletzt bearbeitet:
..
- Async Compute nicht vorhanden.
- DX12 Multi GPU Rendering nicht vorhanden.
- DX12 Performance ist unter DX11...

Naja, diese angeblichen Verbesserungen sind doch genauso glaubwürdig, wie dass die neue Windows-Version viel schneller, stabiler und sicherer ist als die Vorherige :haha:

Ich erwarte mir von DX12 langfristig genau gar keine Leistungssteigerung - eher im Gegenteil, weil es seit Ewigkeiten genau so läuft.
 
Ich bin schon der Meinung dass DirectX12 die Leistungsverbesserungen erfüllt. Allerdings sollte man nicht vergessen wo diese Stecken. Die Leistungsverbesserungen sind nahezu ausschließlich bei der Eliminierung des CPU Limits durch Multithreading und weniger Overhead.

Wenn die CPU nicht der Flaschenhals ist, sondern die richtige GPU Leistung, kann DirectX12 abgesehen von Asynch Shaders nicht viel bringen. Das wieder rum bringt nur etwas wenn die Compute Fähigkeiten ausgiebig genutzt werden. - kein Wunder das spiele wie Hitman oder Tombraider nicht davon Profitieren!


Grafikbomben werden weniger Probleme durch schwächere CPUs haben und zum Beispiel Strategiespiele (Ashes bestes Beispiel) bekommen deutlich mehr Leistung bzw. sind überhaupt erst in diesem Umfang möglich!

Und als Civ V Fan bin ich wahnsinnig gespannt was bei Civ VI dann alles dank DirectX12 möglich wird!
 
Zuletzt bearbeitet:
DirectX12 kann auch abseits des CPUoverheads was bringen, es erlaubt nämlich dem Entwickler besser und hardwarenäher zu optimieren als unter Dx11. Games bei denen davon Gebrauch gemacht wird, sind weniger von Optimierungen durch den Grafiktreiber abhängig.
Es fragt sich natürlich ob nun davon gebrauch gemacht wird, aber ich denke darauf wird es schon hinauslaufen.
Besonders wenn dann die ersten Engines auftauchen die von Anfang an auf DX12 entwickelt wurden. Das was man zur Zeit sieht, sind nur Portierungen und bei Portierungen bleiben Generell Optimierungen auf der Strecke.
Ist ein wenig wie bei Konsolengames welche nachträglich auf den PC angepasst werden.
 
Ich habe das doch richtig verstanden, dass man diesen Werten nur entnehmen kann, wie die Reihenfolge der Ellesmere Karten ist oder? Der Vergleich mit der 950 ist nicht von Bedeutung?
 
Schon alleine weil der eine Benchmark unter Linux durchgeführt wurde, kann man das nicht vergleichen. Was ich aber zunehmend interessant finde: Anscheinend wird Polaris 10 tatsächlich 2560 Kerne auf dem Die haben, von denen nur 2304 benutzt werden - vielleicht um die Chipausbeute zu erhöhen. Leider würde das bedeuten, dass man von der theoretischen Leistung wieder 10% abziehen müsste und die Karte eher unterhalb der 980Ti einzuordnen wäre.
 
@oovercloocker, kann das nicht eher bedeuten dass es halt wieder ne X und eine non-X Version geben wird, wie bei AMD ja gewissermassen üblich?
 
@oovercloocker, kann das nicht eher bedeuten dass es halt wieder ne X und eine non-X Version geben wird, wie bei AMD ja gewissermassen üblich?
So habe ich das auch gedacht, aber irgendwie reden alle immer nur von maximal 2304 Kernen... Das ist schon langsam ein wenig verwirrend.
 
Naja, je nach Chipausbeute wird man am Anfang mehr Schelchte Chips für Testzwecke haben

Allerdings ist bei Hawaii nie die Vermutung gestorben das selbst bei der XT Version immer noch ein 256er Cluster deaktiviert war.
 
Zugegeben, "wirkliche" DX12 Features war etwas unglücklich formuliert. Dennoch ändert es nichts daran, dass du dich nicht wirklich mit dem Thema beschäftigt hast. Mal 2 krasse DX12 Benchmarks/Games gegenübergestellt:

Da hätten wir ashes of the singularity, einem Entwicklerteam welches wirklich viel Energie in eine ordentliche DX12 Umsetzung gesetzt hat.
- DX12 Overheadreduzierung vorhanden.
Gerade auch da es ein Strategiespiel ist mit einer enormen Masse an Einheiten. Man kann super sehen wo die Probleme von DX11 sind. Die Drawcalls steigen mit höherer Grafik- und Effekttiefe auch bei anderen Genres immer weiter nur sind eben Strategiespiele hier ein Paradebeispiel.
- Async Compute vorhanden.
Das Feature sorgt schlicht für eine bessere Auslastung der GPU. Mehr Leistung kann immer in eine höhere Bildqualität investiert werden.
- DX12 Multi GPU Rendering vorhanden.
Egal ob verschiedene GPUs eines Herstellers oder sogar unterschiedlicher Hersteller. Eines der interessantesten DX12 Features überhaupt. 30% Mehrleistung häufig 300-400€ Aufpreis im HighEnd. Wenn man nun seine alte GPU weiterverwenden kann ohne CF/SLI Probleme wäre das der Hammer.

Auf der anderen Seite haben wir dann Umsetzungen wie Tombraider. Ein DX11 Game wo, warum auch immer DX12 nachgeschoben wurde. Vielleicht für den Aufkleber auf der Packung.
- DX12 Overheadreduzierung kaum/nicht vorhanden.
- Async Compute nicht vorhanden.
- DX12 Multi GPU Rendering nicht vorhanden.
- DX12 Performance ist unter DX11.

Positive Werbung für das Game und DX12 ist es aber auf keinen Fall. Ich hätte diese DX12 Umsetzung zumindest so nicht auf den Markt geworfen. Auch schlechte Werbung ist gute Werbung... Naja... kann sein. Vielleicht sollte man auch einfach mal einen Blick über den Tellerrand werfen und schauen welcher Hersteller hinter diesem Game steht. Nvidia GameWorks. Nvidia hat schlicht kein Interesse, dass weiter negative DX12 Benchmarks erscheinen solange man die aktuelle Maxwell-Architektur noch auf dem Markt hat. Selbst wenn keiner unter DX12 gewinnt ist das ein Gewinn für Nvidia um die Zeit bis Pascal zu überbrücken.

Blödsinn? Ich erinnere an DX10.1 wo seinerzeit AMD dank der damals modernen API 15-30% Leistung aus den Grafikkarten quetschen konnte. Und da gab es Nvidia Games welche nach den ersten Bechmarks doch glatt den Patch und die API Implementierung zurückgezogen haben.
Ubisoft comments on Assassin's Creed DX10.1 controversy - UPDATED - The Tech Report

So oder so muss man sich aktuelle Bechmarks und Engines sehr genau ansehen um das abschätzen zu können. Wer implementiert DX12 sauber? Wer möchte nur den Sticker? Auch werden nur die ersten exklusiven DX12 Games die API voll ausschöpfen können. Die anderen DX12 Aufsätze sind eher als Feldversuche zu betrachten. Viele Entwickler müssen mit der API noch ihre Erfahrungen sammeln. Ich sehe hier DICE sehr weit vorne dank der großen Erfahrung mit Mantle. Das neue Battlefield Ende des Jahres wird der erste große DX12 Kracher - technisch gesehen. In der Vergangenheit war man mit 64Bit only auch Vorreiter und diese Marke hat eben das Marktpotenzial solche Technologien in den Massenmarkt zu tragen. Battlefield 3 gab es als erstes Spiel zum Beispiel auch ohne XP Support.

Trotzdem muss man bei ashes of the singularity den Hut ziehen. Saubere Implementierung als erstes DX12 Game trotz der vielen verschieden APIs und für die Größe des Studios.

Ich sage doch, du gewinnst den Wettbewerb!
Dann sag mir doch bitte an welcher Stelle ich dir genau wiedersprochen haben soll... Wo ich genau Ashes of the singularity als Beispiel aufgeführt habe und gesagt habe, da wurde vieles falsch gemacht. Wo habe ich gesagt das bei Tomb Raider DX12 features sinnvoll, oder in Hülle und Fülle einsetzt?
Ach und selbst Ashes of the Singularity nutzt bei weitem nicht alle DX12 Features. Aber da du auch nicht wirklich auf die Features eingehst, sondern nur zwei Spiele nennst, die dir das liefern, was du sehen wolltest. Denke ich weitere Diskussionen mit dir werden woll zu nichts führen.

DX12 hat uns und die Spielewelt noch nicht wirklich erreicht und da jetzt Urteile zu fällen, was mit welcher aktuellen GPU besser laufen wird in ein paar Monaten, oder gar noch später halte ich für mumpitts...

Vielleicht entspannst du dich erstmal und stellst dir eine Welt vor, in der andere Menschen andere Meinungen haben dürfen!
 
Auf der anderen Seite haben wir dann Umsetzungen wie Tombraider. Ein DX11 Game wo, warum auch immer DX12 nachgeschoben wurde. Vielleicht für den Aufkleber auf der Packung.
- DX12 Overheadreduzierung kaum/nicht vorhanden.
- Async Compute nicht vorhanden.
- DX12 Multi GPU Rendering nicht vorhanden.
- DX12 Performance ist unter DX11.

dx12 kann in rise of the tomb raider schon für deutlich bessere fps sorgen.
https://www.youtube.com/watch?v=3j7w8XMn7IE
https://www.youtube.com/watch?v=Yv9wVSdLq8k

warum das ganze nun nicht auf jedem system der fall ist ist da die frage..

ich habe die vermutung das dx12 auf cpus mit vielen lahmen threads am meisten bringt, der fx8370 kann in dem spiel auch ordentlich zulegen.

d8efb5v4bdawrp35p.gif

DirectX 12 für Rise of the Tomb Raider (Seite 2) - ComputerBase
 
Zuletzt bearbeitet:

Viel Intressanter ist: Der FX8370 liegt gleichauf mit dem I7 ;) Leider nur in Multithreadding und mit veraltetem Herstellungsprozess, aber Würde man Konseuent das Limit erhöhen, wären wohl auch die Heulthrads mit FX6100 und 25FPS am Ende
 
Die aktuellsten Octacores von AMD sind ja gar nicht mal so übel - speziell für Gaming. Man muss halt die Nadel im Heuhaufen suchen, um ein Spiel zu finden, was so gut parallelisiert ist, dass die Threads auch alle ziemlich gleichmäßig belastet werden. Genau das ist eben bei DX12 deutlich besser zu realisieren und entsprechend besser sind somit auch die Ergebnisse. Natürlich sind so große Leistungssprünge nur dann zu erwarten, wenn die CPU auf einzelnen Threads unter DX11 bereits limitiert hat.

Edit: Falls AMD bei Zen tatsächlich die IPC um 40% steigern kann und einen günstigen Octa rausbringt, der auch im OC gut Reserven hat, könnte ich mir schon vorstellen, dass ich mir überlege, vielleicht zu wechseln. Denn dann hätte der Achtkerner auf 8 Threads etwa die Leistung meines Sixcores auf 6 Threads, was nur bei solchen Blizzard- Games etc. etwas schlechter wäre. Die AAA- Titel haben aber fast alle 8 Threads, gerade wenn sie auch auf den Konsolen raus kommen. Somit müssten bei meinem Sixcore immernoch 2x 2 Threads auf je 1 Kern laufen. Dagegen könnte ich bei 8 vollen Kernen HT gänzlich deaktivieren und das CPU- Limit wäre fast schon ausgeschlossen.
 
Zuletzt bearbeitet:
Mhh also bei ZEN hoffe ich, dass der Octa einen Intel 6 Core gleichauf liegt. Und dann gebe ich auch gerne 400€ für ne CPU aus. Ein Zen 140W Octa mit Leistung eines 5960X wäre schon lecker, Allerdings fraglich. Ich bin auch noch Skeptisch, das P10 eine Leistung von einer 980Ti haben wird, Ich gehe bei einer TDP von 120W eher von einer Leistung zwischen 1060 und 1070 aus, also In etwa 980 OC Niveau. Grundsätzlich begrüße ich aber, dass AMD eben keinen massiven Technologieaufschlag nimmt. Sollten die Gerüchte in ChipHell sich bewahrheiten, muss die 1070 schon Rocken, wenn sie echt 500-600€ kosten soll. Und da kommt dann auch ein P10 nicht ran
 
Wie kommt ihr eigentlich darauf, dass nVidia die Preisschraube bei der 1070 noch weiter anziehen wird? Ich hoffe das sehr, sodass sie sich richtig in die Nesseln setzen und die Spieler wieder eine Weile AMD kaufen. Mit 500 € kannst du nur Enthusiasten ansprechen. Mehr als 150 € - 250 € gibt Ottornalverbraucher nicht aus. 350 € Einstiegspreis für die 1070 und 250 € Einstiegspreis für die 1060 wären vielleicht gerechtfertigt... mit fallender Tendenz.
 
Wie kommt ihr eigentlich darauf, dass nVidia die Preisschraube bei der 1070 noch weiter anziehen wird? Ich hoffe das sehr, sodass sie sich richtig in die Nesseln setzen und die Spieler wieder eine Weile AMD kaufen. Mit 500 € kannst du nur Enthusiasten ansprechen. Mehr als 150 € - 250 € gibt Ottornalverbraucher nicht aus. 350 € Einstiegspreis für die 1070 und 250 € Einstiegspreis für die 1060 wären vielleicht gerechtfertigt... mit fallender Tendenz.

Erste Hinweise zu den Preislagen von GeForce GTX 1070 & 1080 sehen vergleichsweise teuer aus | 3DCenter.org

Sollte es so kommen, könnte das 2 Gründe haben: 1. Pascal ist der neue G80 (unrealistisch) 2. Nvidia wird die TIs erstmal nicht mehr anbieten und als TITAN Vermarkten (Realistischer)
 
Wie kommt ihr eigentlich darauf, dass nVidia die Preisschraube bei der 1070 noch weiter anziehen wird? Ich hoffe das sehr, sodass sie sich richtig in die Nesseln setzen und die Spieler wieder eine Weile AMD kaufen. Mit 500 € kannst du nur Enthusiasten ansprechen. Mehr als 150 € - 250 € gibt Ottornalverbraucher nicht aus. 350 € Einstiegspreis für die 1070 und 250 € Einstiegspreis für die 1060 wären vielleicht gerechtfertigt... mit fallender Tendenz.

So sieht es aus. 500 € für eine 1070 ist ausgeschlossen, außer man ändert das Lineup. 429 Launchpreis wären das höchste der Dinge, da werden die Preise aber schnell fallen. Eher wird es größeren Abstand zwischen 1070 und 80 geben, da die 1080 dieses Mal besseren Speicher zu bieten hat, statt der üblichen mehr Shader. Die 1060 wird bei 220 € liegen, die Ti vermutlich bei 250-300.
 
Glaubst du dieses mal echt an eine 1060TI?
Damit würde sich Nvidia nur ihre Marge für die 1070 kaputt machen. Sollte die 1070 eben auf 980(Ti) Niveau liegen, dann wird man sie nur für 350$ anbieten, wenn P10 eben auch die gleiche Leistung bietet. Wenn die Stimmen aus China Stimmen, sind es dieses mal eher eher 400-450$. Klar Spielraum ist immer: Aber dennoch knapp 100$ mehr als die letze Gen
 
Glaube in der heutigen Ökonomie kannst du nicht mehr nach dem Enthusiast Bracket gehen: dann heißt es Geld haben oder eiskalt eben kein Geld haben! 200,- bis 250,- Euro/$ sind für viele Consumer wohl das Maximum, was sie Gedenken auszugeben. Weihnachten im Jahre 1999 gabs dann halt 'ne TNT2 statt einer Geforce256, da die TNT2 auch eben nur gute 200,- DM gekostet hat. So einfach war das schon immer und bleibt es auch. Egal ob da eine 6, 7, 8 oder 9 auf der Packung steht: was zählt ist der Preis, und da verschenkte weder AMD(ATI) noch Nvidia damals noch verschenken sie heutzutage was.

Ich denke mal Polaris10 und der "not big Daddy" Pascal (GP104) liegen da schon im "mehr als üblich" Preissegment. Wer dann 300,- Euro schon hat, kann also auch, wenn es nach Nvidia und AMD geht, bitte schön 400,- Euro zahlen, denn er will ja die bessere Performance haben. Also für einen rund 300mm2 großen Dice bei 16FF+ sollte man schon 400,- bis 700,- Euro einkalkulieren.
 
Zuletzt bearbeitet:
Wie es aussieht kommen die Pascal Karten ja vor den Polaris Karten. Ist es nicht denkbar dass Nvdia erstmal die Preise etwas höher ansetzt und dann nachreguliert, wenn AMD dann plötzlich mit niedrigeren Preisen auf den Markt prescht? Also vorausgesetzt die Leistung ist bei beiden ähnlich.
 
Zuletzt bearbeitet:
Wenn die neuen Karten taugen werde ich wohl seit langem mal wieder upgraden... und hoffe dass wir danach dann genauso lang auf 14nm festhängen wie jetzt auf 28nm :p
 
Wie es aussieht kommen die Pascal Karten ja vor den Polaris Karten. Ist es nicht denkbar dass Nvdia erstmal die Preise etwas höher ansetzt und dann nachreguliert, wenn AMD dann plötzlich mit niedrigeren Preisen auf den Markt prescht?

Bei den kleineren Modellen sicherlich. Da wo keine Konkurrenz ist, wohl eher nicht - scheint genug Leute zu geben, denen die Titan X genug wert war. Wieso sollten die also für eine GTX1080 mit 16GiB GDDR5 nicht 1200€ zahlen? Viele werden nicht wissen, dass 2017 noch schnellere Karten mit der gleichen Speichermenge in Form von HBM2 kommen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh