Ampere-Architektur von NVIDIA soll im April starten – Turing als Codename der ersten GeForce-Karte

Wieder die übliche Polemik, wenns um Nvidia geht. Poor Volta?

Nö... Kein Plan was du da rauslesen willst. Ich versuchte dir lediglich zu erklären, warum hier Leute bei deinem Schreibweisen dich in das AMD Lager stecken ;)
Du hast dich darüber ja nicht erst einmal ausgelassen... Aber mir egal. Mach halt. Wer ohne Infos schon werten kann wird keine sachliche Diskussion führen können (mMn)

Und wie man schön sieht - Polemik kommt dann ja wohl eher von dir ;)
Ob du von beiden IHVs enttäuscht warst oder nicht, ist doch auch völlig irrelevant... Als ob das irgendwo irgendwas an der Lage verändern würde??
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nö... Kein Plan was du da rauslesen willst. Ich versuchte dir lediglich zu erklären, warum hier Leute bei deinem Schreibweisen dich in das AMD Lager stecken ;)
Du hast dich darüber ja nicht erst einmal ausgelassen... Aber mir egal. Mach halt. Wer ohne Infos schon werten kann wird keine sachliche Diskussion führen können (mMn)

Und wie man schön sieht - Polemik kommt dann ja wohl eher von dir ;)
Ob du von beiden IHVs enttäuscht warst oder nicht, ist doch auch völlig irrelevant... Als ob das irgendwo irgendwas an der Lage verändern würde??
Das hier ein paar keinen AMD Bias haben, ist ja auch nichts neues. Igor hat sich auch schon mal geirrt, den seine Insider sind eher Auftragsfertiger, oder solche die sein Labor buchen. Die sagen nicht immer die Wahrheit, weil sie's nicht dürfen. Aber gut...du wirst das schon machen.
 
???
Eh ich bin echt ratlos, was du da fabrizierst... Was hat bitte Igor jetzt auf einmal in dem Beitrag zu suchen? Ich versteh es einfach nicht.
Und ob sich Igor irrt oder nicht, hat doch hier bis dato keiner behauptet oder klar verneint?
 
Sommer 2017 GTX1080Ti 600€
Sommer 2018 GTX2080 1200€

Aufpreis 100% Mehrleistung ?%

:fresse:

30 real 20.

- - - Updated - - -

???
Eh ich bin echt ratlos, was du da fabrizierst... Was hat bitte Igor jetzt auf einmal in dem Beitrag zu suchen? Ich versteh es einfach nicht.
Und ob sich Igor irrt oder nicht, hat doch hier bis dato keiner behauptet oder klar verneint?
...., weil die Info von ihm stammt. Das ist ein freier Presseartikel, wie wahr oder unwahr muss das anhand der Faktenlage sein?
 
Zuletzt bearbeitet:
Ich überlege langsam wirklich mein 1080 für 600+ zu verticken und auf die nächste Generation zu warten und da direkt wieder die 80er zu nehmen :d Mining sei dank steht meine ASUS ja mittlerweile wieder beim Neupreis und die 600€ sind durchaus realistisch zu erzielen.
War auch schon meine Überlegung. :bigok:

HDMI 2.0 hatte die TI auch schon ;) Nur kein HDCP 2.2... :wink:
Stimmt, HDCP 2.2 war es. :)
 
Das war nicht die Frage :(
Es sind keine 1500. Wenn es nicht so überaus teuer wird, wird es auch nicht schnell. Dem Preisgefüge, Angebot und Nachfrage geschuldet, wird es trotzdem nicht billig. War auch nicht deine Frage, aber meine Antwort (ohne qoute ist es schwer zu antworten, auf was?). Natürlich ist alles vage, oder denkst du man bekommt Infos auf dem Tablet serviert und dürfte sie dann heraus posaunen? Der Artikel wurde i.A. verfasst, letztlich bekommt man dafür sein Geld.

Turing ist damit kein Ampere, denn Ampere ist Volta v2 und Turing ist kein Volta.
 
War auch nicht deine Frage, aber meine Antwort (ohne qoute ist es schwer zu antworten, auf was?).

Wenn man absichtlich nicht will, natürlich schwer... Haste recht.


Was du mir mit dem Rest sagen willst, ist mir ebenso rätselhaft. Lass doch mal das rumwühlen in irgendwelche Sidefacts die überhaupt nicht zur Debatte standen! Einfach nur anstrengend. Dass du dann am Ende wieder was aufgreifst, was x-viele Posts vorher schon ausgesagt wurde, machts nicht besser. Was soll das werden? Ablenkung? Ehrlich mir wird das hier zu blöd, macht mal.
 
Wenn man absichtlich nicht will, natürlich schwer... Haste recht.


Was du mir mit dem Rest sagen willst, ist mir ebenso rätselhaft. Lass doch mal das rumwühlen in irgendwelche Sidefacts die überhaupt nicht zur Debatte standen! Einfach nur anstrengend. Dass du dann am Ende wieder was aufgreifst, was x-viele Posts vorher schon ausgesagt wurde, machts nicht besser. Was soll das werden? Ablenkung? Ehrlich mir wird das hier zu blöd, macht mal.
Wo?

Nvidia trennt die Produktlinien, es gibt keinen Pascal mehr für Pro und keinen Volta für Gamer. Ampere ist Volta und Turing ist kein Volta. Ich ging wegen der Infos von anderem aus. Man will Kostenersparnis bei der Fertigung erreichen. Dann bis Juli...

Wenn du das nächste mal auf Infos im Thread Bezug nimmst, wäre es nett das du sie verlinkst. Dann spart man sich die Sucherei und Doppelpost. Danke.
 
Wenn du das nächste mal auf Infos im Thread Bezug nimmst, wäre es nett das du sie verlinkst. Dann spart man sich die Sucherei und Doppelpost. Danke.

Ich soll auf meine eigenen Posts verlinken damit du die Zusammenhänge blickst? Dir ist scheinbar entfallen, dass ich der Depp war, der hier den THG Link gepostet hat.
Hör endlich auf hier in jedem Post neue Themen einzuwerfen - dann siehst du auch die Zusammenhänge...!

:btt:

@Holzmann
du erwartest jetzt nicht ernsthaft eine Antwort oder? :d
 
Hynix und Micron erreichen auch 16gbit/s. Nvidia hängt nicht so sehr an der Bandbreite, die von HBM brauchen sie nicht mal bei Volta. Die tatsächlichen Spannungen sind daher unbekannt und ein gut behütetes Geheimnis. Setzen alle irgendwo nur Fakewerte die man ausliest.

Was genau möchtest du mir jetzt mit diesem Part sagen? Stand irgendwas davon meinerseits irgendwie zur Debatte?


GDDR6 wird auch an die Autobauer geliefert, für KI, VI und 4K Displays. Da macht man mehr als für Gamer.

Deswegen schrieb ich ja, dass es sinnvoll für Nvidia ist den Launch erst im Q3 abzuhalten, da es dann mehrere Fertiger gibt und es bei den Kapazitäten besser aussieht.

Also stimmst du mir zu? :wink:


Ich überlege langsam wirklich mein 1080 für 600+ zu verticken und auf die nächste Generation zu warten und da direkt wieder die 80er zu nehmen :d Mining sei dank steht meine ASUS ja mittlerweile wieder beim Neupreis und die 600€ sind durchaus realistisch zu erzielen.

War auch schon meine Überlegung. :bigok:

Ich bin auch schon die ganze Zeit am überlegen, wann wohl der bestmögliche Zeitpunkt wäre die 1080 abzustoßen. Wäre es wohl schlau sich eine Karte vorzubestellen, nicht das die direkt nach Release im Preis steigen, weil sich die Miner wieder alles abgreifen... Oder werden die Karten für Miner uninteressant, sodass diese nach dem Release im Preis etwas fallen, wenn die Verfügbarkeit steigt, sowie es auch bei Pascal der Fall war. Ich hatte mir z.B. 2 Monate nach Release eine 1070 Jetstream für 350€ komplett neu gekauft, diese dann dank der Miner ohne Aufpreis gegen eine 1080 GLH getauscht.

Jetzt die 1080 möglichst ohne Aufpreis gegen eine 1180/2080 zu tauschen wäre schon echt nice. :d
 
Hör endlich auf hier in jedem Post neue Themen einzuwerfen - dann siehst du auch die Zusammenhänge...!
Die Information ist: ...es gibt mit Turing keinen GA102 als Ableger eines GV100-GA100 mehr und damit ist was das Leistungsvermögen dieses Chips angeht alles offen. Hier zu behaupten es wären wieder 50-70% ist einfach Hype. Ob du das informativ findest oder nicht, musst du selbst wissen. Ich habe dir schon mal geschrieben, dass wenn es dir nicht passt, was ich schreibe du es löschen kannst. Das ist so nah topic wie kein anderer Post hier und was ich schon vor Seiten angedeutet habe, Tage vor Igors Info und mich deswegen ziemlich belöffeln lassen musste, was du als Schubladensystem abtust. Ich sah nur eben Turing eher bei Volta und Ampere woanders.

offtopic:
Warum tust du dann so als wäre die Info völlig irrrelevant und forderst Antworten auf Fragen die du nie stellst, aber schon hast. Ich entwerfe keine neuen Themen und ich sehe auch die Zusammenhänge, bin gezielt auf diese Information eingegangen. Ob mit gewissen Hintergrundwissen, spekulativ oder aus Eigeninteresse ist mein Problem. Von wem ich wo hingesteckt werde ist völlig themenfremd.

Vielleicht hörst du mal mit diesen Spielchen auf. Ich habe genau deinen Link gemeint, damit die Info von THW (Igor hat dabei persönlich bestätigt das er den Artikel verfasst hat) - weil ich ansonsten nichts wirklich Aussagekräftiges gefunden habe was die Zuordnung Ampere vs Turing in bestimmte Produktlinien untermauert.

Die Überschrift dieses Blogs lautet immer noch Ampere Architektur im April - Turing als GTX. Im April soll die Produktion starten, also wird es auf der GDC/GTC vermutlich Whitepaper geben, Paperlaunch...
 
Zuletzt bearbeitet:
Waren das nicht 699 $ UVP für die 1080 Ti?

Eine 2080 für 1500 €, das ist wohl übertrieben. Höchstens bei einer Titan würde ich es glauben.

Ich würde eure Karten behalten. Nachher sitzt ihr ein halbes Jahr ohne da. Man sollte sich nicht von der Gier leiten lassen. Zwar macht man jetzt Profite, im Verhältnis werden die Karten aber auch teurer sein falls sich das Preisgefüge hält. Das bisschen Mehrleistung wäre es mir nicht wert.

Eine wirklich neue Generation wäre natürlich super. Wie schon gesagt wurde, für 20 % Mehrleistung wechsele ich die Ti nicht. An sich reicht die Leistung aktuell ja auch, der nächste Schritt wäre dann 144 Hz. Da will ich auf jeden Fall erst die Grafikkarte habe bevor ich einen neuen Monitor erwäge. Jahre ohne passende Grafikkarte zum Monitor habe ich schon genug hinter mir.
 
Was genau möchtest du mir jetzt mit diesem Part sagen? Stand irgendwas davon meinerseits irgendwie zur Debatte?




Deswegen schrieb ich ja, dass es sinnvoll für Nvidia ist den Launch erst im Q3 abzuhalten, da es dann mehrere Fertiger gibt und es bei den Kapazitäten besser aussieht.

Also stimmst du mir zu? :wink:

Paddy die Frage ist ob sie überhaupt GDDR6 für eine 1180/2080 ff bräuchten. Der Artikel den du verlinkst hast stellt Sasmsung's Fortschritt im Bereich der Bandbreite pro Pin und Modulgröße heraus, die Sezifikation sieht lediglich eine Pin-Geschwindigkeit von 16gbit/s vor. Das ist dann ausserhalb von JEDEC soweit ich weiß. Vermultlich werden die IHVs erst mal auf Standard setzen da die Entwicklungen der SI's für GDDR6 schon vor 2-3 Jahren begonnen haben.

Ich gab dir lediglich das Feedback, dass andere Hersteller Standard produzieren, ähnlich weit sind und wo Samsung einen drauf setzt, ob für GPUs oder andere Bereiche bleibt offen.

- - - Updated - - -

Waren das nicht 699 $ UVP für die 1080 Ti?

Eine 2080 für 1500 €, das ist wohl übertrieben. Höchstens bei einer Titan würde ich es glauben.
Ja, UVP Nvidia.

Die Info ist von Igor selbst - es sind KEINE 1500, weil solche Werte schon wieder durch die Gegend eiern. Das heißt es bekommt der eine oder andere was er braucht. Der dann gültigen Marktlage angepasst, wie schnell ist offen.
 
Zuletzt bearbeitet:
Ich gab dir lediglich das Feedback, dass andere Hersteller Standard produzieren...

Diese Debatte wollte ich überhaupt nicht anstoßen, denn es ging mir lediglich um den Part, dass Samsung wohl schon produziert und die anderen beiden erst später starten wollten, denn bis jetzt sind mir nur Meldungen bekannt, dass u.a. Micron die Qualifikation für GDDR6 zwar abgeschlossen hat und auch schon erste Muster verteilt hat, aber noch keine Meldung darüber, dass Micron bereits mit der Massenproduktion begonnen hat. Falls du da was hast, würde ich mich über einen Link freuen. :wink:

Das nächste mal werde ich dann genau den Part aus einer Quelle zitieren, auf den ich mich beziehe. Ich hätte gedacht, das wäre erdenklich gewesen, da ich ja nur von dem zeitlichen Aspekt geschrieben habe. :wink:


Und laut Gerüchten soll Ampere (bedacht werden muss, dass man zu diesem Zeitpunkt noch nichts von der möglichen Namensgebung Turing wusste) womöglich teilweise GDDR6 erhalten:

pcgameshardware.de schrieb:
 
Das kommt noch dazu. Das nächste Spiel wo ich glaube die Ti zu brauchen wäre Cyberpunk. Wann das auch immer kommen mag. EA-Müll kaufe ich schon gar nicht mehr und sonst sieht es auch eher mau aus. Anno 1800 vielleicht. Derweil zocke ich mal weiter AOE 2.
 
die Grafikkarten werden immer teurer und die Spiele immer schlechter.... irgendwas läuft hier falsch

Da muss ich dir eineindeutig zu 100% zustimmen.
Aber was willst du machen? Ich spiele mittlerweile mehr Factorio als irgend ein anderes, GPU-Forderndes Spiel. Factorio läuft gar auf ner Intel IGP ruckelfrei, wenn der Prozessor nicht all zu lahm ist :fresse: Und bockt dafür richtig ;)
Für 2018 warte ich auf FC5 und Anno 1800. Ersteres dürfte GPU seitig wieder gut Anforderungen stellen - UHD wird sicher eng mit ner Mittel- oder Performanceklasse ohne große Einschränkungen. Anno? Kann ich im Moment noch nicht einschätzen..
 
Diese Debatte wollte ich überhaupt nicht anstoßen, denn es ging mir lediglich um den Part, dass Samsung wohl schon produziert und die anderen beiden erst später starten wollten.

Das nächste mal werde ich dann genau den Part aus einer Quelle zitieren, auf den ich mich beziehe. Ich hätte gedacht, das wäre erdenklich gewesen, da ich ja nur von dem zeitlichen Aspekt geschrieben habe. :wink:

Und laut Gerüchten soll Ampere womöglich teilweise GDDR6 erhalten:
Micron zeigte offiziell schon belichtete Wafer, Termin war ja 1Q/2018, Produktion hat damit schon begonnen wie die Ausbeute ist, unbekannt. Denke nicht das dies nur Marketing war. Micron ist auch einer auf den Nvidia setzt.

Wenn Turing nichts komplett Neues sondern "optimiertes" ist, kann man gleich mit dem gesamten Portfolie starten. Das ist nicht ausgeschlossen, dass da Karten auch GDDR6 tragen, ist doch richtig, muss aber nicht der von Samsung sein.

Das Ampere auch mit GDDR6 kommt ist sicher nicht falsch.

*Mehr wollte ich nicht. So wie du das mit quote machst ist das o.k..
 
Zuletzt bearbeitet:
Falls du ein 780 Ti SLI verwendest wie in deiner Signatur, reicht der VRAM für eine Karte schon nicht. Ich hatte selbst lange so eine. Titel wie Warframe lassen sich damit zwar sehr gut spielen, fordern aber auch kaum. Neueres ist unmöglich. Für Far Cry empfehlen sie komischerweise ein 1080 SLI für UHD, warum keine Ti weiß ich auch nicht. Für 30 FPS soll eine 1070 genügen, aber wer hält das aus?

GDDR6 mit 18 Gbit wäre richtig lecker, das wäre dann nochmals fast eine Verdoppelung. Dann kommt die nächste Ti nahe an die 1 TB/s. Genau das was man für hohe Auflösungen braucht, die fordern nämlich richtig Bandbreite. Der Abstand zwischen 1080 und 1080 Ti ist in 4K nicht ohne Grund am Größten.
 
Um die Leistungsfähigkeit kommender NV Karten einzuschätzen zu können, wäre es von Vorteil zu wissen in welcher Fertigungstechnik diese gebaut werden. Pascal war ja 16nm. Und ich hab schon viel gelesen. 7nm, 10nm, oder 14nm,wobei letzteres dank der guten Beziehungen zwischen TSMC und Nvidia eine auf NV zugeschnittene Version von 14nm ist. Ist das für Ampere schon geklärt?
 
Du kannst also die "Leistungfähigkeit" einer GPU durch die Fertigungstechnik bestimmen? Inwieweit ändert sich die Leistung denn zwischen 7, 10 oder 14 Nanometer, wenn man dort einfach nur einen Die-Shrink vollziehen würde?
 
Einschätzen nicht bestimmen, in Bezug auf Verbrauch, Taktbarkeit zb. Allein ein Die-Shrink sagt aber wenig aus, da gebe ich die recht.
 
Wenn SLI in diesem Spiel gut skaliert sind 2 1080er schneller als eine 1080Ti und günstiger als 2 Tis. Insbesondere wenn die Ti in UHD an ihre Grenzen kommt, kann die Empfehlung durchaus Sinn ergeben.
Ich würde IMMER eine GPU (z.b. auf 1080Ti) einem Verbund (z.B. aus 2x 1080) vorziehen. Die Nachteile von SLi/CF sind einfach zu groß. Zudem haben NV und AMD selber den (Treiber/Profil)-Support Multi-GPU "eingefroren/zurückgefahren/eingestellt". Im Notfall sollte man halt Ingameregler verstellen.
Um die Leistungsfähigkeit kommender NV Karten einzuschätzen zu können, wäre es von Vorteil zu wissen in welcher Fertigungstechnik diese gebaut werden.
Wozu?
Der Fertigungsprozess sagt Richtung 0 darüber aus, wie "leistungsfähig" der Chip letztenendes ist. Vermute du meinst was anderes und hast dich nur bissel falsch ausgedrückt?
 
Die Frage ist welche Strategie Nvidia fahren wird. 12nm ist ausgereift => hohe Yields, hohe Marge, aber geringerer Leistungssprung gegenüber Pascal, sofern Nvidia bei ähnlicher Die-Größe bleibt. Da dürften es max. 30% Leistungsgewinn geben. Ich würde halt einfach mal gerne wissen, mit welcher Leistung man für Ampere in etwa rechnen kann.
 
+10-15% turing äka pascal refresh mit gddr6 eventuell 12nm ff tsmc

In 7nm wird volta reinhauen
ampere ist der nachfolger der hpc karte

Das turing wird vermutlich wieder ein refresh von maxwel-4 sein
Seit 2014 hat sich an der arch von nvidia nichts getan nur mehr shader
Daher lässt sich die Performance zwischen takt + shader berechnen
Den größten unterschied gab es beim Wechsel von fermi zu kepler
Da hat man einfach die doppelgenauigkeit halbiert
Und den shadertakt halbiert
Seitdem ist bei nvidia tesla Grundarch nichts passiert volta wäre die erste stärkere Änderung
also 64shader je sm Statt 128 und tenso cores
Aber das wird beim gaming Karten nicht kommen
eher wird an volta gaming Ableger gv102 zuerst die sm arch auf 128 und entsprechend rop tm angepasst
Was nicht so der große unterschied ist.
Was bei volta titan v so besonders ist sind die tenso cores (quasi cpu Einheiten)
Die die thread Verteilung auf der gpu übernimmt und somit per opencl man nur ein Kern CPu ansprechen muss
Und der treiber dann die threads auf die shader mit den tenso cores berechnet
Das vereinfacht die Programmierung in gpgpu
Das ist bei gaming völlig nutzlos.
Weil directx sowie vulkan und opengl das nicht können

Nvidia hat kein Grund in diesen Jahr die performance der gaming gpu anzuheben
Es wird ein refresh kommen mit denselben shaderanzahl mit mehr Takt und halbierten SI bei gleicher Rambestückung.
Somit fällt turing als Sparproduktion um die marge zu erhöhen
Gleichzeitig erhöht man damit die uvp

Der große performanceschub sehe ich erst bei release von volta ab 2019 eher 2020
Weil amd nichts bis 2021 dagegen halten kann
nach volta wird es einen Umstellung bei gaming gpu geben sowie auch beim OS
Das sind aber themen die ab 2022 interessant werden.

man ist bei directx und opengl am taktlimit angekommen
man kann keine 5120shader in 1080p oder 2560p auslasten dafür gibt es schlicht keine CPU die schnell genug takten
ab 5,5ghz
Das schöne ist ja das dadurch die spiele zwangsweise stagnieren bei den Anforderungen
Somit wer jetzt eine gtx1060 hat wird damit bis 2022 nicht aufrüsten müssen (außer man erhöht die Auflösung auf 2560p)
Für 4K wirds erst ab der gtx1080ti interessant sichere geht man bei der titan v also dem Vollausbau volta
Nur wer glaubt das bei größere Auflösung weniger cpu last hat irrt.
Denn ein skaliertes 4k ist nicht natives 4k
Letztere fordert die cpu mehr als man denkt.
Das geht bei den schatten los und hört beim I/O puffern auf
Da spielt auch die performance der Plattform auch eine rolle und rambandbreite

Und skalieren ist ein generelles Problem unter Windows
So nahtlos wie bei android geht das nicht.
Was aber primär an den Programmbibliotheken liegt die feste dpi haben
Windows standard ist 96dpi
Ein simples verdoppeln der dpi bringt nur dazu das normale software die dem neuen Bibliotheken nicht kennen kleiner dargestellt werden.

man kann derzeit kein windows skalieren das bei jeder software das übernommen wird.
Games arbeiten da anders der installer ist ja heute fast obsolete (steam origin uplay gog)
aber wehe ich nutze mal software die auf DVD ist
Und es hängt vom GPU Treiber und Spiel ab ob die größere Auflösung das Bild mehr punkte bekommt oder das Bild die Sichtfläche vergrößert
Und somit menues unbrauchbar klein werden
und ein interpoliertes Bild andauernd zu haben brauche ich kein 4k display
So viel zu 4k als zukünftige Auflösung für mehr GPU performance benötigt wird
Wir sind am limit beim CPu Takt
 
Falls du ein 780 Ti SLI verwendest wie in deiner Signatur, reicht der VRAM für eine Karte schon nicht.

Der Eintrag stimmt nicht mehr - und der Grund warum der nicht geändert wird sind irgendwelche Nasen, die Aussagen anhand der Einträge im Sysprofil/der Signatur in Schubladen stopfen... Dann bist du schnell der Böse NV Fan, wenn da NV GPUs aktueller Generation stehen oder der dumme AMD Fan, der da ne Vega stehen hat. Deswegen lass ich das so - und jeder dürfte erkennen, dass zwei Assbach TIs mit popligen 3GB nicht mehr wirklich gut zum Spielen taugen und daher schon lange nicht mehr stimmen...

Die Frage ist welche Strategie Nvidia fahren wird. 12nm ist ausgereift => hohe Yields, hohe Marge, aber geringerer Leistungssprung gegenüber Pascal, sofern Nvidia bei ähnlicher Die-Größe bleibt. Da dürften es max. 30% Leistungsgewinn geben. Ich würde halt einfach mal gerne wissen, mit welcher Leistung man für Ampere in etwa rechnen kann.

Ist Ampere nun für dich das Gamerding oder das Profiding?
Weil wenn letzteres (so wie es Igor behauptet), lässt sich doch absolut nicht abschätzen, was da kommen kann/wird/soll. Als Volta Nachfolger wäre dann also ein GV100 + x zu erwarten. Das Teil ist riesig - und in wie weit sich da einfach simple Änderungen am Aufbau und/oder irgendwelche Neu-Erfundenen Recheneinheiten auf die Leistung in diesen Umfeldern auswirken, ist ja völlig offen.
Ist es für dich hingegen das Gamerding - könnten die 30% schon stimmen. Wobei - auch wenn der Vergleich etwas hinkt, zwischen GK110 und GM204 hat das auch funktioniert im gleichen Prozess. Die Frage ist dann wohl eher, wie lässt sich Pascal-Tech soweit verbessern, dass man da wieder deutlich mehr Bumms rausquetschen kann? Bis zum Maxwell Release ging der geneigte Gamer ja davon aus, dass Kepler gut performt...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh