Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Eine Meinung hat auch Werte. Eine Meinung kann genauso positiv, wie negativ, wie neutral sein. Warum soll ich also mit deiner Meinung konform gehen, wenn die Aussage deiner Meinung einfach unwahr ist. Das hat nichts mit freier Meinungsäußerung gemein. Zudem habe ich nicht kritisiert, dass du deine Meinung in die Öffentlichkeit trägst. Ich habe klar und deutlich dir aufgezeigt, dass deine Meinung falsch ist. Zudem auch traurig, dass du mit 3 Beiträge pro Tag nach knapp 15 Jahren solch eine flache Meinung an den Tag legst. Dabei kannst du deine Meinung in Wissen umwandeln und müsstest nicht immer nur meinen.Ich glaube du nimmst das alels etwas zu ernst und bäst hier einfache Realitäten unnötig auf..
Jeder hat seine Meinungen und Ansichten, nur weil menie nicht die deinen sind sinds nicht gleich Lügen.
Ruhe Bewahren, Sicherheit ausstrahlen
Und ruhig durchatmen nicht vergessen
Und wenn es noch so oft gepostet wird, das hat TSMC nie behauptet!
Was sie wirklich behauptet haben ist, daß der Ramp-up im vollen Gange sei und 16FF+ im 4.Quartal bereits 9% von TSMCs Umsatz ausmachen soll.
Der Unsinn ist entstanden, weil TSMC 2016 das InFO-Geschäft in 16FF+ starten wird und irgend ein Vollpfosten hat dann das InFO einfach weggelassen und daraus gebastelt, daß TSMC 16FF+ erst 2016 starten wird. Und wie immer, ein Vollpfosten kommt selten allein...
Aus meiner Sicht hat @Thrawn. recht.
Klar war ich am überlegen ob ich dieses Jahr noch meine GPU update aber diese News hat mir den Schubs gegeben auf Pascal zu warten. Wenn das bei mir so ist, warum nicht auch bei anderen?
Frei nach dem Motto: Wenn schon HBM, dann richtig und mit HBM 2 auf einer schönen Titan. Somit kommt bei mir 4K Zocken in 2016 und bis dahin mache ich halt in FHD weiter. Ist doch auch schön.
@MT_RAZORLIGHT
Klar habe ich eine grüne Brille (und das ist auch gut so)! Welche Farbe hat denn Deine Brille?
Aus meiner Sicht hat @Thrawn. recht.
Klar war ich am überlegen ob ich dieses Jahr noch meine GPU update aber diese News hat mir den Schubs gegeben auf Pascal zu warten.
Du Missverstehst mich, ich wollt damit sagen wenn NVIDIA nur gute marketing hätte und schlechte Produkte hätten sie DEN Erfolg nicht, sondern sie haben eben beides.
beim boxen waeren schlaege unter die guertellinie ja verboten
Bei TitanX hatte das A1 Silizium sein Tapeout zu dem Zeitpunkt (Mai 2014). A0 war viel früher. NV hat das nur so kommuniziert. Man entwickelt keinen Chip dieser Größe in so wenigen Monaten.Mit welcher Aussage hat er denn konkret recht? Da bin ich jetzt aber mal gespannt.
Aber du bist auch so ein Vogel, der AMD Pest und Cholera wünscht, also wundert so ein Allgemeinplatz " er hat recht" aus deinem Munde eh niemanden.
Für Argumente bist du selbsverständlicherweise immer genauso unerreichbar wie die anderen Provokateure.
Wieso? Das ist doch nur der Tapeout. TitanX hatte seinen Tapeout 9 Monate vor dem Release, bei einem alten Prozess, ohne HBM.
"Wenn das bei mir so ist, warum nicht auch bei anderen?"
Weil so ziemlich jede News von mitte bis ende nächsten Jahres schreibt und eigentlich nur hier von einem Produktionsstart geredet wird, was nebenbei eine Verwirrung des Lesers darstellt.
Schwarz, wie Sonnenbrillen nunmal so sind und ich ansonsten kein Brillenträger bin
Hab noch nie schwarze Gläser gesehen.....bist dir sicher?
und wieder AMD vs NV gebashe.
mal was ganz neues ...
Aus meiner Sicht hat @Thrawn. recht.
Klar war ich am überlegen ob ich dieses Jahr noch meine GPU update aber diese News hat mir den Schubs gegeben auf Pascal zu warten. Wenn das bei mir so ist, warum nicht auch bei anderen?
Frei nach dem Motto: Wenn schon HBM, dann richtig und mit HBM 2 auf einer schönen Titan. Somit kommt bei mir 4K Zocken in 2016 und bis dahin mache ich halt in FHD weiter. Ist doch auch schön.
@MT_RAZORLIGHT
Klar habe ich eine grüne Brille (und das ist auch gut so)! Welche Farbe hat denn Deine Brille?
Finde die Diskussion auch unnötig. Einfach NV kaufen und gut ist.
*trollmode*
Nein, du hast nicht recht, mit keiner deiner Aussagen und nun ist schluss mit dem Getrolle.
Spar dir deine Unwahrheiten für den Release von Fijji auf, da brauchst du wieder Atem um weiter bashen zu können.
Finde die Diskussion auch unnötig. Einfach NV kaufen und gut ist.
*trollmode*
schau mal beim Optiker vorbei und frag nach einer SONNENBRILLE
Ich finde im uebrigen das die 970 Sache von den roten massiv aufgebauscht wird, ob mit 3,5 oder 4GB, die 970 bleibt ne Top Karte !
Das Topmodell kommt im Moment von NVIDIA und kostet ca 1000€, jedoch hat dieses Topmodell in 90-95% der Spiele keine Chance gegen zwei 290x (alter ZWEI Jahre), welche 600€ kosten.
Interessant... keiner erwähnt, dass AMD seit zwei Jahren keine neue Karte mehr herausgebacht hat und die 290x dennoch nur 10% langsamer ist als die aktuelle GTX 980.
Wartet... kurz vor der 290x kam doch die GTX780 auf den Markt und diese war zum Teil 15-20% langsamer als die 290x...
NVIDIA hat aber auch Vorteile, denn sie unterstützen so viele Projekte, dass AMD zu Release etwas blöd aus der Wäsche schaut (siehe The Witcher 3).
Ich finde auch, dass die GTX970 eine interessante Karte ist, wenn man auf den Stromverbrauch achten WILL, die Karte günstig sein soll und dennoch gute Leistung will...
@Thrawn: Dass es noch Personen gibt, die so extrem beschränkt denken, ist unfassbar. Mir kommt es so vor, als ob du dich mit dem Thema garnicht auseinander gesetzt hast und es auch nicht willst. Das Topmodell kommt im Moment von NVIDIA und kostet ca 1000€, jedoch hat dieses Topmodell in 90-95% der Spiele keine Chance gegen zwei 290x (alter ZWEI Jahre), welche 600€ kosten.
Interessant... keiner erwähnt, dass AMD seit zwei Jahren keine neue Karte mehr herausgebacht hat und die 290x dennoch nur 10% langsamer ist als die aktuelle GTX 980.
Wartet... kurz vor der 290x kam doch die GTX780 auf den Markt und diese war zum Teil 15-20% langsamer als die 290x...
NVIDIA hat aber auch Vorteile, denn sie unterstützen so viele Projekte, dass AMD zu Release etwas blöd aus der Wäsche schaut (siehe The Witcher 3).
Ich finde auch, dass die GTX970 eine interessante Karte ist, wenn man auf den Stromverbrauch achten WILL, die Karte günstig sein soll und dennoch gute Leistung will...
@Thrawn: Dass es noch Personen gibt, die so extrem beschränkt denken, ist unfassbar. Mir kommt es so vor, als ob du dich mit dem Thema garnicht auseinander gesetzt hast und es auch nicht willst. Das Topmodell kommt im Moment von NVIDIA und kostet ca 1000€, jedoch hat dieses Topmodell in 90-95% der Spiele keine Chance gegen zwei 290x (alter ZWEI Jahre), welche 600€ kosten.
Interessant... keiner erwähnt, dass AMD seit zwei Jahren keine neue Karte mehr herausgebacht hat und die 290x dennoch nur 10% langsamer ist als die aktuelle GTX 980.
Wartet... kurz vor der 290x kam doch die GTX780 auf den Markt und diese war zum Teil 15-20% langsamer als die 290x...
NVIDIA hat aber auch Vorteile, denn sie unterstützen so viele Projekte, dass AMD zu Release etwas blöd aus der Wäsche schaut (siehe The Witcher 3).
Ich finde auch, dass die GTX970 eine interessante Karte ist, wenn man auf den Stromverbrauch achten WILL, die Karte günstig sein soll und dennoch gute Leistung will...
@Thrawn: Dass es noch Personen gibt, die so extrem beschränkt denken, ist unfassbar. Mir kommt es so vor, als ob du dich mit dem Thema garnicht auseinander gesetzt hast und es auch nicht willst. Das Topmodell kommt im Moment von NVIDIA und kostet ca 1000€, jedoch hat dieses Topmodell in 90-95% der Spiele keine Chance gegen zwei 290x (alter ZWEI Jahre), welche 600€ kosten.
So hart wollte ich es nicht ausdrücken... aber AMD reagiert hier mittlerweile recht schnell :Pdu nennst es unterstützen, ich nenne es den Konkurrenten und die eigenen GPUs sabotieren um höhere Absätze zu forcieren.
Wie viel Watt? Im Furmark waren es bei mir knappe 550 bei der X waren es 300 (eigentlich etwas mehr, aber so lässt es sich leichter rechnen )... jetzt kannst du dir ja ausrechnen ab wann sich die X rentiert :P so ab 250 Tage durchgehenden Betrieb auf Maximallast ab dann kostet die X weniger als die zwei 290x... bei deiner 980TI sind es immernoch durchgehende 63 Tage...
Was man hierbei dennoch beachten muss, dass die 290X im CF doch "etwas" mehr Leistung haben.
NVIDIA hat aber auch Vorteile, denn sie unterstützen so viele Projekte, dass AMD zu Release etwas blöd aus der Wäsche schaut (siehe The Witcher 3).
.
fdsonne schrieb:Wenn 63 Tage Volllast reichen um den Mehrpreis der 980TI reinzubekommen, dann sind das knapp über 4h pro Tag im Schnitt auf ein Jahr gerechnet.
Spielst du mit dem Ding, dann dürfte das im Schnitt definitiv drin sein, so dass es sich rechnet.