GTC 2014: NVIDIA zeigt die GeForce GTX Titan Z

Also Ich find Sie gut, ob man so was braucht als Zocker oder Surfer ? mfg
nein Braucht man nicht, nur wenn du 3D Grafikdesign machst oder andere Grafik saugenden Programme sozusagen. Als Zocker brauch man schon einiges an Leistung bzw. Grafikkartenspeicher. Der Speicher ist aber wiederum nicht alles. z.B kann ich Spiele mit meiner GTX660Ti spielen, die weniger Speicher haben, als eine größere bzw. neuere.

Wenn du dich für für eine Grafikkarte interessierst, würde ich mal bei Computeruniverse schauen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Können mir die "angestaubter"-Chip-Experten mal erklären, was genau da so unglaublich alt und, ich zitiere mal Sharif, "low und fail" ist?
 
Der GK110 ist bereits seit mehr als einem Jahr im Handel und sicherlich zwei Jahre Tapeout. Der Chip ist wohl noch aktuell weil AMD leistungstechnisch wenig Druck aufgebaut hat und der 20nm Prozess noch mies ist. Ich bin mir sicher das ein Topend Maxell in der Schublade liegt und gemütlich darauf wartet bis die Lager mit den 110 langsam leer werden. Wahrscheinlich holt man den wieder raus und versucht noch dx12 reinzukriegen.
 
Ja nur was macht ihn "alt"? Auch nach zwei Jahren dominiert der Spaß noch locker das High End-Segment und wird da frühestens 2015 vom High End Maxwell verdrängt (Wie groß der Vorsprung da ausfällt muss sich dann noch zeigen), sprich bis mindestens 2015 hinein, wird GK110 noch High End bis Performance-Level darstellen. Also weit über dem was die Masse kauft. Und was hat die Konkurrenz zu bieten? GCN 2.0, nicht schlecht aber auch keine Magie - wir sind inzwischen an einem Punkt, wo "alt" auch Up-to-Date ist. Das erinnert mich immer etwas an diese lustige DX11-Versions-Diskussion, weil AMD ja DX 11.1 und 11.2 bietet und Nvidia nur DX 11, was soll ich sagen, ich erkenne keinen Unterschied zwischen meiner alten GTX 670 und meiner jetzigen 270x. Das wird hier immer heißer gekocht als es am Ende ist...
 
Können mir die "angestaubter"-Chip-Experten mal erklären, was genau da so unglaublich alt und, ich zitiere mal Sharif, "low und fail" ist?

Das frage ich mich auch?
Für so ne olle Möhre ist der GK110 jedenfalls ziemlich Engergieeffizient und hat OC Reserven bei denen es eigentlich Nvidia selbst gruseln sollte.
Darum bin ich gespannt in wie weit Maxwell da überhaupt irgendeine Steigerung bringen soll?
Okay (noch) Effizienter wirds vermutlich..
 
Also ich kann der Karte nichts positives abgewinnen. Alte GPU Technik die auch noch im Takt und wahrscheinlich OC beschnitten ist. Keinerlei Zukunftsicherheit wegen der fehlenden DX 12 Unterstützung. Der Ram ist mit 6Gb unterdimensioniert denn ein UHD Star Citizen mit einigen Mods wird bestimmt den Ram vollballern. Einfach irgendwie aufgebackene Brötchen die zum horrenden Premiumpreis angeboten werden. Nur der Preis ist interessant denn der ist wirklich exclusiv und wird hoffentlich nicht so schnell getoppt. Ich bin mir recht sicher das der 20nm Topend Chip die Karte spätestens mit OC übertrumpfen wird, so wie es auch bei vergangenen Dualkarten war. Und das bereits nach einigen Monaten.
 
Ich denke wirklich das die nicht für Spieler eigentlich konzipiert wurde. Natürlich wird es ein paar geben die sich dieses Monster in ihr Case holen, aber ich zweifel das sie wirklich benötigt wird. :fresse2:
 
Zuletzt bearbeitet:
Leistung kann Mann nicht genug haben. Downsampling, 144hz, 3d, Occulus, UHD. Aber doch nicht in dieser Form. Zwei Titan im Gespann sind potenter, billiger und ein Gespann sieht für mich besonders mit Wakü besser aus. Normalerweise gibt es Mengenrabatt, aber bei Nvidea gibt es einen saftigen Aufpreis.
 
Verstehe die Argumentation nicht!
Wenn zwei Titan im Gespann potenter und billiger sind und man das braucht (haben will), dann kauft man sich halt zwei Titan und fertig.
Über Sinn, Zweck, Preis und wer denn so etwas kaufen könnte muss NV sich den Kopf zerbrechen aber wir doch nicht.

Klar ist eine GTX Titan Z in 2-3 Jahren altes Eisen aber dann kauft man sich wieder was Neues und hatte seinen Spaß damit.
Mein letzter 2 Wochen Urlaub hat fast das 3 fache gekostet und heule ich deshalb? Nein, Spaß gehabt und ich bin schon wieder Urlaubsreif.
 
Mein letzter 2 Wochen Urlaub hat fast das 3 fache gekostet und heule ich deshalb? Nein, Spaß gehabt und ich bin schon wieder Urlaubsreif.

Tja wärste statt dessen eine Woche nach Bulgarien gefahren, könntest du noch fünf mal weg fahren. Um mal die Analogie beizubehalten. :d

Mal grundsätzlich und abseits des Preises: Mit der Z kann man sich wohl definitiv der flotteste ITX-Gaming-Kiste wo gibt basteln... :fresse2:
 
wenn ich die Karre meiner Süßen verscheuer, könnt ich mir´n Z-SLI holen.
allerdings würd sie wohl Schluss machen dann.
hm ...
schwere Entscheidung ... :hmm:
 
Verstehe die Argumentation nicht!
Wenn zwei Titan im Gespann potenter und billiger sind und man das braucht (haben will), dann kauft man sich halt zwei Titan und fertig.
Über Sinn, Zweck, Preis und wer denn so etwas kaufen könnte muss NV sich den Kopf zerbrechen aber wir doch nicht.

Klar ist eine GTX Titan Z in 2-3 Jahren altes Eisen aber dann kauft man sich wieder was Neues und hatte seinen Spaß damit.
Mein letzter 2 Wochen Urlaub hat fast das 3 fache gekostet und heule ich deshalb? Nein, Spaß gehabt und ich bin schon wieder Urlaubsreif.

Ist genau so ein schlechtes Beispiel wie "ich kauf mir 2x680 oder eine 690 und hab die gleiche Leistung wie eine Titan. "
Totaler driss denn sli ist vom Treiber abhängig und hat niemals die gleich saubere bildausgabe einer Karte.
Gesendet von meinem C6903 mit der Hardwareluxx App
 
Ist genau so ein schlechtes Beispiel wie "ich kauf mir 2x680 oder eine 690 und hab die gleiche Leistung wie eine Titan. "
Totaler driss denn sli ist vom Treiber abhängig und hat niemals die gleich saubere bildausgabe einer Karte.
Gesendet von meinem C6903 mit der Hardwareluxx App
Laufen denn diese Dual-GPU Karten nicht intern auch wie mit SLi :confused:
 
Jo das ist SLI auf einem PCB. Wobei er mit "einer Karte" die einzelne Titan meint, meine ich. ;)

Jawollski.
Das mit der 690 war auch ein schlechtes Beispiel und war auch nur aufs sli bezogen. Denn vom Preis waren die ja quasi gleich auf. Aber mal im ernst. Du kannst nicht jede Karte für sli gebrauchen. Meiner Meinung nach jedenfalls sind alle Karten bis 2gb vram sind eigentlich für sli ungeeignet. Aber das ist nur meine Meinung

Gesendet von meinem C6903 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
ich überlege noch :fresse:

:fresse2: :haha:

Finde alle Karten bis 2gb vram sind eigentlich für sli ungeeignet. Aber das ist nur meine Meinung

Gesendet von meinem C6903 mit der Hardwareluxx App

Spätestens im Jahre 2014 solltest du damit auch nicht mehr unrecht haben. Wobei Multi-GPU, neben dem RAM, immer nu Sinn macht, solange man nicht für ähnliches Geld auch eine Single-GPU bekommen kann. Aber das sollte bei der Titan Z wohl noch etwas dauern. :d
 
ach, echt? wo hab ichn Probleme mit meinen 2GB? wusst ich ja noch gar nich ...
 
Für 1080p ohne 8xSGSSAA schieß mich tot Settings reichen 2GB selbstverständlich.
 
Ist das nicht die Karte, die eine GTX790 hätte werden sollen?

Na wie dem auch sei, ich brauch eine. Endlich 3D-Vision + VolleDetails + VSync + VollesAA bei ständig 60FPS+ (naja, wenigstens für ein halbes Jahr)

-nur müsste sie jetzt auch noch bezahlbar sein :(
 
Zuletzt bearbeitet:
Ist das nicht die Karte, die eine GTX790 hätte werden sollen?

Na wie dem auch sei, ich brauch eine. Endlich 3D-Vision + VolleDetails + VSync + VollesAA bei ständig 60FPS+ (naja, wenigstens für ein halbes Jahr)

-nur müsste sie jetzt auch noch bezahlbar sein :(

Ich will ja nicht den Teufel an die Wand malen, aber ich fürchte/hoffe (da bin ich unentschieden) fast das ein paar Wochen nach der Titan Z eine GTX 790 mit 2x 3GB folgen könnte.
Würde mich bei Nvidias derzeitiger Modellpolitik nicht wundern :d
Edit: Vermutlich dann mit beschnittener GPU!
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh