NVIDIA GeForce GTX Titan Ultra soll Mitte Oktober kommen

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.288
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="nvidia" src="/images/stories/logos/nvidia.gif" height="100" width="100" />Während derzeit alle Augen auf den <a href="index.php/news/hardware/grafikkarten/28122-finale-spezifikationen-der-radeon-r9-290x-und-r9-290.html">Start der neuen Grafikkartengeneration von AMD</a> gerichtet sind, soll auch die Konkurrenz einen 3D-Beschleuniger in der Hinterhand halten und demnächst zum Gegenschlag ausholen. Auch wenn AMDs kommendes Flaggschiff, die Radeon R9 290X, erst am 15. Oktober seinen Stapellauf feiern soll, machten bereits Gerüchte die Runde, die neue Radeon würde mit <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a>s GeForce GTX Titan <a...<br /><br /><a href="/index.php/news/hardware/grafikkarten/28127-nvidia-geforce-gtx-titan-ultra-soll-mitte-oktober-kommen.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
und dann schön sli :)
 
Warum verbraucht die Ultra Karte mit dem selben Chip darauf weniger Strom als die normal Titan ?
Das kann glaub ich nicht so ganz sein oder ?
Naja ist ja nur ein Gerücht ^^

Aber die Vorredner haben schon recht , wenn das Ding über 1000€ Kostet dann können wir schon uns Kaputtlachen, vorallem über die die dann so eine Karte kaufen und damit Posen ;) grins ;)
 
Auslachen? Schon mal dran gedacht das es genug Leute gibt die sich so eine Karte oder zwei kaufen und es am Ende des Monats trotzdem nicht weh tut? Man man man, immer diese superschlauen Sparfüchse...
 
Dann noch eine GTX 790 nach geschoben und wir sind "Und täglich grüßt das Murmeltier"-Modus...
 
Auslachen? Schon mal dran gedacht das es genug Leute gibt die sich so eine Karte oder zwei kaufen und es am Ende des Monats trotzdem nicht weh tut? Man man man, immer diese superschlauen Sparfüchse...

Die Leute sollten mal einige Tage hungern, dann sehen sie die Dinge gleich mit ganz anderen Augen. :bigok:

Grüße
Sharie
 
Sparfüchse, naja da hast schon bisi recht aber vielleicht denken auch einige an die Effizienz oder an Preis/Leisung. 2 Solcher Karten im System ?! WoW was hat das den für einen Sinn ? Leistung und Stromverbrauch ohne Ende , aber ausnutzen kannst du die Leistung eh nicht bei aktuellen Spielen
 
Die Leute sollten mal einige Tage hungern, dann sehen sie die Dinge gleich mit ganz anderen Augen. :bigok:

Grüße
Sharie

Warum sollten sie? Weil sie sich in der Schule/Ausbildung angestrengt haben und für ihr Geld arbeiten gehen?

Auch diese Karte wird Abnehmer finden und ich Frage mich immer, warum Leute meinen zu wissen, dass andere diese Karte nicht brauchen.

Ich finde bei dem Teil P/L auch "unschön", aber jeder gibt das aus was es einem Wert ist. Mein System hat auch schon ein paar Tausender verschlungen, und? Mir war es das wert und dafür gehe ich eben arbeiten.

Und, da wir ja schon mal das "vergnügen" hatten, dass du zuhause bist, ist dein System ja wohl mehr als zum "hungern" ;)

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Da freuen sich bestimmt diejenigen, die bei der ollen Standard-Titan zugeschlagen haben. Eine Überkarte, deren Name schon ihre Exklusivität suggerieren sollte.

XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI
Die GeForce GTX Titan soll das Non-Plus-Ultra der aktuellen GPU-Entwicklung darstellen und NVIDIA gibt in Sachen Performance und Preisgestaltung an, keinerlei Kompromisse eingehen zu wollen. In der griechischen Mythologie verloren die Titanen den Kampf gegen die Olympier und wurden in die Unterwelt verbannt.

Schade, dass die neue nicht Olymp heißt.
Dann war die Titan doch nur Non-Plus. Das Ultra kommt jetzt. :d
 
Und dieser Post auch noch von einem Dionysos verfasst :d

wäre geil wenn die bei der Ultra die Spannungsversorung umbauen und auf 1.25v hochgehen würden aber ich denke ein bissl mehr Takt und nichts weiter dahinter. Abgesehen vom Vollausbau des Chips.
 
Warum verbraucht die Ultra Karte mit dem selben Chip darauf weniger Strom als die normal Titan ?
Das kann glaub ich nicht so ganz sein oder ?
Naja ist ja nur ein Gerücht ^^

Das ist dann Boost 5.0. Also für 5min 1300Mhz und dann wird runtergetaktet auf 130Mhz. Idealer Durchschnittsverbrauch und in den Benchmarks ganz oben. Ist doch eine tolle Gamerkarte oder? :lol:


Titan ist doch nur so teuer, damit die GTX780 und Gk104 zum "Schnäppchen" wird. "Augen auf beim Grafikkartenkauf".... ;)
 
Zuletzt bearbeitet:
Das ist dann Boost 5.0. Also für 5min 1300Mhz und dann wird runtergetaktet auf 130Mhz. Idealer Durchschnittsverbrauch und in den Benchmarks ganz oben. Ist doch eine tolle Gamerkarte oder?
Titan ist doch nur so teuer, damit die GTX780 und Gk104 zum "Schnäppchen" wird. "Augen auf beim Grafikkartenkauf".... ;)

Titan ist vor allem so teuer, damit sich die Unis und sonstigen Forschungsanstalten nicht mit billigen DP-Karten eindecken.

Und du hast was vergessen. Die Performance bei 130 MHz ist nicht gerade berauschend. Oder weißt du genau, wann welcher Tester den Verbrauch misst? Bleib doch mal ernsthaft und beim Thema, statt zu trollen. So einen Unsinn hab ich ja noch selten gelesen. Mit gebinnten Chips ist es sicher möglich, den Verbrauch nicht zu steigern trotz ein SMX mehr und vielleicht nochmal 5% mehr Takt. Ob Nvidia sich die Mühe macht, steht auf einem anderen Blatt.
 
Immer wieder das "Ich habe es ja, also Klappe zu"-Geplänkel.

Als die GTX 780 angekündigt wurde, haben eben die Titan-Käufer ganz schnell ihre 1000€ Karten auf egay und im MP verkloppt, um einen größeren Wertverlust zu vermeiden - und sie dann durch eine halb so teure, aber nur 5% langsamere GTX 780 ersetzt.
 
Die News ist falsch, Nvidia hat für die Tage eine neue Quadro bzw. Tesla GPU angekündigt.
 
Wir wollen die 2000€ Marke fallen sehen :P Zur Not auch mit der Nvidia Geforce Titan Ultra Plus Turbo
 
Warum spinnt man sich hier jetzt ne Titan Ultra zusammen, wenn die ersten 15SMX GPU´s jetzt erst für den professionellen Markt kommen?
Da kann man sicherlich noch ein paar Wochen/MOnate warten, bis Nvidia auf die 290X antwortet, wenn es denn überhaupt nötig sein sollte.
Ich halte eine 14SMX oder gar 13 SMX Karte mit höherem Takt wahrscheinlicher, siehe Gerüchte um GTX 780 i
 
Immer wieder das "Ich habe es ja, also Klappe zu"-Geplänkel.

[...]
Andere User im übertragenen Sinne als quasi "Idioten" etc. zu bezeichnen, nur weil deren Konsumverhalten ("überteuerte Grafikkarten weil sie sichs leisten können") nicht in einigen ihrer Wertvorstellung passt, ist höchstwahrscheinlich auch nicht das Gelbe vom Ei.

Was ärgert den "nVidia-Preis-Hater" am Meisten? Das nVidia solche Preise für ihre Hardware verlangt (die man sich nicht leisten kann oder will, obwohl man die Hardware vielleicht gern hätte?!) und die dennoch gut verkauft wird oder AMD fette Spiele-Bundle drauf legen muss um die ohnehin günstigeren Karten loszuwerden?!

Eigentlich ist das Grafikkarten Angebot so groß, das für jeden etwas dabei sein sollte im angepeilten Preis- oder Performancebreich. Die "Traum-VGA" mit Titan-Leistung zum GT610-Preis gibt es aktuell nicht, das Leben ist nun mal kein Wunschkonzert ... bis auf diejenigen, welche das nötige Kleingeld haben.

MfG :wink:




Wir wollen die 2000€ Marke fallen sehen :P Zur Not auch mit der Nvidia Geforce Titan Ultra Plus Turbo
Hier schon lange:
PNY Quadro K6000 schrieb:
Chip: GK110Chiptakt: 902MHz, Boost: keine Angabe • Speicher: 12GB GDDR5, 1502MHz, 384bit, 288GB/s • Shader-Einheiten/TMUs/ROPs: 2880/240/48 • Rechenleistung: 5196GFLOPS (Single), 1732GFLOPS (Double, 902MHz) • Fertigung: 28nm • Leistungsaufnahme: 225W (TDP), keine Angabe (Leerlauf) • DirectX: 11.0 • OpenGL: 4.3 • OpenCL: 1.2 • Shader Modell: 5.0 • Schnittstelle: PCIe 3.0 x16 • Bauweise: Dual-Slot • Kühlung: 1x Radial-Lüfter (65mm), Referenzdesign • Anschlüsse: 2x DVI, 2x DisplayPort 1.2 • Externe Stromversorgung: 2x 6-Pin PCIe • Abmessungen: 267x111x38mm • Besonderheiten: keine Angabe • Herstellergarantie: drei Jahre




Warum verbraucht die Ultra Karte mit dem selben Chip darauf weniger Strom als die normal Titan ?
Das kann glaub ich nicht so ganz sein oder ?
Naja ist ja nur ein Gerücht ^^

Aber die Vorredner haben schon recht , wenn das Ding über 1000€ Kostet dann können wir schon uns Kaputtlachen, vorallem über die die dann so eine Karte kaufen und damit Posen ;) grins ;)
Bei der Quadro K6000 geht es doch auch, warum also nicht bei ner Titan "Ultra"?
 
Zuletzt bearbeitet:
Warum verbraucht die Ultra Karte mit dem selben Chip darauf weniger Strom als die normal Titan ?
Das kann glaub ich nicht so ganz sein oder ?
Naja ist ja nur ein Gerücht ^^

Aber die Vorredner haben schon recht , wenn das Ding über 1000€ Kostet dann können wir schon uns Kaputtlachen, vorallem über die die dann so eine Karte kaufen und damit Posen ;) grins ;)

Vermutlich wird die Karte so heiß das an den Turbinen ähm Lüftern energie-Generatoren angebracht sind die letztendlich die Energie rückgewinnen ^^.

@ SFVogt ich rede aber von Geforce-Karten ^^ Das die Business Karten wie die FirePro S10000 jenseits der 2000€ sind ist mir bekannt.
 
Zuletzt bearbeitet:
Auch wenn man das ganze mit einem Modbios umgehen kann wäre es trotzdem schön zu sehen wenn Nvidia bei der Ultra das mögliche einstellbare Powertarget lockert. Die normale Titan kommt so dermaßen leicht ans Power Target(je nach Spiel reichen da schon maximale Ingame Einstellungen. An Downsampling und Umgebungsverdeckung etc braucht man mit 106% gar nicht denken) das man fast gar nicht drum herum kommt ein Modbios zu nutzen.
 
Auch wenn man das ganze mit einem Modbios umgehen kann wäre es trotzdem schön zu sehen wenn Nvidia bei der Ultra das mögliche einstellbare Powertarget lockert. Die normale Titan kommt so dermaßen leicht ans Power Target(je nach Spiel reichen da schon maximale Ingame Einstellungen. An Downsampling und Umgebungsverdeckung etc braucht man mit 106% gar nicht denken) das man fast gar nicht drum herum kommt ein Modbios zu nutzen.

Die einstellbaren Werte richten sich doch mehr oder weniger nach den definierten TDP Klassen...
Titan kommt mit 250W + 6% = 265W daher... Erreichst du das Limit, dürftest du also freilich auch irgendwo in diesen Größenordnungen Strom verbrauchen. Mehr geht natürlich immer irgendwie, die Frage bleibt, ist es praktikabel?

Wenn die 225W TDP hier spekuliert stimmen sollten (sofern überhaupt so ne Ultra irgendwas noch kommt), müsste man also freilich auch die Powertargetregler höher stellen dürfen, damit hintenraus nicht zu wenig raus kommt. ;)
Da sollten also praktischerweise bis 17,78% machbar sein um auf 265W zu kommen. -> der Vorteil der Vollausbau GK110 GPU ist, sie braucht weniger Takt für die entsprechende Leistung. Was eben die Effizienz erhöht.

Unterm Strich ist das aber ne aus meiner Sicht verzwickte Situation von NV... Ich denke mal, so einige Titan Karten sind noch irgendwo in den Händlerregalen zu finden. Jetzt ne ähnlich preisige (oder höherpreisige) GK110 Vollausbau Titan nachzuschieben heist für den Kunden dann dreifach überlegen. -> günstige ~550€ für die 780? teurere ~850€ für die Titan? Oder noch teurere? Euros für die Ultra... Und das für ne Leistungsdifferenz von 5-10% im Schnitt.
Wer auf 6GB VRAM und die DP Performance verzichten kann, greift ja jetzt schon nicht zu Titan ;) Und die jenigen, die es sich leisten können/wollen, könnten zur dann wohl definitiv ein Stück weit günstigeren Titan anstatt der Ultra greifen -> und NV hat auch nicht viel gekonnt.

PS: mich dünkt übrigens hier sehr stark, das die Werte quasi analog der K6000 Quadro sind... Ich könnte mir vorstellen, da kommt gar keine Titan Ultra ;) und die Spekulationen sind einfach aus der Luft gegriffen...
 
PS: mich dünkt übrigens hier sehr stark, das die Werte quasi analog der K6000 Quadro sind... Ich könnte mir vorstellen, da kommt gar keine Titan Ultra ;) und die Spekulationen sind einfach aus der Luft gegriffen...

Lustigerweise ist die News hier auch viel festgelegter als die Ausgangsquelle. ;)
 
Die einstellbaren Werte richten sich doch mehr oder weniger nach den definierten TDP Klassen...
Titan kommt mit 250W + 6% = 265W daher... Erreichst du das Limit, dürftest du also freilich auch irgendwo in diesen Größenordnungen Strom verbrauchen. Mehr geht natürlich immer irgendwie, die Frage bleibt, ist es praktikabel?

Ich hatte längere Zeit SLI. Genau zu sein 580er 2/3 Fach und bei den 680ern 2 Fach. Da hab ich jetzt kein Problem wenn meine eine Titan noch etwas mehr als 265 zieht^^

Mir ging es auch eher darum das die Titan von Nvidia ja als die Ultimative Karte beworben wird. Da finde ich (persönliche Meinung) es fast schon eine Frechheit das man es je nach Spiel mit Leichtigkeit schafft die Karte alleine mit Ingame Einstellungen an das Powerlimit zu treiben und sie nicht mehr im Boost läuft. Klar die Karte ist immernoch im grünen Bereich was die Spezifikationen angeht aber bei einer SO teuren Karte bin ich im Nachhinein doch arg enttäuscht von Nvidia. Die Leistung die die Titan bringt ist brachial trotz des häufigen Erreichens des Targets. Gutes Beispiel ist Crysis 3. Viele Karten erreichen da bereits ohne jegliches OC das Limit.

Stört mich jetzt da es das Mod Bios gibt nicht wirklich aber ich glaube wenn das nächste mal ein Grafikkartenkauf ansteht werde ich das ganze wesentlich kritischer vorher abwägen. Da ich mit meinen 680ern keinerlei Probleme mit dem Powertarget hatte hab ich den Kauf der Titan relativ schnell beschlossen da ich davon ausging das es da ebenso der Fall sein wird.

Was lernen wir daraus? Beim nächsten mal mehr Geduld beim Hardwarekauf. Bis es wieder soweit ist genieße ich die Titan mit dem Modbios denn ohne dieses kann die Karte ihre ganze Power nichtmal ansatzweise ausspielen. Und deshalb wünsche ich mir für die Ultra, sollte sie denn kommen auch wenn ich sie nicht kaufen werde das sie es da großzügiger auslegen.


Edit meint:

Was ich auch nicht nachvollziehen kann ist wie Boost 2.0 agiert.

Zum ersten warum taktet die Karte bei 80 Grad auf die niedrigste Booststufe UND gleichzeitig ist das Templimit @stock ebenfalls auf 80 gesetzt ?

Zu Beginn von Boost bin ich davon ausgegangen, da es mir als einzig logische Möglichkeit vorkam, dass wenn die Karte in das gesetzte Templimit läuft der Lüfter schneller drehen würde. Aber anstelle dessen taktet die Karte herunter.

Wenn ich bspw Das Templimit auf 70 oder 60 lege dann würde ich meinen dreht einfach der Lüfter schneller. Was tut die Karte stattdessen? Reduziert den Takt und die Spannung um einen erheblichen Teil sodass Spiele beginnen zu ruckeln da nichtmehr genug Takt anliegt. Die Karte ist wie @stock dabei super leise aber auf Kosten der Performance.

Alles kann man entweder mit Wakü oder mit einem manuellen Fanprofil entgegensteueren. Das ist zwar nett aber für chronisch faule Leute wie mich nur nervig :d . Wenn man dann noch sieht das wenn ich den Lüfter der Titan zum test von 30% auf Maximal drehe das Powertarget der Karte um 10% steigt was den Verbrauch angeht sind wir wieder bei den 265W . Wenn ich also eine annehmbare Temperatur in einem aktuellen Spiel halten will + gleichzeitiges OC kann ich das direkt knicken da ich den Lüfter höher stellen muss um die 80Grad nicht zu erreichen. Gleichzeitig auf Grund des schnelleren Lüfters wird mehr vom Powertarget verbraucht welches ich eigentlich für das OC brauche.

Wenn man es also genau betrachtet gibt es nur 2 Möglichkeiten die Titan richtig auszunutzen.

1) Wakü. Wobei jenachdem wie Powerhungrig die Karte ist man auch dann nicht um ein Modbios drum herumkommt wenn man OCen will.
2) Modbios was ja die Garantie erlischen lässt.

Beides lässt theoretisch die Garantie erlischen. Aber wenn ich die Titan richtig nutzen will habe ich da gar keine andere Wahl. Das lässt mich ein wenig an Nvidia zweifeln. Vielleicht wollen sie mit diesen knapp bemessenen Targets ja erreichen das die Karte nicht zu stark ist um ihren Nachfolger nicht ebenbürtig zu sein. Finanziell kann ich das aus Nvidia Sicht nachvollziehen. Wiederrum denke ich das jeder der 800-1000€ für so ein Stück hinblättert diese "Beschneidung" erkennen wird und dementsprechend irgendwo enttäuscht sein dürfte UND den nächsten Graffikkartenkauf wesentlich kritischer vorher abwägen wird(Zumindest ich werde dies tun und ich hoffe einige andere auch).
 
Zuletzt bearbeitet:
Immer wieder das "Ich habe es ja, also Klappe zu"-Geplänkel.

Als die GTX 780 angekündigt wurde, haben eben die Titan-Käufer ganz schnell ihre 1000€ Karten auf egay und im MP verkloppt, um einen größeren Wertverlust zu vermeiden - und sie dann durch eine halb so teure, aber nur 5% langsamere GTX 780 ersetzt.

also ich habe meine imemr noch *:d und mit der wakü kann man die ordentlich prügeln. die ultra juckt mich aber momentan nit so, weil ich sie nicht brauche, battlefield 4 wird kein problem für die normale titan und mehr steht eh nicht auf dem einkaufszettel, stalker mods die noch kommen bzw. lost alpha und sachen wir survarium werden ebenfalls keien probleme bereiten für die titan und da uich @1080 p zocke (außer spiele die man halt problemlos downsamplen kann) ist die titan weiterhin optimal für super spielgenuss. nächstes jahr woltle ich mir einen neuen pc kaufen. warte dann damit aber ab bis die nächste generation, in dem fall dann am ehesten ne 880 GTX oder so, kommt. alternativ köntne man dann immer noch ne titan ultra in den neuen pc bauen lassen, aber es ist wohl davon auszugehen, dass die neue serie mindestens genauso schnell wenn nit schneller ist, da maxwell. da soltle man von ausgehen, dass die auch eine titan ultra übertrumpft. muss man dann sehen, webnn die titan ultra schneller sein sollte, wirds die ultra *:d
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh