Kommentar: Bekommen wir nun die GeForce GTX Titan 'Ultra'?

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.017
<p><img src="/images/stories/logos/nvidia.gif" width="100" height="100" alt="nvidia" style="margin: 10px; float: left;" />Heute hat <a href="index.php/news/hardware/grafikkarten/27205-nvidia-quadro-k6000-soll-im-herbst-kommen.html" target="_self">NVIDIA die Quadro K6000 präsentiert</a> und damit nach Monaten endlich den Gerüchten ein Ende gemacht, die von einem weiteren High-End-Modell im professionellen Bereich gesprochen haben. Halbleiterhersteller wie TSMC benötigen immer eine gewisse Zeit, bis in ihren Fertigungsstraßen die Anpassung an eine neue Architektur vollendet ist - gerade bei solch komplizierten Chips wie dem GK110 von NVIDIA. Nicht ohne Grund war dieser zunächst über Monate nur auf den Tesla-K20- und K20X-Karten verbaut und nicht ohne Grund kostet auch die <a...<br /><br /><a href="/index.php/news/hardware/grafikkarten/27207-kommentar-bekommen-wir-nun-die-geforce-gtx-titan-ultra.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auch wenn die Glaskugel-User immer etwas anderes gesagt haben: Ich habe nie so recht daran glauben mögen, dass kein Vollausbau mehr kommt. Ich denke nach der Quadro-Ankündigung ist es schon fast klar, dass doch einer kommt.

Eigentlich ist das auch nur logisch, Maxwell ist noch so ewig weit weg... das ist typische Hinhaltetaktik, immer nur ein paar Krumen hinwerfen und beim nächsten Mal halt ein bisschen mehr. Die Leute machen es ja mit, wie man unter anderem auch an mir sehen kann :fresse:
 
192 Kerne mehr ist jetzt nicht die Welt und ob der Grundtakt soviel reisen wird, kann man beim Boost 2.0 nicht annehmen. Da kommt es auf die maximale Taktfrequenz an, die eben nicht immer gegeben ist.

Also von der Referenz Titan ausgehend wäre eine GTX TU mit dem Grundtakt von 900 Mhz nun ca. 10-15% schneller als eine GTX Titan, aber da die meisten Leute ja davon ausgehen, das der Turbo auf max laufen sollte, so kommt die Titan Ultra quasi nur noch auf 5% mehr Leistung. Verrückte Welt ist da mit dem Temperatur-Target-Boost-Takt.

Standard = deutlich schneller
Max-Boost = kaum schneller
 
@Pickebuh
Falsch - da auch der max. Boost einer solchen Karte deutlich höher als bei der Titan wäre. So ist das schließlich auch bei etweiligen Custom-Karten. Der Performanceunterschied würde, egal was kommt, immer bei gut 15% liegen.
 
Bei den Preisen, die NVidia für solche karten aufruft, für die meisten User wohl vollkommen uninteressant.
 
Ja die wird dann sicher nochmal 200€ extra kosten^^
Da bekommt man dann zwei GTX780 was eine Ultra Kostet.
 
@Pickebuh
Falsch - da auch der max. Boost einer solchen Karte deutlich höher als bei der Titan wäre. So ist das schließlich auch bei etweiligen Custom-Karten. Der Performanceunterschied würde, egal was kommt, immer bei gut 15% liegen.

Meinst du jetzt bezogen auf den Standardtakt?

Bei gleichem Takt (z.B 1200mhz) wie die Titan dürfte die Ultra doch keine 10% schneller sein, ist doch in dieser Hinsicht eine eher uninteressante Karte.

@ UHJJ36

Ich denke Nvidia wartet noch ab bis die 9970 kommt, und reduziert dann den Preis dass die Gtx 780 (für Nvidia Verhältnisse) sehr gut darsteht, und die Titan gibts dann für ca 700€ und die Ultra für 900€.
Damit sollte man dass meiste Geld verdienen ;)
 
Zuletzt bearbeitet:
@Pickebuh
Falsch - da auch der max. Boost einer solchen Karte deutlich höher als bei der Titan wäre. So ist das schließlich auch bei etweiligen Custom-Karten. Der Performanceunterschied würde, egal was kommt, immer bei gut 15% liegen.

Quark - Der max Boost-Takt wird sicherlich nicht 10% schneller sein, als der der GTX Titan ! Eher noch langsamer, weil eben mehr Strom benötigt wird.
 
@Pickebuh
Falsch - da auch der max. Boost einer solchen Karte deutlich höher als bei der Titan wäre. So ist das schließlich auch bei etweiligen Custom-Karten. Der Performanceunterschied würde, egal was kommt, immer bei gut 15% liegen.

Was denn nun?


Titan " Ultra" oder wie ihr sie getauft habt hat 192 Cores mehr als Titan und ist 10-15% schneller

Die 780 hat ganze 384 Cores weniger als Titan und ist laut dem heiligen 780 Thread nur 3-5 % hinter Titan


Was jetzt Kepler != Kepler = Kepler != Kepler oder wie?
 
Ein voller GK110 kann natürlich nur die 10 bis 15% schneller sein, wenn die Karte immer mit höheren Frequenzen kommt, so schwer zu verstehen kann das doch nicht sein...
Bsp.:
GTX Titan
837MHz bis 1006MHz

GTX Titan "Ultra"
902 bis 1071MHz

Theoretische Rechenleistung wäre also um immer 14% höher. Damit man aber mehr zulegt, muss man zwangsweise mehr Speicherbandbreite liefern (was die Titan im vergleich zur 780 nicht tut) - ergo 1752MHz Speichertakt - dann ist man im schnitt auch gute 10 bis 15% schneller.

Bei selben Takt wie die Titan kann auch ein voller Chip nur etwa 5% schneller sein, mehr ist ja auch nicht drin. Richtig lohnen würde sich ein voller Chip aber erst bei satten 1.006MHz Basistakt und somit 28% mehr Rechenleistung als eine Titan mit stocktakt. Und nein, die höheren Frequenzen machen kaum mehr stromverbrauch aus.





heiligen 780 Thread nur 3-5 % hinter Titan
Ich verstehe einfach nicht, was du willst - die 780 war schon immer rund 5 bis 10% langsamer als die Titan - ich habe nie etwas anderes dazu gesagt oder behauptet -.-

Quark - Der max Boost-Takt wird sicherlich nicht 10% schneller sein, als der der GTX Titan ! Eher noch langsamer, weil eben mehr Strom benötigt wird.
Müssen mus gar nichts - die K6000 wird mit 225 Watt TDP angegeben, die Titan oder 780 mit 250 Watt. Im schlimmsten Fall erlaubt man der Karte dann eben 280 Watt zu verbrauchen...
 
Zuletzt bearbeitet:
hm 15% mehrleitung mit nur 7% mehr cudacores..
achja dann ist da ja noch der höhere takt. Warum hat nvidia nicht gleich die titan höher getaktet, ist schließlich ein etwas kleinerer chip und daher etwas weniger warm..
 
woher kommen denn die 900 MHz?
 
NVIDIA gibt für die Quadro K6000 gibt eine Single-Precision-Performance von 5,2 TFLOPs an, womit man rein rechnerisch bei 900 MHz landet.
 
Eine Titan Ultra macht nur Sinn, wenn man den schnelleren Speicher der GTX 770 nimmt. Es erscheint mir aber unwahrscheinlich, dass man oberhalb der Titan eine Karte positioniert, nicht nur bei der Leistung sondern auch beim Marketing ist die Titan das non plus ultra. Ich vermute daher eher das man dieses Schema beibehält und die Titan ersetzt anstatt sie zu degradieren, wenn die Titan Ultra denn kommt.
 
Vielleicht konnten sie es noch nicht (Fertigungsverfahren) oder sie wollten nochmals etwas Energie sparen um sie möglichst leise zu halten.

Ich sehe es genauso so kommen, wie ich es schon vermutete. AMD wird mit ihrer HD9970 oder wie auch immer, nahe an die Titan rankommen +/- ein paar Prozente. NVIDIA kontert dann wiederum mit einer Titan Ultra.
Die Frage ist nun zu welchem Preis AMD ihre Karten nun verkaufen werden. Wenn sie sie für 500-600 Euro verkaufen, dann wird es für NVIDIA schwierig zu argumentieren warum eine GTX Titan Ultra nun wieder 1000 Euro oder mehr kosten soll. Senkt NVIDIA dann plötzlich die Preise für ihre GTX Titanen, so werden einige sich schon recht abgezockt fühlen, die sich eine GTX Titan gekauft haben.
Schlussendlich wird AMD mal wieder das deutlich bessere Preis/Leistungs-Verhältnis vorweisen, aber wiederum nur zweite Wahl sein. Warum auch immer. :hmm:
 
is ne ganz schöne Hausnummer, aber wohl kaum mit 225W
und mit der billig Stromversorgung wird das dann auch nix, also als Gamerkarte

im Pro-Bereich funktioniert das sicher
 
und ich behaupte mal das keiner mit bloßem Auge die Leistungssteigerung sieht. Also für mich Augenwischerei und Geldverschwendung. Aber jeder so wie er es mag. Bei mir hätte es auch eine Graka getan statt zwei :)
 
Woher kommt der kleinere Verbrauch des Vollausbaus? Verbesserte Architektur?

Wäre durch den tieferen Energieverbrauch nicht auch die Chance für eine GTX 790 größer? :d
 
der speicher der 770 ist stock höher getaktet um das kleine interface auszugleichen
 
Die hätte dann 3072 cuda cores und 1551mhz ram bausteine ^^
 
Titan reizt die 250W bei 900 MHz wohl auch nicht immer aus. Der Verbrauch dürfte dann irgendwo zwischen 200 und 265W liegen. So unmöglich ist das also nicht, denn man darf nicht vergessen, dass der Boost (der der Quadro fehlt!) ein Effizienzkiller erster Güte ist. Für 10-15% mehr Takt gleich 70W mehr, das sind gute 33%!
 
Der höchste Boost-Step bei Titan liegt auch bei 1,15V bis 1,163V. Das sind 15% bzw. 16,3% mehr als beim Baseclock. Das und die 19% höhrere Taktrate resultieren eben auch nur in 19% Mehrleistung bei deutlich höherem Stromverbrauch.
 
Das ding kostet dann 1200 € ???
 
Der höchste Boost-Step bei Titan liegt auch bei 1,15V bis 1,163V. Das sind 15% bzw. 16,3% mehr als beim Baseclock. Das und die 19% höhrere Taktrate resultieren eben auch nur in 19% Mehrleistung bei deutlich höherem Stromverbrauch.

Ich frage mich, warum Nvidia den Boost überhaupt eingeführt hat, wenn man so sehr auf Effizienz bedacht ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh