NVIDIA: GK110-Karten heißen GeForce Titan

Neja kann man so nicht sagen, auch der HighEnd Sektor ist davon teils stark betroffen.
Fermi V1 mit 250W bzw. V2 mit 244W Einstufung vs. GK110 mit spekulierten 250W Einstufung. Bei 50% mehr Leistung auf die 680er wären man bei in Summe fast doppelter 580er Leistung. Und somit ner Effizienzsteigerung um das doppelte.
Wenn das nicht ordentlich ist ;)

Global auf die Architektur bezogen ja ,nimmt man jetzt aber nur den Highendsektor unter sich,spielt die Effizienz dort eher die untergeordnete Rolle
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Global auf die Architektur bezogen ja ,nimmt man jetzt aber nur den Highendsektor unter sich,spielt die Effizienz dort eher die untergeordnete Rolle

ne primäre Rolle spielts vllt nicht, aber da nach der GTX 480 noch zwei weitere Karten bzw. mit GK110 dann sogar drei Karten gekommen sind, und die PCIe Spezifikationen fix sind, muss die Priorität klar auf Effizienz getrimmt werden. Das man dann aus der besseren Effizienz auch mehr Leistung zieht, ist nur logisch ;)
Ich will damit auch keine Diskusion lostreten, sondern nur drauf hinweisen, das Hardwarekäufer oben von mangelnder Effizienz spricht, obwohl diese (in quasi einer Generation like Fermi V1 zu V2, oder in zwei Folgegenerationen like Fermi zu Kepler) dennoch teils massiv steigt.

Die 1.175 V meinte ich nicht für den Basis ehr so wie es bei der 680 ist da hast du doch auch 2 Spannungsstuffen wenn ich das richtig im GTX 680 Thread verfolgt habe.
Ohne Turbo ca 1.0V mit Turbo und powerlimit hoch 1.175 wenn ich mich nicht irre .

Die Frage bleibt, wie der Turbo wirkt. Beim GK104 hast du ja quasi immer und in jeder Situation den Turbo anliegen, sofern man das Teil default betreibt (sprich PowerTarget bei 100%)
Wenn ich meine Karten belaste, habe ich immer den vollen Turbo (bzw. je nach Temp ein paar wenige MHz Einbruch) sowie die vollen 1,175V (laut Tools) anliegen.
in der "Zwischenstufe", also dem reinen Baseclock verweile ich beispielsweise idR nie. Schlechtestensfalls dauert es ein paar Sekunden bis die Karte voll in den Turbo geht (bei nem Spielstart, wo vorher noch ein Video als Werbung rennt zum Beispiel)
 
Zuletzt bearbeitet:
Nvidia ist selber schuld! Wenn sie ständig die GTX-Bezeichnungen Richtung Low-End verschieben, dann ist es irgendwann Einheitsbrei bei der Namensgebung. Wenn es eine GTX 780 Titan gibt, dann wird es auch eine GTX 720 sowie eine GT(S) 710 geben.

Ist PCIe-Layout nur für 300 Watt spezifiziert? Wie geht es dann mit MultiGPU-Karten, die haben doch meistens drei 8Pin Anschlüsse?
 
Diese verdammten Schweine! Wenn die 780 so schnell wie ne 690 wäre, wäre das top. Aber dann doch nicht für 900€ verdammt nochmal. Ne gute Highend Single-GPU Karte hat 450-600€ zu kosten, keinen verfluchten Cent mehr! Wenn die für den Preis die 780 loswerden, dann heiß ich Egon Waldemar Pillemann :mad:
 
Hallo Egon Waldemar Pillemann :d
Die werden schon eine 15%-20% flottere 780 für 499 verkaufen, keine Sorge.
 
Also entweder meinen wir die 7970 oder die 7970 GHz. Die 7970 GHz ist billiger und 15% schneller und die 680 verkauft sich offenbar trotzdem. Wenn beide Seiten 15% drauflegen, ändert sich nix.
 
Also entweder meinen wir die 7970 oder die 7970 GHz. Die 7970 GHz ist billiger und 15% schneller und die 680 verkauft sich offenbar trotzdem. Wenn beide Seiten 15% drauflegen, ändert sich nix.

Ich rede die ganze Zeit von der GHz Ed., welche rund 5-10% schneller als die GTX 680 ist. AMD wird bei der HD 8970 sicherlich um die 25-30% drauflegen, und recht nahe an Titan drankommen. Damit ist eine GTX 780 ganz klar nicht mehr in der Lage mitzuhalten, was jetzt noch nicht der Fall ist. Wenn eine GTX 780 aus einem verbesserten GK104 besteht, wird diese max. 15% schneller, sonst lohnt sich ein GK110 ja fast nicht mehr.
 
Jaja die typischen Sprüche wieder.

Wenn die es schaffen eine schnelle Karte einfach so weit runterzutakten, dass sie dann nurnoch 20% verbraucht dann hat das nichts mit Effizienz zu tun.
 
Egal was nvidia rausbringt und zu welchem preis die leute WERDEN es kaufen einfach weil sie es haben MÜSSEN und weil sie ebend die Grüne front sind können sie sich solche preise erlauben.. genauso wie intel es ist teuer aber die leute kaufen es muss ja keiner aber alle machen es ganz einfach :d
 
Ich muss mal die Fanboykeule rausholen, denn ich bin fest davon überzeugt das die neue GTX 780 die Karten von AMD
auf den 2. Platz verdrängen wird. Die GTX 680 zählt in meinen Augen einfach nicht, nachdem damals bekannt wurde das die Kiste "nur" ein 256bit Speicherinterface spendiert bekommt, hatte ich die Karte schon abgeschrieben.
Ich bin auf jedenfall heiss auf GTX 780 Titan(oder wie auch immer sie heissen wird) und kann es kaum abwarten!

greetz

IORI
 
Solche Preise kann Nvidia nur halten wen folgendes eintrifft:

1. Sehr magere Ausbeute und daher hohe Verkaufspreise
2. AMD sehr deutlich zurückliegt.

Das zweite kann man sogut wie ausschließen. AMD wird auch ungefähr 20 bis 30% oben drauf packen.

Die 40 bis 50% Merhleistung auf die GTX 680 würden für GK110 ungefähr 10 bis 15% Vorsprung gegenüber der HD 8970 erlauben.

Ergo hohe Preise relativ unwahrscheinlich, außer die Karten sind wirklich Exclusivprodukte ( "Titan").
 
Hoffendlich wird die karte dann auch ein wahrer titane mit brutaler leistung :d mein yamakasi monitor braucht gewalt karten :d
 
Egal was nvidia rausbringt und zu welchem preis die leute WERDEN es kaufen einfach weil sie es haben MÜSSEN und weil sie ebend die Grüne front sind können sie sich solche preise erlauben.. genauso wie intel es ist teuer aber die leute kaufen es muss ja keiner aber alle machen es ganz einfach :d

Ist wie bei Eierphone, jeder muss es haben weils einfach Mainstream ist, trotzdem ist Eierphone scheiße! Mich würde viel mehr interessieren, wie viele Menschen ihre Handys/Hardware auf Raten kaufen nur um mit der Masse zu schwimmen. :lol:
 
Zuletzt bearbeitet:
Ist PCIe-Layout nur für 300 Watt spezifiziert? Wie geht es dann mit MultiGPU-Karten, die haben doch meistens drei 8Pin Anschlüsse?

Wenn ich das jetzt recht in erinnerung habe, ist eine PCIe Steckkarte! auf 300W limitiert, um sauber in den Spezifikationen zu laufen.
Was jetzt nicht ganz 100% klar ist. Im Grunde sprechen wir ja hier von DualSlot Karten. Soweit mir bekannt, schreibt die Spezifikation nicht die Anzahl der Slots vor, die minimal belegt sein müssen um 300W zu fahren.
Es wäre also theoretisch auch potentiell möglich eine SingleSlot Karte im 300W Design zu bringen. Zwei Karten mal 300W wären 600W in Summe auf gleichem Platz, sprich zwei Slots.

Zumindest könnte man so argumentieren. Obwohl es laut Spezifikationen immernoch unsauber wäre.

PS: die Anzahl der Stromanschlüsse hat damit auch weniger zu tun. Es geht eher um die gesamt Leistungsaufnahme sowie die gesamt Wärmeabgabe der Karte. Die eben Spezifikationen unterliegen sollte, damit sich andere Hersteller, die direkt oder indirekt darauf aufbauen müssen (beispielsweise Gehäusehersteller zur Dimensionierung, Kühlerhersteller usw) daran orientieren können.
Die Dual GPU Lösungen könnte man aber theoretisch auch einfach als Custom Designs betrachten. Die Spezifikation ist ja kein zwingendes muss. Ein Hersteller der diese überschreitet hat grundsätzlich damit ja keine Probleme.

Problematisch wirds da eher im OEM Bereich. Ne fertig PC Kiste von Fujitsu, HP, Dell und Co. baut idR stark auf diese Standards. Und passt da was nicht, gehts halt nicht ;) bzw. wird nicht genommen. Und der OEM Markt im ganzen (für privat und Business) dürfte mindestens genau so groß sein, wie der selbstbau Bastlermarkt.
Ein Hersteller, der die Spezifikationen weit überschreitet läuft somit Gefahr, das im OEM Markt sein Produkt keine Verwendung findet. -> unschön für die Hersteller.
Deswegen versucht man auch sogut wie möglich, sich an gängige Standards zu halten.

Bei Dual GPU Karten ist das aber in meinen Augen auch halbwegs verschmerzlich, wenn diese da drüber gehen, einfach weil der potentielle Kundenkreis sowas von gering ist... Und auch im OEM Bereich findet man idR sowas nicht.

Ich rede die ganze Zeit von der GHz Ed., welche rund 5-10% schneller als die GTX 680 ist.

Das war mal so vor dem 12.11er Treibern... Schau dir neue Benches an mit aktuellen Treibern. Da ragt ne GHz 7970 idR um die 12-15% je nach Settings und Restsystem vor ner 680er.
Es ist jetzt nicht die Welt, aber immerhin. Zugegebenermaßen hat AMD in Sachen Leistung seit Release da gut was zugelegt. Selbst ne default HD7970 non GHz ohne Turboboost liegt quasi gleichauf mit der 680er. Im Vergleich zum 680er Release war diese noch gut und gerne 10% zurück.

Zumindest was gängige Benchgames betrifft...
Einen 100% Marktüberblick kann man natürlich nicht geben, das ist klar.
Aber AMD hat gewaltig in den aktuellen Top Games ala Skyrim, BF3 usw. zugelegt. Bei BF3 sogar über 30% nachweisbar...

Jaja die typischen Sprüche wieder.

Wenn die es schaffen eine schnelle Karte einfach so weit runterzutakten, dass sie dann nurnoch 20% verbraucht dann hat das nichts mit Effizienz zu tun.

Du hast irgendwie nicht verstanden, was Effizienz ist.
Die Effizienz (in dem Fall Leistung pro Verbrauch (Watt)) misst sich ausschließlich am Endprodukt. Also genau so, wie die Karte auf dem Markt geworfen wird. Was schlussendlich mit anderen Taktraten möglich ist und was nicht, spielt nicht die Rolle...
Und wenn die ihre GPUs runtertakten um eben den Verbrauch zu senken, ist das schlicht ne Effizienzsteigerung. Einfach aus dem Grund, weil idR hohe Taktraten aufgrund von mehr nötiger vGPU Spannung in Sachen Effizienz schlechter dastehen als niedrige Taktraten. -> und das ist Fakt! Denn der Verbrauch steigt/fällt 1:1 mit dem Takt, aber im Quadrat zur anliegenden Spannung.
 
Und wenn die ihre GPUs runtertakten um eben den Verbrauch zu senken, ist das schlicht ne Effizienzsteigerung.
Nein das ist schlicht eine Skalierung. Du sagst doch selbst dass Verbrauch und Takt proportional zueinander sine.

Effizienzsteigerung wäre, wenn sie bei gleicher objektiver Ausgangsleistung (gemessen an der grafischen Leistung in fps oder wie auch immer) den Verbrauch senken könnten.

Da haben die aber kein Interesse dran, weil sich die Entwicklung teurer ist. Nvidia will am Ende auch nur möglichst viel Geld in möglichst kurzer Zeit machen ( da sind sie ironischerweise sehr auf Effizienz aus ^^ ). Gäbe es AMD nicht als Gegenspiele würde man sich auch viel mehr Zeit lassen mit der Entwicklung.
Im Moment gilt eher Klotzen statt Kleckern oder besser Quantität statt Qualität.
 
Das tun sie doch bereits über den Shrink Prozess

Wenn du heute eine 560TI kaufst dann hat die locker die Leistung einer ehemaligen 470 bei weniger Verbrauch

---------- Post added at 14:09 ---------- Previous post was at 14:05 ----------

Ist wie bei Eierphone, jeder muss es haben weils einfach Mainstream ist, trotzdem ist Eierphone scheiße! Mich würde viel mehr interessieren, wie viele Menschen ihre Handys/Hardware auf Raten kaufen nur um mit der Masse zu schwimmen. :lol:

Na "Mister Fäkal",wieder mal vergessen das hier Erwachsene Leute sind,die sich sowas leisten können u auch wollen

Die Beweggründe der jenigen,kannst du mit dem begrenzten Horizont sowieso nicht ergründen,also lass deine abenteuerlich Mutmaßungen mal schön da wo sie keinen stören

Und nein die Grünen sind nicht "scheiße",weils Taschengeld von Mama nicht gereicht hat dafür,oder die Leute einfach wie du es unterstellst "zu blöde sind"auf deinen Discountzug aufzuspringen
 
Zuletzt bearbeitet:
@Hardwarekäufer: mehr Takt-->höhere Spannung-->quadratischer(!) Anstieg der Leistungsaufnahmen.

@fdsonne: Das stimmt schon alles, nur würde ich die Ghz-Edition mit einer 100Mhz höher getakteten GTX680 vergleichen. Das ist nämlich im Schnitt bei Nvidia mehr drin an OC. Klar, die Leistungskrone hat trotzdem noch die 7970. Ich versteh auch nicht, warum Nvidia nicht die Preise senkt. Haben sie wohl nicht nötig.... Eigentlich schade, solche Features wie TXAA oder adaptives VSync sind mir persönlich wichtiger als die letzten 5 Frames.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh