NVIDIA: GK110-Karten heißen GeForce Titan

@espanolplaya
Glaube mal AMD wird seine neuen Karten auch nicht verschenken.
Der Sea Iland soll ca 500 Shader mehr bekommen wenn an der Architektur selbst nicht verbesser wurde und die neue 15-20% langsamer ist kostet sie zu beginn auch gute 500Euro und würde dan wohl möglich mit dem Titan light konkurieren der dan bei 550Euro liegt.
Der GK110 legt gut 1000Shader mehr auf die Schippe zum GK104 spätestens jetzt sollte NV das Ruder rum reissen können und die Performance Krone deutlich an sich reißen können.

675 Euro wären eigentlich nicht viel für so ein Monster wenn es stimmt das sie nur 15% langsamer ist als eine GTX690.
Mit einem Wasserkühler würden wir dann wohl alle häufig die 1150 bis 1300 MHZ sehen wo man dan die GTX690 auch in der Tasche hat.

Fakt ist endlich wird es wieder spannend .

Ich will am liebsten wieder zurück zu NV falls AMD nicht einen Wunder Seailand bringt.

Ich habe mich Gestern erst wieder schwarz geärgert als ich den 13.1 WHQL auf ein frisches BS gespielt habe tanzte mir das Zero Core mal wieder auf der Nase rum und machte was es wollte Monitor ging nicht wieder an nach Stand by Modus firefox hängt sich weg weil die Karte nicht richtig aufwachte es ist einfach zum Kotzen.

Da war ich doch glatt gezwungen wieder irgendeinen MOD 13.2 Beta drauf zu knallen damit Zero Core aus geschaltet wird oder man muss händisch in einer Regedit rum pfuschen das kanns echt nicht sein hatte vielleicht einen Treiber inerhalb 1 Jahres welcher dieses problem nicht hatte.

Von der Power her ist die 7970er zwar die Nummer 1 aber AMD selbst sollte viel mehr Manpower in ihr Treiber Team stecken wenn es bei den CPUs schon nicht gut läuft sollte man die Grafikkarten nicht schleifen lassen bzw die Treiber .
AMD hat echt das Potenzial die Nummer 1 zu werden in dem Grafikarten Segment aber nicht so wie es zur Zeit läuft bei den Drivern.


MFG

Tolles gejammere. Warum nimmst du nicht einen Treiber, der nicht BETA ist und der funktioniert? Das ganze Gesabbel, von wegen das AMD schlechte Treiber hat kann ich ja schon nicht mehr lesen. Sind die Leute alles selbst schuld sowas.

Und die News das die neue Karte Titan heissen soll finde ich jetzt auch nicht so doll, weil die Karten hiessen ja schon seit der Geforce 3 oder 4 "Titanium". Denen fällt auch nix mehr ein.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Ismirlangweilich
Tolles gejammere. Warum nimmst du nicht einen Treiber, der nicht BETA ist und der funktioniert? Das ganze Gesabbel, von wegen das AMD schlechte Treiber hat kann ich ja schon nicht mehr lesen. Sind die Leute alles selbst schuld sowas.
Kannst du lesen???
Ich habe mich Gestern erst wieder schwarz geärgert als ich den 13.1 WHQL auf ein frisches BS gespielt habe tanzte mir das Zero Core mal wieder auf der Nase rum und machte was es wollte Monitor ging nicht wieder an nach Stand by Modus firefox hängt sich weg weil die Karte nicht richtig aufwachte es ist einfach zum Kotzen.

Da war ich doch glatt gezwungen wieder irgendeinen MOD 13.2 Beta drauf zu knallen damit Zero Core aus geschaltet wird oder man muss händisch in einer Regedit rum pfuschen das kanns echt nicht sein hatte vielleicht einen Treiber inerhalb 1 Jahres welcher dieses problem nicht hatte.

Ich bin wenigstens ehrlich und kein Speichellecker ala Fanboy das überlase ich anderen Pussys.
 
Zuletzt bearbeitet:
@pescA

Das soll sicher als Anlehnung an den Großcluster Titan dienen,der derzeit die Leistungkrone inne hat bei den Supercomputern,und mit 18000 dieser Rechenkerne bestückt ist
 
Zuletzt bearbeitet:
Wenn sie sich leistungsmäßig dort platziert ist der Preis eh relativ

Highend war schon immer nen Zacken teurer wie Mainstream:)


Muss man halt sehen wie es mit dem Verbrauch etc. aussieht.

Sonst kann man gleich eine GTX690 kaufen.

Und wenn die Karte zu günstig wäre der Preis von GTX 680 zu sehr unter Druck geraten würde - finde ich als Besitzer einer GTX680 auck ok.

NVidia macht das schon sehr geschickt auch mit dem neuen Namenszusatz als zusätzlichem Unterscheidungsmerkmal.
 
Zuletzt bearbeitet:
Na, endlich
hoffentlich kommen die karten bald.
möchte endlich mein 680sli in rente schicken
und mir 2 titanen holen.

gruß
kemen
 
Muss man halt sehen wie es mit dem Verbrauch etc. aussieht.

Sonst kann man gleich eine GTX690 kaufen.


Naja der K20X gibt doch schon gute Ausblicke wo er sich in etwa einordnen könnte

Sicherlich ein Stück über den 245Watt der Clusterkarte,da man die Spezifikationen sicher nicht auf dessen Level belässt für den Geforce

Aber ich denke immer noch effizienter wie eine Dualkarte der 690er Liga
 
Zuletzt bearbeitet:
Ich finde den Namen Titan genial hat was.
 
Naja Voodoo 6 hätte mir mehr gepasst:)

Titan hört sich so an als wäre da nicht genug Platz im HTPC dafür:d
 
Zuletzt bearbeitet:
Wenn die Leistung stimmt schrecken auch 800 euro nicht ab es sei den der Konkurrent ist nur 15% langsamer und kostet 500 Euro dann schrecken 800 Euro schon ab.
Deshalb erst mal warten und Tee trinken wie die Leistung die Preise sein werden.
Stromverbrauch ist für mich nicht wichtig.
Was ich auf jeden Fall versuche ist so lange zu warten bis beide ihre Karten vorgestellt haben .
Falls die Finger es zu lassen:fresse:
 
Zuletzt bearbeitet:
[...]
Stromverbrauch ist für mich nicht wichtig.
Leider ;-)

Würde es begrüßen wenn die Hersteller endlich mal die KArten nicht immer nur Schneller sondern auch effizienter gestalten.
Das hat viel weniger Umweltrelevante Hintergründe - auch die Kühlung und somit die Lautstärke ließe sich drastisch verringern.

In meinen Augen kann's das nicht sein, dass eine aktuelle Grafikkarte doppelt so viel braucht wie der Rest des Systems.
 
Wenn die Leistung stimmt schrecken auch 800 euro nicht ab

Eben

Die Unternehmen kennen sehr gut den aktuellen Markt,u wissen einzuschätzen wo man den Preis ansetzen kann,ohne dabei in ungesunde Bereiche für beide Parteien zu rutschen

Karten die keiner mehr kauft sind für Nvidia auch totes Kapital
 
Zuletzt bearbeitet:
Lautheit ist für mich auch nicht wichtig auf solche Brumer gehören Wakküs beim GK110 wird es auch wieder Spaß machen eine Wakkü für OC zu verbauen .
Unter Luft wird OC bei dem Monster nicht viel gehn schätze ich und eine Wakkü wird sich dort bezahlt machen.
 
Jo Scully wenn die Karte auch die 1.175 V unter Turbo Modus bereit stellt könnte es langen für recht hohe Taktraten vor allem halt mit Wakkü.
 
Jo Scully wenn die Karte auch die 1.175 V unter Turbo Modus bereit stellt könnte es langen für recht hohe Taktraten vor allem halt mit Wakkü.

Ich finde diese Entwicklung trotzdem nicht gut somal jetzt sogar beide Chipschmieden dieses Verfahren anstreben

Genug Leistung schön u gut nur geht irgendwie der Fun Faktor verloren beim OC:)

Du gehst bis zum maximal stabilen Takt u das wars,keine Variable mehr mit der du rumexperimentieren kannst
 
Zuletzt bearbeitet:
Stört mich auch nicht, Headset ftw!

Ist eine Möglichkeit, eine andere von mit aufgestellte These ^^, wer im Spiel ist konzentriert sich noch auf die Lautstärke der zu lauten Lüfter - Ton aus und die Ohren am offen Gehäuse sabbernd :d
Im idle ist der groß der aktuellen GK meist nicht mehr zu hören, zumindest die ich in der letzten Zeit so im Rechner hatte/ oder auch verbaut habe, unter Last ist mir auch noch keine Karte großartig Negativ aufgefallen :/
 
Einer der Gründe warum ich auf die 680er bis her verzichtet habe Scully .
Beim GK110 sehe ich das aber etwas anders wenn der mit ca 250 W kommt und man noch 50W oc Spielraum hat einem weither hin die 1.175 V zu Verfügung gestellt werden befindet man sich auch am Limit der pcie Spezifikationen .
So mit könnte man sich mit dem OC auch zu frieden geben.
Bei der GTX680 war ja schon bei 225W Essig ist halt ein Mittelklassen Layout vom PCB her.
Ich erwarte von einer Highend Karte das das PCB 300W bereit stellen kann da mit ich am limit der Spezifikation übertakten kann das sollte mit dem GK110 drin sein.
Und da mit könnte ich leben.
Mein Platimax will beschäftigt werden.
 
Zuletzt bearbeitet:
Einer der Gründe warum ich auf die 680er bis her verzichtet habe Scully .
Beim GK110 sehe ich das aber etwas anders .


Na ich bin da noch nicht so sehr von überzeugt das wir einen "offenen" Chip bekommen

Nvidias langer Arm war da in jüngster Vergangenheit sehr konsequent u falls die RMA Statistik da nun ein positives Bild zeichnet was Rückläufer betrifft,denke ich werden die das auch weiter ausbauen
 
Zuletzt bearbeitet:
Gibts doch auch,nur halt nicht primär im Highendsektor,was ja kontraproduktiv wäre,zu dem was dort von Belang ist

Neja kann man so nicht sagen, auch der HighEnd Sektor ist davon teils stark betroffen.
Fermi V1 mit 250W bzw. V2 mit 244W Einstufung vs. GK110 mit spekulierten 250W Einstufung. Bei 50% mehr Leistung auf die 680er wären man bei in Summe fast doppelter 580er Leistung. Und somit ner Effizienzsteigerung um das doppelte.
Wenn das nicht ordentlich ist ;)

Beim GK110 sehe ich das aber etwas anders wenn der mit ca 250 W kommt und man noch 50W oc Spielraum hat einem weither hin die 1.175 V zu Verfügung gestellt werden befindet man sich auch am Limit der pcie Spezifikationen .

Bei nem Basistakt von 900MHz und niedriger sollte schon was weniger als 1,175V machbar sein ;) Andernfalls bekommst du das Teil nicht mit der Einheitenzahl in 250W gedrückt... Ich denke sogar 1,1V und weniger wären vllt drin bzw. gar nötig.

Die Frage ist, ob NV bei diesem Teil den Spannungsregler sperrt. Für so ein "Prestigeobjekt" wäre das ne unschöne Sache.
 
Die 1.175 V meinte ich nicht für den Basis ehr so wie es bei der 680 ist da hast du doch auch 2 Spannungsstuffen wenn ich das richtig im GTX 680 Thread verfolgt habe.
Ohne Turbo ca 1.0V mit Turbo und powerlimit hoch 1.175 wenn ich mich nicht irre .
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh