nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
wäre bissel arg viel ^^

Edit: mir eig auch scheissegal wieviel, Hauptsache der Bigboy wird direkt released und Asus baut ne Matrix
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
2x6 + 1x8 sicher nicht, das wäre gleich wie 2x8 (gab es nicht auch mal Pläne für einen x10 connetor?
 
Im Prinzip haste recht Scully aber.....
Nvidia taktet die TMU-Domäne der GeForce GTX 590 mit 607 MHz, was einen Shadertakt von 1.215 MHz zur Folge hat. Der jeweils 1.536 MB große GDDR5-Speicher wird mit 1.707 MHz angesteuert. Die Frequenzen liegen demnach noch ein gutes Stück unter denen einer GeForce GTX 570. Das ist wohl dem Versuch geschuldet, die Leistungsaufnahme in Grenzen zu halten.
Diese soll im Durchschnitt 365 Watt betragen .
Dementsprechend verfügt sie ebenfalls über zwei Acht-Pin-Stromstecker.
Test: Nvidia GeForce GTX 590 - ComputerBase

Hier hat man sich auch nicht dran gehalten.
Bei HD 6990 und GTX590 Serienmässig.
Ich weiß Dual GPU.
Bei ner Single GPU wäre das brutal.
MFG
 
Zuletzt bearbeitet:
Das war auch der Zeitpunkt wo Nvidia die Spezifikationen "ausweiten" wollte

Ich denke nicht das Firmen,die nach Spezifikationen ihre Hardware auslege,von sowas sonderlich erbaut sind ,dazu zählen sicherlich auch einige Billig NT Hersteller

Referenzboards mit 2x8 Pin,werden daher eher Erlkönige bleiben bzw denen vorbehalten,die sich mit gewissen Produkten nicht verpflichtet sehen,sich an solche Abkommen zu halten
 
Zuletzt bearbeitet:
naja denkst du Nvidia würde im Zweifelsfall eher 2x8 Pin verbauen oder eine Grafikkarte die nicht ihren Performance-Zielen entspräche mit 8 und 6 Pin releasen.

Zu Mal im Zweifelsfall halt ein neuer Standard hinterhergeschoben wird. Abgesehen davon freuen sich ja dann gerade die Netzteilhersteller, da denen ja auch irgendwann die Argumente ausgehen würden.
Nvidia wird sich das schon ausrechnen was in welchem Fall zu welchen Kosten gegenüber Partnern oder Endkunden führen wird und das kleinere Übel nehmen.

Die Special Karten könnten sicher mit 2x8 und 6 Pin kommen oder sogar 3x8Pin wie bei der Mars II Test: ASUS MARS II

Um den Strom mach ich mir da weniger Gedanken, eher wie sie das mit 2 Slots noch kühlen wollen, oder es werden kostenlos Headsets beigelegt :xmas:

Insgesamt auf jeden Fall eine merkwürdige Situation, normal gabs um die Zeit vor dem möglichen Release doch viel mehr geleakte Bilder in Foren gerade im asiatischen Bereich. Vielleicht kommt wirklich nur die GTX 670.
 
Zuletzt bearbeitet:
Du darfst bei der ganzen Geschichte nicht nur Nvidia only sehen,sonst wären wir wohl schon bei 400Watt angekommen.Sondern alle die sich nach vereinbarten Spezifikationen richten.Wenn dann was nicht funktioniert/kompatibel ist,nur weil sich ein Vertragspartner nicht an die Regeln hält,könnte das im Falle einer richterlichen Auseinandersetzung schnell sehr sehr teuer werden

Das ist wie bei jedem Standard ob nun HDMI,PCIe,SATA oder oder,wenn da jeder macht was er will,sind Standards null und nichtig


Stell dir mal vor du bist ein Billig China Böller Netzteilhersteller,und schaffst es(nur hypotetisch) mit deinem schmalen Budget,gerade so die Spezifikationen von 300Watt zu erreichen.Baust mit Ach und Krach den Knaller zusammen,und dann kommt Nvidia und durchkreuzt dir mit ner 400Watt GPU so deine Pläne,das dein Netzteil gar nicht mehr zu gebrauchen wäre

Du würdest doch mir nix dir nix,den nächsten Rechtsverdreher aufsuchen,und die Grünen nach Strich und Faden verklagen:d
 
Zuletzt bearbeitet:
Im März sollte ja möglicherweise die HD7990 kommen da wird man sehen ob 2*8Pin mal eine Ausnahme war.
 
Du darfst bei der ganzen Geschichte nicht nur Nvidia only sehen,sonst wären wir wohl schon bei 400Watt angekommen.Sondern alle die sich nach vereinbarten Spezifikationen richten.Wenn dann was nicht funktioniert/kompatibel ist,nur weil sich ein Vertragspartner nicht an die Regeln hält,könnte das im Falle einer richterlichen Auseinandersetzung schnell sehr sehr teuer werden

Das ist wie bei jedem Standard ob nun HDMI,PCIe,SATA oder oder,wenn da jeder macht was er will,sind Standards null und nichtig


Stell dir mal vor du bist ein Billig China Böller Netzteilhersteller,und schaffst es(nur hypotetisch) mit deinem schmalen Budget,gerade so die Spezifikationen von 300Watt zu erreichen.Baust mit Ach und Krach den Knaller zusammen,und dann kommt Nvidia und durchkreuzt dir mit ner 400Watt GPU so deine Pläne,das dein Netzteil gar nicht mehr zu gebrauchen wäre

Du würdest doch mir nix dir nix,den nächsten Rechtsverdreher aufsuchen,und die Grünen nach Strich und Faden verklagen:d


Wieso auch? auf den Grafikkarten Schachteln war bisher immer der Hinweis, wie die nominelle Leistungsfähigkeit des Netzteils sein sollte und in der Regel schon mit einem gewissen Puffer, wenn man das nicht beherzigt liegt das beim Kunden. Für SLI zertifizierien sie ja auch die Netzteile, von dem her könnte man das im Zweifel auch erweitern auf Single GPUs und wenn der Kunde dann ein nicht zertifiziertes Produkt nutzt, kann man die Funktionsfähigkeit nicht garantiert werden.

Ich mein über kurz oder Lang werden die 300W für die Grafikkarten eh nicht mehr reichen, wenn man sich vorstelle, dass die Grafikkarten im Endeffekt noch schneller werden. Da wird man denke ich auch die 2-Slot Kühler-Grenze irgendwann überspringen.
 
hauptsache die leistung stimmt :d.

aber irgendwann muss man auch was ändern,man sieht ja jetzt schon das es länger dauert bis wesentlich mehr leistung kommt,daher denke ich auch das irgendwann auch 400w tdp kommen und triple slot kühlung usw.
 
Du würdest doch mir nix dir nix,den nächsten Rechtsverdreher aufsuchen,und die Grünen nach Strich und Faden verklagen:d

Sind die Spezifikationen für die Stromversorgung so ausgelegt, dass sie als Richtlinie gelten oder so, dass sie strickt eingehalten werden müssen?
Verklagen könnte man ja nur im zweiten Fall.

Und seien wir mal ehrlich, wer verbaut ein Chinaböller Netzteil um eine 500+€ Grafikkarte zu nutzen?
 
Und seien wir mal ehrlich, wer verbaut ein Chinaböller Netzteil um eine 500+€ Grafikkarte zu nutzen?

das kommt öfter vor als du wahrscheinlich glaubst.
da kommen dann argumente wozu man viel geld für ein netzteil ausgeben sollte, damit bekommt man ja nicht mehr fps :shot:
 
ja ist doch auch gut so,ich mein wenn du dir nen porsche gt 3 holst reichen ja schliesslich auch 155/70/90 schlappen :d.Wofür braucht man da dicke reifen ;).


Netzteil sollte immer nen gutes drin sein,da spart man am falschen ende.
 
Referenzboards mit 2x8 Pin,werden daher eher Erlkönige bleiben bzw denen vorbehalten,die sich mit gewissen Produkten nicht verpflichtet sehen,sich an solche Abkommen zu halten

sehe da aber kein Problem

2x8 in Pin (2x150w+75w über slot)) ist seit PCIe 3.0 offiziell in die PCIe specs aufgenommen

2x6 Pin + 1x8 Pin ist ja nichts anderes (2x75w+150w+75w über slot)
Sind beide male 375W die offiziell abgesegnet sind.

nur nicht jedes NT kann 2 x 150W liefern evtl gibts deshalb die lösung mit
2x6 Pin +1x8 Pin


gruss digger
 
Zuletzt bearbeitet:
Hmm.... Irgendwie kommt es mir so vor, als ob NV wirklich ein Monster in der Hand hat - Warum sollten sonst jetzt schon Infos von einer neuen AMD-Tenerife kommen,
die 20% auf Tahiti legt :d
 
Hmm.... Irgendwie kommt es mir so vor, als ob NV wirklich ein Monster in der Hand hat - Warum sollten sonst jetzt schon Infos von einer neuen AMD-Tenerife kommen,
die 20% auf Tahiti legt :d

Naja die Leistungsfähigkeit von GK104 liegt ja nun schon mehr oder minder auf dem Silbertablett(kurzum 79xx Level),


Da braucht man denke ich kein großer Stratege zu sein,um zu realisieren wo sich wohl GK110 positioniert

Auch wird wohl GK104 "kampfwertgesteigert",noch so das eine oder andere Pünktchen in Petto haben

---------- Post added at 16:50 ---------- Previous post was at 15:37 ----------

sehe da aber kein Problem

2x8 in Pin (2x150w+75w über slot)) ist seit PCIe 3.0 offiziell in die PCIe specs aufgenommen

gruss digger

Hatten wir das nicht erst neulich?

300Watt sind das Maximum einschließlich Slot nicht 375,daran hat sie seither nichts geändert,auch bei 3.0 nicht

 
Zuletzt bearbeitet:
Wenn sie Strom für 2 Karten im Petto hat dann auch bestimmt die Leistung,von daher sollte das Passen,wobei die Leistung von einem GK104 SLI Verbund sicherlich auch sehr verlockend sein Könnte.

MfG SiLenT2k
 
ich habe mein 1250W Enermax Revolution noch nicht ansatzweise ans Limit gebracht. Am effizientesten arbeiten NTs doch ohnehin bei "nur" 50% afaik. Mit nem normalen SLI ist dem wenigstens nicht langweilig *G*
 
Also mir reicht sicher eine, mehr brauch ich nicht, zumindest fürn Anfang. Jetzt hab ich mir mal ein neues Gehäuse bestellt und der Monitor sollte kommende Woche auch mal ausgesucht werden, weiss noch immer nicht welchen. Nachdem das erledigt ist könnte der Kepler fertig sein.
 
Also mir reicht sicher eine, mehr brauch ich nicht, zumindest fürn Anfang.
Von GTX560ti auf GK104 macht aber auch nur sinn wenn der Preis interessant wird & die Leistung mind. 50% höher liegt, evtl. ist eine 2. GTX560ti also dann SLI Gespann doch die günstigere Alternative ;)
Abwarten :)
 
Mehr Informationen über GK107 als GT640m: Beyond3D Forum - View Single Post - NVIDIA Kepler speculation thread

Vantage Performance: 6412 Punkte.

Damit ist diese mobile Karte 37% schneller als die GT430 für Desktop bei gleicher Bandbreite.
Zum Vergleich: Die Desktop-GT430 ist ca. 34% schneller als der schnellste mobile GF108 Ableger. Wenn GK107 für die Desktop-Variante genauso viel drauflegen kann, ist dieser Ableger knapp doppelt so schnell als die GT430...

Wer jetzt noch glaubt, dass GK104 nur auf 7950/GTX580 Niveau läge, der wird wohl positiv oder negativ in ein paar Wochen überrascht werden.
 
Zuletzt bearbeitet:
...doch, wann endlich GK110 erscheint und ob der auch mit mehr als 2GB VRAM kommt :fresse:
 
Sontin schrieb:
Wer jetzt noch glaubt, dass GK104 nur auf 7950/GTX580 Niveau läge, der wird wohl positiv oder negativ in ein paar Wochen überrascht werden.

GTX 580 + 10% lautet meine Schätzung.
Mehr wird wohl kaum drinnen sein, aber das sehen wir ja dann alle am 30 März.
 
du meinst 23.märz oder hast du dich gerade verraten :d

Also meine letzte Info ist der 27. aber vom 23. hab ich auch schon gehört. Nur der 30. glaub ich nicht, da bleib ich lieber beim 23.

PS.: Die 10% - 15% Mehrleistung gegenüber der 580 GTX scheinen doch ziemlich glaubwürdig und realistisch.
 
Zuletzt bearbeitet:
GTX 580 + 10% lautet meine Schätzung.
Mehr wird wohl kaum drinnen sein, aber das sehen wir ja dann alle am 30 März.


meinetwegen 10% für den GK104
solange der GK110 oder wie auch immer mitreleased wird und die Leistung entsprechend hat
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh