nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Ist ja witzig. 3Dcenter hat seine Preisprognose für den GK104 auf 499$ hochgeschraubt. Von den anfänglichen 299$ ist nicht viel übrig geblieben. Mittlerweile wirds wirklich lächerlich mit der Verfübarkeit bei TSMC. Warum stand die Produktion still? Da es kein Statement seitens TSMC dazu gar könnte man fast meinen, dass das Absicht war, um die Stückzahlen gering zu halten.

AMD und NVIDIA setzt hohe Preise an, weil die Verfügbarkeit schlecht ist und sowieso nicht jeder eine Grafikkarte bekommt?!? Was sind denn das für bescheuerte Begründungen. Muss man sich jetzt auch noch bedanken???
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
sollen sie mal machen. so wird mir wenigstens die frage ob kaufen oder nicht abgenommen

es wird einfach nur ein nein. niemals auf keinen fall
 
Nö, die haben einen Weg gefunden 3x so effizient in der Produktionszeit zu sein, was Umbaumaßnahmen erfordert...so offiziell (jedenfalls habe ich das so verstanden).

möglich wäre es *schulterzuck*, ob wahr *schmunzel*

auch wenn es das 3D ist muß man nicht alles glauben was da geschrieben steht..das ist auch nur ein Forum wie das Luxx^^ abwarten:coffee:
 
Zuletzt bearbeitet:
AMD und NVIDIA setzt hohe Preise an, weil die Verfügbarkeit schlecht ist und sowieso nicht jeder eine Grafikkarte bekommt?!? Was sind denn das für bescheuerte Begründungen. Muss man sich jetzt auch noch bedanken???

Bedanken sollte man sich dafür, dass man sich eben keine neue Grafikkarte kauft und somit sich sein Geld spart. Ist doch eine nette Geste. ;)
Sollen sich doch AMD und NVIDIA zusammen mit TSMC weiterhin schön ihre Absprachen über Produktionsstops und der damit einhergehenden künstlichen Verteuerung der Preise mit natürlich nicht gewollten und zufällig anfallenden Gewinnmargen herumkollaborieren.

Ich jedenfalls werden dann meine noch sehr gute 40nm-Karte auch weiterhin behalten und nur etwas weiter aufbohren. Das reicht für sämtliche portierte Konsolenblockbuster für die nächsten Monate/Jahre.
Das Spiel mit der schlechten Lieferbarkeit hat mit dem 40nm-Fertigungsprozess angefangen und findet jetzt beim 28nm seinen Höhepunkt.

Ich lehne mich dann erst einmal zurück und sehe zu. :coffee:
 
Zuletzt bearbeitet:
Haltet euch bitte zurück mit derartigen Anschuldigungen von wegen Preisabsprache usw. Das hat hier nix verloren noch dazu kann niemand auch nur im Ansatz irgendwas nachweisen.
:btt:
 
mhm irgendwie sehr still momentan, ob die grüne welle schon am rollen ist :d ?


Denke mal die neue NV karte wird so 400€ kosten. Sieht man schon am Preisfall der 5xx Karten das es in die Richtung geht.
 
Also 60%+ von Fermi GTX580 klingen irgendwie etwas zu viel des guten.
Wenn man bedenkt, das man hier in Größenordnungen von 320-360mm² spekuliert. Wo soll das auf einmal her kommen!?
Selbst 50%+ bei nur 2/3 Fläche wäre irgendwie doch schon zuviel des guten. Diesen Vorteil schafft man nicht durch den einen Fertigungshop.

Natürlich schafft man ihn. 28nm erlaubt bei gleicher Transistoren-Anzahl ca. eine 40% Reduzierung der Größe, bzw. ca. 80%+ mehr Transistoren auf dem selben Platz. Vergleich man nVidia mit AMD sieht man, dass AMD in der 40nm Generation massiv viel mehr Einheiten mit weniger Transistoren auf kleinerem Platz unterbringen konnte.

Wenn nVidia nun anfängt ihre Designs zu ändern, so dass sie 80-90% der Transistoren für Ausführungseinheiten aufbringen, sagt Die Size erstmal überhaupt nichts mehr aus. Und das ist es, was nVidia seit Monaten auch sagt: Stromverbrauch - und damit Transistoren - soll fast ausschließlich für Berechnungen (bzw. andere Aufgaben ala Texturing, Geometrieerzeugung) aufgewendet werden. Und dann ist es eben auch möglich mit einem 320mm^2 Die deutlich gegenüber den 520mm^2 40nm Die an Leistungs draufzulegen, wenn nicht nur der Shrink sondern auch die Reduzierung des Overheads zur Leistungssteigerung beiträgt.
 
Und das kleine Ding soll nochmal wieviel schneller als GF110 und Tahiti sein ?
 
Pitcairn ist auch flotter ggü. Tahiti als es die Die Size vermuten lassen würde. Für einen rein auf Spieleleistung zugeschnittenen Chip könnte ich mir schon einen guten Schub vorstellen.
 
irgendwie gibt´s ja nur noch Referenzmodelle der GTX580 von EVGA. Diese kostet derzeit 370,-€ mit 1,5GB und 430,-€ mit 3GB. (Zotac sogar nur noch 330,-€mit 1,5GB)
Mal abgesehen davon, dass das die High-End Variante ist und GK104 Performance glaube ich nicht das die weit über diese Preise Wandern. Zudem werden die Preise weiter Fallen , sobald gelauncht wird.
GTX460 war auch flotter als GTX285 und deutlich günstiger. Die TSMC Geschichte lasse ich jetzt mal ausser Acht.


Was mir aber so im Nachhinein in den Kopf gekommen ist...
Das Bild der GTX 670ti, sollte die GK110 sein, oder nur GK104 ??
Ist sie nur GK104, was ich mir nicht so recht vorstellen kann, dürfte sich laut Namensgebung garnicht soo viel tun zur GTX680. Somit wären die 10-20% von fdsonne wieder im Spiel die sich für weitere 6 Monate warten nicht lohnen :fresse:
 
War das Bild der 670Ti nicht gefälscht? Das hat man doch gut anhand der eckigen 6 gesehen, die eigentlich eine 5 war, oder?
 
Vieleicht kommt ja ab Heute Licht ins Dunkel.
 
jain, wurde doch vorerst als Fake deklariert, aber als ES Modell abgetempelt !?? ....

@ Thunder
ja VIELLEICHT^^

und ich bin brasseln um 15:00 *G* und kein Internet :heul:... dann kann ich heute Abend wieder 10 Seiten nachlesen :hwluxx:
 
Meine persönliche Hoffnung ist, dass heute eine Karte vorgestellt wird, die ein gutes Stück schneller als meine zwei GTX470er ist. Dann kann ich die beiden in Rente schicken.
Und hoffentlich gibt es möglichst zeitnah erste Wakü-Lösungen für die neuen Karten. Bei den HD7000er Karten ging das ja recht flott.
 
Kommt Kepler heute? Wahrscheinlich ab 15 Uhr oder? So war es bei den letzten Nvidia Karten.
 
ich glaub nicht das Kepler heute kommt.

Falls dem so wäre hätten wir schon seit heut früh die ersten Reviewleaks aus Asien und bisher hab ich noch nix gesehen
 
Nvidia sollte sich mal um ihre Namen ein paar Gedanken machen, die kann man zu gut...verändern. Fermi -> Thermi. Kepler -> Crapler. Naja bei Maxwell fällt mir nix ein :d
Ich denke auch nicht, dass wir heute was sehen werden. Vielleicht ein geleaktes Whitepaper zur Architektur, dass die Profis ein bisschen fachsimpeln können, das wars.
 
Autsch :)
Aber ehrlich gesagt glaube ich an eine sehr gute Architektur mit Kepler und dann auch mit Maxwell.

Warum hat man eigentlich die Energieeffizienz erst mit Kepler zum Thema gemacht? Was Fermi der Weckruf? Kann mir doch keiner erzählen, dass das in diesem Ausmaß für Nvidia überraschend kam.
 
Autsch :)
Aber ehrlich gesagt glaube ich an eine sehr gute Architektur mit Kepler und dann auch mit Maxwell.

Warum hat man eigentlich die Energieeffizienz erst mit Kepler zum Thema gemacht? Was Fermi der Weckruf? Kann mir doch keiner erzählen, dass das in diesem Ausmaß für Nvidia überraschend kam.

Die Entwicklung dauert Jahre. Ich schätze, dass das Front-End sowie die Ausrichtung auf Compute deutlich stärker im Fokus standen als superdupermega Perf/Watt. Das kann man jetzt angehen, da das Fundament mit Fermi hergerichtet wurde.
 
Pentium M gabs auch schon parallel zum Pentium 4. Warum alles Pullver verschießen? Ersteinmal gucken wie weit man gehen kann. ;)
Genauso mit den Preiserhöhungen. Mal sehen wie lange das gut geht. Einige sind ja schon aus dem Häusschen wenn die GTX580 auf unter 300€ fällt. OMG! War sowieso absehbar, und er merkwürdig, dass sie sich solange gehalten hat im Preis. Waren doch nur lächerliche 15% zur GTX480. Im Mainstream sind solche Sprünge auf dauer nicht tragbar. Für 2fps gibt keiner nocheinmal 150€+ aus. Daher wird die noch gut im Preis fallen. 400€ im Jannuar 150€ im Herbst. Schneller kann man sein Geld nicht verbrennen. :eek:
 
Zuletzt bearbeitet:
Entweder die halten alles tierisch auf Eis, oder es gibt heute höchstens die Spezifikationen, was mir schon reichen würde. Nur GK104 und ab wann GK110, welche Namensbezeichnung, wieviel Speicher grob, wie hoch ist der Preis, wann wird es die Karten grob geben und wie schnell werden sie in etwa sein.
Das sollte heute mal geklärt werden. Wenn nicht warten wir halt noch en paar Wochen, Nvidia liebt ja das Hinauszögern.
 
Autsch :)
Aber ehrlich gesagt glaube ich an eine sehr gute Architektur mit Kepler und dann auch mit Maxwell.

Warum hat man eigentlich die Energieeffizienz erst mit Kepler zum Thema gemacht? Was Fermi der Weckruf? Kann mir doch keiner erzählen, dass das in diesem Ausmaß für Nvidia überraschend kam.

Fermi war der letzte Schritt in die Richtung mit alter Methode. Sprich Verbrauch rauf und Leistung folgt dann quasi selbstverständlich.
Mit Kepler gehts nun aber nicht weiter rauf ;) Fermi mit ~240W Realverbrauch in normalen Situationen und über 300W in Extremsituationen hat in meinen Augen das Ende erreicht. Zwangsweise musste man mit Kepler hier sich etwas umorientieren. Zumindest ein GK104 kann da wohl durchaus punkten. Ob ein womöglich später kommender GK110 dann wieder ans Limit geht, ist aber ebenso warscheinlich ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh