NVIDIA listet versehentlich GeForce GTX 580

Deswegen hoffe ich auch das Nvidia nicht nur in Sachen Leistung die Hausaufgaben macht.
Schließlich steht nirgends das High End auch schlucken muss wie ein alter V8.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann zeig uns mal eine vergleichbare ATI-Aktion.
Es werden doch ständig und überall irgendwelche Daten aus Versehen veröffentlicht. Und selbst wenn es Absicht war, ist das doch OK oder willst du Nvidia jetzt vorschreiben, wie und wann sie ihre GraKas ankündigen dürfen.
 
Zuletzt bearbeitet von einem Moderator:
Deswegen hoffe ich auch das Nvidia nicht nur in Sachen Leistung die Hausaufgaben macht.
Schließlich steht nirgends das High End auch schlucken muss wie ein alter V8.

Ich hoffe das sie gerade in Sachen Leistung,die Hausaufgaben noch einen Tick besser erledigen als auf der Energiekonsum Seite.

What a shame!!! Und das bei der Klimaerwärmung ich weiß:teufel: :teufel:
 
Zuletzt bearbeitet:
Ich glaube sie MÜSSEN an beidem drehen.
Weil sie mit der 480er sicherlich eine Karte haben die sehr viel Leistung besitzt. Dies aber leider durch enormen Bedarf deckt.
Wenn sie jetzt eine Karte rausbringen die auf 480er Niveau ist dafür dann aber weniger Bedarf hat. Dann schreien alle rum das sie nicht mehr Leistung hat.
Ist sie schneller bei evtl gleichen Leistungsbedarf meckern alle rum es nur noch mehr Leistung auf kosten noch höhererem Bedarf gibt.
Also muss Nvidia doch Mehr Leistung + Mehr Effizienz bringen.

Ich wollte mir ursprünglich die 6000er Serie ansehen, aber den einen Monat kann ich auch noch gut warten wenn ich mir die "restlichen" Karten so im freien Preisfall ansehe.

Und wie oben schon erwähnt wurde. Es kann doch möglich sein das auf GF100er Basis eine durchweg Effiziente Plattform entsteht. Bei CPUs die nicht geshrinked werden oder es keine neue Arch gibt, führen neue Steppings auch "Immer" dazu das sie (wenn auch dort meist marginal) effizienter werden. Warum nicht auch dort?!
Ich bleib auf jedenfall mal Objetiv im Sessel im beobachte was die beiden uns auf den Gabentisch zaubern.


MFG Jubeltrubel
 
Ich hoffe NV kann ihr Portfolio erweitern, damit AMD nicht alleine ist. Ich möchte eine richtige Preischlacht zu Weihnachten erleben. CPU und RAM Preise sollten am besten auch fallen und ich bin glücklich.

Wenn meine Mami vom AMD AF Wind bekommt, dann gibts nen Donnerwetter bei denen ! :xmas:
 
"NVIDIA listet versehentlich..."
alle jahre wieder :d
 
Grenzt ja schon fast an peinlichkeit...

Heute wird sie angekündigt und mitte 2011 released... kennt man ja noch von der 400er Serie.
 
ach schmarn, der GF104 steht und dadrauf wird er aufgebaut sein Fertig.
 
Zuletzt bearbeitet:
yeaahhhh auf die Dauer hift nur Power, oder warens Watt :d is wie beim Auto wenn ich meine Kiste nur mit 6 Kerzen betreibe ruckels auch :d und erst der rote Teppich an der Tanke, goil :d
 
Zuletzt bearbeitet:
So genug gesabbelt... Das waren jetzt 131 Posts für die Tonne...
:btt:
 
Für mich bedeutet das, dass ich den Kauf einer GTX480er gecancelt habe.
Werde mich bis es was \"echtes Neues\" gibt, weiter hin mit meiner 285er begnügen.
 
Nvidia hat kein Grund das mit Absicht so "ausversehen" veröffentlicht zu haben.
AMD kauft eh kein Mensch der Ahnung hat, sind eher die Ökö's die meinen 2,33€ im Jahr sparen zu müssen auf der Stromrechnung.

@topic
die 580 kommt @ 2010.
 
Mich wundert es das es noch keine benches zur 580gtx gibt ^^

Im normalfall taucht sowas ja auch ein bis zwei tagen nach dem ersten durchsickern von neuen karten auf.

Mal schauen was die tage bringen werden...
 
Kann mir gar nicht vorstellen das Nvidia so schnell nach dem Fermi wieder was neues hat, aber wenn dann Hut ab.
 
Solch ich das Popcorn wieder auspacken? :fresse2:

Gib mir was vom Popcorn ab, und ich teile mein(e) Guinness mit dir... :lol:

Zum Thema:
Ich finde das nicht wirklich verwunderlich, dass solch eine Meldung kommt während die 68er sich wie geschnitten Brot verkaufen.

Ob das jetzt Zufall war oder auch nicht. Jedenfalls ist der Zeitpunkt für dieses 'Missgeschick' auffallend passend... :rolleyes:
 
Kann mir gar nicht vorstellen das Nvidia so schnell nach dem Fermi wieder was neues hat, aber wenn dann Hut ab.

Kommt drauf an wie man neu definiert;)

512 Shaderunits und etwas erhöter Takt bei geringfügiger Verbesserung der Effizienz A03 GF100 alias GF110"neu oder nicht neu das ist hier die Frage"
 
Gib mir was vom Popcorn ab, und ich teile mein(e) Guinness mit dir... :lol:

Zum Thema:
Ich finde das nicht wirklich verwunderlich, dass solch eine Meldung kommt während die 68er sich wie geschnitten Brot verkaufen.

Ob das jetzt Zufall war oder auch nicht. Jedenfalls ist der Zeitpunkt für dieses 'Missgeschick' auffallend passend... :rolleyes:

Das sollte aber nicht das angepeilte Ziel für die 580er sein,dafür ist der GF104 zuständig;)
 
Was ist den ausschlaggebend um eine neue Grafikkartengeneration vorzustellen wie die 580GTX ?

Viele meinen der Chip ist der selbe wie Fermi und das es eigentlich nichts neues ist was eine namensänderung rechtfertigen würde gescweige denn neue Karte anzukündigen ?
 
Zuletzt bearbeitet:
Was ist den ausschlaggebend um eine neue Grafikkartengeneration vorzustellen wie die 580GTX ?

So weit ich das sehe gibt es da keine vorgefertigten Standards ab dem sich ein Chip mit neuer Bezeichnung zeigen kann;)


Die 5 wird diesmal sicherlich keinen Quantensprung bringen dafür war die Entwicklungszeit zu kurz
 
Ich bin schon guter Dinge. Die neue Architektur war ein Sprung ins kalte Wasser wie alles neue. Wenn man eine Grundlage hat ist es recht einfach diese zu optimieren.

Und ob versehentlich oder nicht ist mir persönlich egal da ich eh weiss was ich möchte und zu wenig Zeit bzw Phantasie habe um völlig abewegige Theorien aufzustellen. Das Getratsche überlass ich den Frauen. Die können das einfach besser.
 
Zuletzt bearbeitet:
Kommt drauf an wie man neu definiert;)

512 Shaderunits und etwas erhöter Takt bei geringfügiger Verbesserung der Effizienz A03 GF100 alias GF110"neu oder nicht neu das ist hier die Frage"
Der GF100 kratzte schon an den zulässigen Spezifikationen. Selbst mit Optimierungen wird man keine 512 SU verwenden und zusätzlich eine Takterhöhung fahren können.

[...]Wenn man eine Grundlage hat ist es recht einfach diese zu optimieren.
[...]
So einfach ist es nun auch nicht.
Bestes Beispiel: Intel. Hatten auch Netburst / Pentium 4 und haben darauf nicht weiter aufgebaut und mal schnell was optimieren ist nicht so einfach drin.
 
In der heutigen Zeit wird sowas wie ein Quantensprung schwer. Dager sollte bzw müsste das Wort schon fast neu definiert werden.

So einfach ist es nun auch nicht.
Bestes Beispiel: Intel. Hatten auch Netburst / Pentium 4 und haben darauf nicht weiter aufgebaut und mal schnell was optimieren ist nicht so einfach drin.

Die Frage ist ja ob sie nicht konnten oder wollten. Auch eine völlige Fehlentwicklung kann enorm weiter helfen.
 
Zuletzt bearbeitet:
Der GF100 kratzte schon an den zulässigen Spezifikationen. Selbst mit Optimierungen wird man keine 512 SU verwenden und zusätzlich eine Takterhöhung fahren können.
.

Da spricht ja der "Geforce 480 Experte" höchstpersönlich


Aber psst ich will dir was veraten mit 3 meiner 3 480er ist es möglich die Spannung abzusenken und trotzdem einen 800 Core Takt zu fahren.

Und nu?

Darf ich mal erfahren wieviele 480er du schon unter den Fingern hattest um dir ein praxisnahes Urteil zu bilden?

Was die Spezifikationen der ersten Chips betrifft spiegeln sie lange nicht das wieder was der Fertigungsprozess mittlerweile erreicht,aber man musste sich damals an den schlechtesten Chips orientieren
 
Zuletzt bearbeitet:
@Rappeldizupf
Natürlich lernen die Hersteller aus solchen Fehlentwicklungen und das sie es dann anders machen müssen

Aber man sieht gewisse Parallelen zu Netburst / R600, diese waren
- groß / viele Transistoren
- Ineffizient
- heiß
- verbrauchte viel Strom
- brauchte hohe Taktraten

selbes Bild beim Fermi. Intel hat das Glück mehrere Entwicklungsabteilungen mit verschiedenen Architekturansetzen zu haben zu haben, ATi / AMD haben nach und nach den R600 umgebastelt, nvidia muss den selben Schritt vollziehen, was aber eben nicht so einfach geht, weil man einem V8 auch nicht so einfach das Benzinsparen beibringt. ;)

@scully
Deine dümmlichen Bemerkungen lasse ich einfach unkommentiert.
Ich studiere Technische Informatik und hab schon in Praktika Einblick in die Fertigung bekommen.
Ich hab auch schon 2 GTX 480 in Aktion erleben dürfen, es ändert nichts daran das der Verbrauch enorm hoch ist.

Wären alle Chips besserer Güte, so müsste nvidia die Spannung nicht (mehr) so hoch anlegen, sondern würde das BIOS entsprechend anpassen. Es wäre sogar richtig gute Werbung wenn die Temperaturen und der Verbrauch sinken würde.
Tun sie aber nicht, weil sie trotz verbesserter Produktion das nicht gewährleisten können das ihr Chip mit gesenkter Spannung stabil läuft.
Stabil heißt hier die firmeninternen Tests und nicht das Spielzeug was uns hier als FurMark o.ä. zur Verfügung steht.

Aber da du und andere im Forum es geschafft haben müsst ihr wohl qualifizierter sein was E-Technik, Halbleitertechnik usw angeht als die nvidia Ingenieure.
Wie wäre es wenn du dich gleich da mal bewerben würdest. Immerhin hast du schon bei allen 3 Karten die Spannung senken können.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh