NVIDIA listet versehentlich GeForce GTX 580

Vergiss aber nicht das der Fermi der komplexere Chip von beiden ist. Es sei ihm daher das eine oder andere Watt gegönnt. Und wie er sich in absehbarer Zukunft entwickelt werden wir ja sehen.Ich jedenfalls bin gespannt und nich voreingenommen.

Das mir dem Verbrauch seh ich jetzt nicht so kritisch. Es wird zwar immer drauf rumgehackt aber es lässt sich hier dennoch kaum einer nehmen eine sparsame Karte auf Fermi Niveau zu bringen. Daher kanns so schlimm nicht sein ein Kraftwerk im Gehäuse sitzen zu haben.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@scully
Deine dümmlichen Bemerkungen lasse ich einfach unkommentiert.
Ich studiere Technische Informatik und hab schon in Praktika Einblick in die Fertigung bekommen.
Ich hab auch schon 2 GTX 480 in Aktion erleben dürfen, es ändert nichts daran das der Verbrauch enorm hoch ist.

Wären alle Chips besserer Güte, so müsste nvidia die Spannung nicht (mehr) so hoch anlegen, sondern würde das BIOS entsprechend anpassen. Es wäre sogar richtig gute Werbung wenn die Temperaturen und der Verbrauch sinken würde.
Tun sie aber nicht, weil sie trotz verbesserter Produktion das nicht gewährleisten können das ihr Chip mit gesenkter Spannung stabil läuft.
Stabil heißt hier die firmeninternen Tests und nicht das Spielzeug was uns hier als FurMark o.ä. zur Verfügung steht.

Aber da du und andere im Forum es geschafft haben müsst ihr wohl qualifizierter sein was E-Technik, Halbleitertechnik usw angeht als die nvidia Ingenieure.
Wie wäre es wenn du dich gleich da mal bewerben würdest. Immerhin hast du schon bei allen 3 Karten die Spannung senken können.
"Ich hab auch schon 2 GTX 480 in Aktion erleben dürfen..."
zufällig an einem computer vorbei gelaufen und zugesehen was der besitzer laufen lies oder :d, ändert aber nichts an scully bemerkung, dass du noch keine 480 GTX hattest und keine ahnung haben wirst was oc und verhalten angeht.

"hier die firmeninternen Tests..."
zufällig auf exkursion gewesen und zugesehen wie grafikkarten getestet werden oder wie :d
welche firma hat denn firmeninterne test für grafikkarten, was können die besser und wie sollen die mehr als 100% auslasten?

"wohl qualifizierter sein was E-Technik, Halbleitertechnik usw angeht als die nvidia Ingenieure...."
hat nichts damit zutun, ein bekannter mit abi 1,4 --> e-technik an der TU München bastelt jetzt in der abschlussarbeit an einem elektroauto und hat von PCs keine ahnung bzw. holt seine PC-tipps von chip.de.
 
Zuletzt bearbeitet:
(Würde) die Neue Karte um 50% an Leistung zulegen .
So wären 325 Watt nicht zu viel für mein empfinden.
Hatte meine HD5970 auch schon fast erreicht in Serie.
Solange der Stromverbrauch zur Leistung steht ist für mich alles in Butter.
Bei der GTX480 war es aber halt nicht so.
 
Zuletzt bearbeitet:
the GF125 is the next highperformance chip. presumably the GTX500 series.

gf125.jpg
 
Zuletzt bearbeitet:
GF104, GF110 und nun sehen wir einen GF125. Sind wir hier bei wünsch dir was ?

Hoffe das der GF125 zur 580GTX gehört und dieser rundum erneuert kommt. Oder ist das ein fake ?
 
Zuletzt bearbeitet:
Ich bin mir nicht zu 100% sicher aber habe gmeint, das Bild schon mal gesehen zu haben.
Da ich mir eh keine Highend Karten leisten kann bin ich gespannt was als nächstes kommt. Von beiden Seiten gleichermassen.
Zum Thema Namensgebung: Ob es gerechtfertigt ist auf 5xx zu gehen? War es gerechtfertigt von G80 auf G92 zu gehen? Oder von G92 auf GT200? Die "Basisarchitektur" war ja in etwa immer die selbe. Etwas grösser und etwas schöner angeortnet aber im Endeffekt das selbe. Ist schon mal jemandem aufgefallen, dass die pro Cudacore Effizienz nachlässt? Oder liegt das nur an den Taktraten?
Edit: Zoom mal ganz nahe an dieses Pic vom Chip heran. Das G1 ist dünner und "unklarer" gezogen als der Rest der Bezeichnung. Auch die nicht ganz verdeckte 2 oben ist wie das G1 etwas heller.
Nur mal so als Anspielung von mir ;-)
Ein Kollege der professionel Filme und Fotos bearbeitet meint, sowas sei bei dem tollen Hintergrund ohne grosse Probleme machbar.
 
Zuletzt bearbeitet:
Ich wette das die Karte noch dieses Jahr rauskommt!!^^
 
@Nimrais
Ist schon mal jemandem aufgefallen, dass die pro Cudacore Effizienz nachlässt? Oder liegt das nur an den Taktraten?
Textureinheiten sind der Schlüssel .
8800 GTS G92 Stream-Prozessoren: 128 Textureinheiten: 64

GTX 285 GT200 Stream-Prozessoren: 240 Textureinheiten: 80
Ca.120 wären wohl ausgewogner gewesen.
Der Beweis dafür 9800GTX 1GB im SLI 128 Textureinheiten sind eine Ecke schneller.

GTX480 G100 Stream-Prozessoren: 480 Textureinheiten: 60
Ca.240 wären wohl ausgewogener gewesen.
Der Beweis dafür GTX280 SLI ne Ecke schneller 160 Textureinheiten.

GTX580? ........ Stream-Prozessoren: 512?Textureinheiten: 128?
Ca.256 wären wohl ausgewogener gewesen.

Mann stehle sich vor die GTX460 wäre bei 334 Shadern mit Ca.167 textureinheiten daher gekommen.

Hätten sich die Textureinheiten mit vervielfacht sehe es nicht so aus dass die pro Cudacore Effizienz nachlässt.
Nicht ohne Grund will man oder muss man da auch bei dem neuen Chip ansetzen.
Bin der Meinung NV hätte da auch kleinere Chips Bauen können nur halt nich gleich mit 480 Shadern sondern erst später in einem Kleineren Fertigungs Prozzes.
Meiner Meinung nach sind es auch die Textureinheiten die seit Jahren der Grund dafür sind das Crysis nicht so performant rennt.
 
Zuletzt bearbeitet:
sacht mal merkt ihr es nicht, oder wollt ihr es nicht merken?
Der OT Mist von wegen AMD vs. NV hat hier nix verloren...

:btt:
 
Irgedwie hab ich das Gefühl das spätestens zum Start der HD69er Reihe von AMD neue Infos zur GTX5xx, natürlich ganz unbewusst und zufälllig-denn man will ja AMD die Kunden nicht abspänstig machen, bekannt werden...dejavu?!

mal zu dem ganzen OT hier-in einem anderen, äußerst kompetenten Forum gabs gerade einmal 6 Komentare zu diese "News", welche inhaltlich mehr zu bieten hatten als das was hier auf sechs Seiten steht bzw stand...unterhaltsam war's trotzdem
 
[
@scully
Deine dümmlichen Bemerkungen lasse ich einfach unkommentiert.
Ich studiere Technische Informatik und hab schon in Praktika Einblick in die Fertigung bekommen.
Ich hab auch schon 2 GTX 480 in Aktion erleben dürfen, es ändert nichts daran das der Verbrauch enorm hoch ist.
[/B]

Das heißt jetzt genau was bzw was will der Teilnehmer damit zum Ausdruck bringen?

Einen höheren Intellekt zu haben als andere weil man sich auf ein imaginäres IT Studium stüzt,ist bestenfalls Einbildung aber keine Bildung.

Ändert aber trotz allem nix an der Tatsache das du vom Potential/Taktvermögen/Spannungsregulierung der GF100 Chips bzw GTX480 keinen blassen Dunst hast,weder hast du dich aktiv im passenden Thread mit Usern ausgetauscht über Erfahrungswerte,noch anderweitige praktische Erfahrungen mit dieser Karte gesammelt.

Und bildest dir hier ein das "one and only" Urteil über das Kartenpotential der nachfolgenden Generation zu fällen,was selbsttredend deiner Natur gemäß nur negativ ausfallen kann,während du deine ATI Karte streichelst.


Und nein,ich hab mal ne 480er gesehen von weiten,sind keine brauchbaren Erfahrungswerte


Das ist entschuldigung arrogant und anmaßend zu gleich
 
Zuletzt bearbeitet:
Es geht um die Technik und den Satz

"Der GF100 kratzte schon an den zulässigen Spezifikationen. Selbst mit Optimierungen wird man keine 512 SU verwenden und zusätzlich eine Takterhöhung fahren können."

Als Antwort kommt dann nur "du GTX480 Experte". Was für eine konstruktive Diskussion.

Ob ich mich hier in einem Thread darüber austausche oder du mir unterstellst ich wäre niemals mit einer GTX480 in Berührung gekommen und dann auch noch mit einem "imaginären IT Studium" zu kommen ist wohl von dir arrogant und anmaßend falls du es überhaupt mitkriegst wie du hier mit anderen redest.

Du kriegst nicht mal mit das hier nicht um "Ati Karten streicheln" geht, sondern um die Schwierigkeiten in der Halbleitertechnik und je größer der Chip und je Ineffizienter das Design desto schwieriger die Optimierung und Einhaltung bestimmter Spezifikationen, wie z.B. die PCIe Specs.
Tut mir ja leid das ich nicht Alice im Wunderland spiele, sondern eher mich an Fakten halte wie das nvidia Ingenieure auch keine Wunder vollbringen können, sondern der Chip nach und nach reifen muss.
 
Naja, letztlich müssen bei NV doch sowieso mehrere Teams an mehreren Chips arbeiten, sonst könnte man nicht einfach so jedes Jahr ne neue Generation rausprügeln bzw. nächstes Jahr schon den Kepler releasen.

Und wer weiß wann die angefangen haben, den Fermi zu optimieren. Könnte ja sein, dass schon an Verbesserungen gearbeitet wird, bevor der Fermi überhaupt draußen war bzw. die ersten Karten zum Verkauf angeboten wurden?
Glaube kaum, dass die bei NV auf der faulen Haut sitzen...;)

Ich verfolge die Entwicklung jetzt gespannt weiter, macht Spaß wenn man einfach so zusehen kann wie sich die Dinge entwickeln bezüglich Grakamarkt. :drool:
 
@scully
Deine dümmlichen Bemerkungen lasse ich einfach unkommentiert.
Ich studiere Technische Informatik und hab schon in Praktika Einblick in die Fertigung bekommen.
Ich hab auch schon 2 GTX 480 in Aktion erleben dürfen, es ändert nichts daran das der Verbrauch enorm hoch ist.

Wären alle Chips besserer Güte, so müsste nvidia die Spannung nicht (mehr) so hoch anlegen, sondern würde das BIOS entsprechend anpassen. Es wäre sogar richtig gute Werbung wenn die Temperaturen und der Verbrauch sinken würde.
Tun sie aber nicht, weil sie trotz verbesserter Produktion das nicht gewährleisten können das ihr Chip mit gesenkter Spannung stabil läuft.
Stabil heißt hier die firmeninternen Tests und nicht das Spielzeug was uns hier als FurMark o.ä. zur Verfügung steht.

Aber da du und andere im Forum es geschafft haben müsst ihr wohl qualifizierter sein was E-Technik, Halbleitertechnik usw angeht als die nvidia Ingenieure.
Wie wäre es wenn du dich gleich da mal bewerben würdest. Immerhin hast du schon bei allen 3 Karten die Spannung senken können.

Da kann ich Scully auch nur beipflichten- die GTX480 läuft auch 1,00volt weit über def. (kann man aber auch in anderen Foren nachlesen, - mit Screen) macht schlappe 60Watt aus.
Kann man hier nachlesen:
http://www.hardwareluxx.de/communit...-bios-wakue-umbau-user-review-2-a-722415.html

Irre ich mich, oder machen nicht die Hersteller die Bioseinstellung ;)

Wenn ich den Schuh umdrehe, wäre ja das hier alles für die Katz:
http://www.hardwareluxx.de/communit...80-470-465-460-450-bios-files-2-a-744103.html
.....und die ganzen Daus hätten instabile Karten (nochmal Lob an den Fleiß, den die an den Tag legen:hail: )

Wenn Nvidia nicht blufft, wird die GTX 580 kommen- egal was du schreibst. Und egal wie scheisse du Nvidia findest, werden Leute wie ich sowas kaufen.
 
Das ist ja schön und gut das bei euch die Chips sich untervolten lassen, doch es muss nicht zwangsweise heißen das es

- bei allen so weit runtergeht
- das es bei internen Tests von nvidia die Qualitätskontrolle schafft

Nur weil ein Chip zu Hause im 0815 PC stabil läuft bedeutet es nicht automatisch das dies den Qualitätszielsetzungen des Herstellers entspricht. Es gibt da ein wenig mehr als nur "keine Bildfehler / Freeze = stabil".

Chips lassen sich untervolten, weil der Hersteller / Entwickler damit vorallendingen Qualitätschwankungen (nicht nur in der Anfangszeit) ausgleichen will und sich damit die Chipausbeute automatisch erhöht und bei Spannungsschwankungen (die im minimalen Bereich immer auftreten) der Chip stabil bleibt.

Die BIOS Werte gibt nvidia vor, samt einem Referenz BIOS - bei den meisten Herstellern im Ref Design werden nur die Vendor IDs umbenannt und das war es dann.

Und natürlich wird eine GTX580 o.ä. kommen, doch ich zweifel stark das dieses Jahr was mit einem "neuen" Chip wird - zumin was HighEnd angeht.
Das hat absolut nichts mit nvidia scheisse finden zu tun. Die Produkte von nvidia sind größtenteils gut, deren Geschäftsführung ist aber zum kotzen.
Und bevor hier wieder rumgelullt wird von wegen Fanboy, ich habe nvidia schon genügend Geld eingebracht, sei es nun Riva128/ TNT/ Geforce 256 / Geforce Ti 4200, nforce 2 Boards (nicht nur eins) uvm. :rolleyes: Daher kann ich nur über diesen Stuss eigentlich nur lachen.
 
Was seeeeeehr interessantes zur GTX580:
Parallel dazu gibt es erste Anmerkungen zu der erwarteten Leistung. Demnach soll sie 120 Prozent der aktuellen GTX 480 leisten, dabei aber „nur“ 80 Prozent des Vorgängers an Energie verbrauchen. Bereits im November sollte sich dies genauer feststellen lassen, denn die Karte soll binnen weniger Wochen auf dem Markt sein.
Quelle: CB
 
20% mehr leistung bei 20% weniger verbrauch ... na da bin ich mal gespannt.

sollte es stimmen bin ich positiv überrascht :)
 
Vielleicht schafft ihr es endlich mal euch zusammen zu reißen !!

*Beiträge entfernt*
 
News: Nvidia Geforce - Preissenkungen nur temporär? | Grafikkarten | News | Hardware | GameStar.de

Fudzilla hat laut eigenen Angaben eine E-Mail erhalten, aus der hervorgeht, dass diese Preissenkung nur für vorhandene Lagerbestände bei den Händlern und nur vom 21. Oktober bis zum 14. November gelten soll. Demnach könnten die Preise für die beiden Geforce-Grafikkarten danach wieder steigen.

Nvidias PR-Manager Igor Stanek hat inzwischen »Behauptungen, dass die Preisänderungen nur temporär sind« als vollkommen falsch bezeichnet und erklärt, dass die Preisanpassungen eine »kommende Veränderung im Angebot von Nvidia wiederspiegeln«.



Speziell der 2te Absatz lässt doch aufhorchen, meiner meinung nach die erste ,wenn auch indirekte, offizielle Ankündigung (wennma ma von der midlife kicker aussage absieht)
 
Und bald gehört sie miiiiiir...................:hail:
 
Sehr interessante Aussage. Glaubt ihr das mit 20% weniger Aufnahme ein 2 mal 6 Pin Design realisiert werden kann?
Die Leistung ist mir eigentlich ab einer 470 Schnuppe (reicht für mich) sie muss dabei nur Effizient sein und da würde ich es begrüßen wenn die 580er ein 2 mal 6pin Layout "schaffen" würde.

MFG Jubeltrubel
 
Ich denke die Wahrheit liegt irgendwo dazwischen.
Wenn Nvidia sagt 20% Mehrleistung dann werden es 15% sein und beim Verbrauch würde ich sagen 10 - 15% weniger sagen.

Aber weniger Verbrauch bei Mehrleistung hört sich grundsätzlich gut an.
 
Wird schon interessant werden, da man ja auch von verschiedenen Seiten hört, dass die HD6970 ja angeblich auch 15% schneller als die 480er ausfallen soll.

Am Ende haben wir vielleicht ein Unentschieden zwischen 6970 und 580.

Dann kann man sich wieder über den Stromverbrauch, PhysX usw. in die Haare kriegen ;)
 
Sehr interessante Aussage. Glaubt ihr das mit 20% weniger Aufnahme ein 2 mal 6 Pin Design realisiert werden kann?
Die Leistung ist mir eigentlich ab einer 470 Schnuppe (reicht für mich) sie muss dabei nur Effizient sein und da würde ich es begrüßen wenn die 580er ein 2 mal 6pin Layout "schaffen" würde.

MFG Jubeltrubel

Mit 20% weniger Verbrauch währe es möglich aber das ist ein Enthusiasten Karte aus der die Freaks alles herauskitzeln wollen,also denke ich das 2x6Pin unrealistisch erscheint.

Und der PCB Shot wenn es denn kein Fake ist zeigt ja schon die Pin Belegung;)
 
@Jubeltrubel
Sehr interessante Aussage. Glaubt ihr das mit 20% weniger Aufnahme ein 2 mal 6 Pin Design realisiert werden kann?
Die Leistung ist mir eigentlich ab einer 470 Schnuppe (reicht für mich) sie muss dabei nur Effizient sein und da würde ich es begrüßen wenn die 580er ein 2 mal 6pin Layout "schaffen" würde.
Hoffentlich nicht !
Die 20% weniger Verbrauch würde ich lieber in 1GHZ Takt mit Wakkü umsetzen können.:d
MFG
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh