Geforce GTX 280 mit GT200B aufgetaucht

Status
Für weitere Antworten geschlossen.
@fd:
Du meinst also, dass die aktuelle Situation genau das Gegenteil von damals GF FX und Radeon 9700/9800er ist, oder?
Sprich eine Technologie eig. wesentlich performanter ist, aber die Ausnutzung/Effizienz gering ist, da die Programme nicht oder nicht ganz darauf angepasst sind und sie deshalb unterliegt?

Wäre eine logische Folge, weil im Furmark z.b. geht ja die neue HD wesentlich besser als die GTX...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
...Das heist AMD hat im schlimmsten Fall nur 160 Shader mit 750MHz...
und genau unter dem Gesichtspunkt betrachtet sind wohl die skalaren Einheiten effizienter.
Oder anders gesagt: sie sind leichter effizient zu betreiben.
insgesamt war Dein Posting natürlich um einiges ausführlicher, als das was ich geschrieben hab.

ciao Tom
 
Zuletzt bearbeitet:
@TopAce888
da hast du natürlich recht, woher die Leistung kommt ist egal, nur ich als Kunde mache mir halt nur Gedanken, ob es nicht aus kostentechnischer Sicht für mich besser wäre, ähnliche Leistung bei weit aus geringerem Stromverbrauch zu schaffen. Und in dem Punkt ist SLI oder auch CF weit weit abgeschlagen, da bei teil mehr als doppeltem Verbrauch nicht mal die doppelte Leistung erreicht wird.

Die Nachteile von SLI und CF wird man so nicht weg bekommen, ich sag nur Speicher, es wird wohl immer so sein, das man bei 2 GPUs den doppelten Speicher haben muss, einfach aus dem Grund, weil keine ausreichend schnelle Verbindung existiert, wo Daten aus dem Speicher der anderen GPU gelesen werden können. Gut man könnte nun nen zentralen Speichercontroller schaffen und diesen dann an beide GPUs anbinden, die Frage ist nur ob man diese "Anbindung" ausreichend schnell dimensionieren könnte... ich glaube nicht.

@Le_frog99
ja gut kann ich die Tage mal machen ;)
müsste nur nochmal einer bestätigen, ob das alles so richtig ist, will da ja schließlich keine Falschinfos posten
 
Natürlich muss die Energieeffizienz stimmen. Eine FPS-Monster-Karte aus mehreren GPUs, die Unmengen an Strom verbraucht dürfte vermutlich bei den Gamern nicht gut ankommen, selbst die aktuellen Dual-GPU KArten von nvidia und ATI führen doch wohl eher ein Nischendasein und sind reine Prestigeobjekte. Von daher kann das nur funktionieren, wenn die GPUs wieder kleiner werden. Aber von der technische Realisierung habe ich keinen blassen Schimmer, sind halt so Gedanken die da umherrschwirren.

@Le_frog99
ja gut kann ich die Tage mal machen ;)
müsste nur nochmal einer bestätigen, ob das alles so richtig ist, will da ja schließlich keine Falschinfos posten

Hört sich auf jeden Fall richtig an! ;)

@fd:
Du meinst also, dass die aktuelle Situation genau das Gegenteil von damals GF FX und Radeon 9700/9800er ist, oder?
Sprich eine Technologie eig. wesentlich performanter ist, aber die Ausnutzung/Effizienz gering ist, da die Programme nicht oder nicht ganz darauf angepasst sind und sie deshalb unterliegt?

Wäre eine logische Folge, weil im Furmark z.b. geht ja die neue HD wesentlich besser als die GTX...

Aber waren denn die GF FX5x00 Karten performant?
 
Zuletzt bearbeitet:
Imho war die Architektur der damaligen Konkurrenz überlegen, aber es war wohl sehr schwer bzw. n großer Aufwand, die Games an die Architektur anzupassen und deshalb waren die FX immer so abgeschlagen...
NV hat ja in der Zeit wie wild Treiber released um wenigstens etwas mehr Performance rauszuholen...
Aber ist ja hier eig. OT ^^
 
Achja, da war doch was mit der Genauigkeit der Berechnung, jetzt dämmert es wieder. Das heißt die ATIs sind theoretisch stärker als die nvidias in der Praxis sieht es aber anders aus?

Welchen Einfluss haben eigentlich die ROPs auf die Gesamtperformance?
 
@fd:
Du meinst also, dass die aktuelle Situation genau das Gegenteil von damals GF FX und Radeon 9700/9800er ist, oder?
Sprich eine Technologie eig. wesentlich performanter ist, aber die Ausnutzung/Effizienz gering ist, da die Programme nicht oder nicht ganz darauf angepasst sind und sie deshalb unterliegt?

Wäre eine logische Folge, weil im Furmark z.b. geht ja die neue HD wesentlich besser als die GTX...

Jupp, genau so sehe ich das... Daher besteht bei den AMD Karten wohl auch teilweise so extremer Optimierungsbedarf bei neuen Games. Des weiteren würde ich es als Fakt ansehen, das die 1D Einheiten der NV Karten bei weitem einfach auszulasten sind, als die Vec5 Shader der AMD Karten und es noch dazu kommt, das es technisch einfach in Games nicht immer möglich ist, diese Vec5 Einheiten zu 100% auszulasten aus oben benannten Grund (was ich leider so genau nicht mehr erklären kann, muss mich danochmals einlesen, will da nix falsches sagen)

Und das die HD4870 im Gegensatz zu einer 280GTX eigentlich in Sachen theoretischer Rechenleistung deutlich überlegen ist, zeigen ja die GFlops Werte. Man sieht also was durch fehlende Optimierungen/nicht mögliche Vollauslastung auf der Strecke bleibt am Ende.

Interessant wäre der Vergleich zwischen den Beiden aber weg vom 3D Zeug. Also GPGPU, dort sollte die HD4870 sofern das endlich mal funktionieren sollte deutlich vorbei ziehen, weil die Auslastung dort besser hinzubekommen wäre, als in Spielen. Aber das kann man aus Mangel an Software derzeit nicht wirklich sagen...
 
und genau unter dem Gesichtspunkt betrachtet sind wohl die skalaren Einheiten effizienter.
Oder anders gesagt: sie sind leichter effizient zu betreiben.
insgesamt war Dein Posting natürlich um einiges ausführlicher, als das was ich geschrieben hab.

ciao Tom

ja richtig, aber wenn man dann aus Sicht Leistung/Transistor bzw. Chipfläche/Leistung die Sache beäugt, dann stellt man fest, das die 1D Geschichte im Moment zwar noch Leistungsmäßig leicht vorn ist, aber in Sachen Stromverbrauch, Chipgröße und Transistoranzahl schon zurück.

Laut der Aussagen der Leute da in dem Thread im CPU Forum wird sich das mit steigender Anzahl an 1D Einheiten noch weiter verschlechtern...

Mit steigender Chipgröße und steigender Transistorzahl im Verhältniss zur Leistung wird auch der Stromverbrauch zur Leistung schlechter und der Preis zur Leistung bei gleichem Gewinn...
Das NV eigentlich mehr für ihre G200 Karten haben wollte, hat man ja zu dessen Release gesehen. Ich glaube mal da muss NV dringend reagieren...

Wenn wirklich Vectoreinheiten von NV kommen, bin ich gespannt was dort in Sachen Effizienz rauszuholen ist ;)

Achja, da war doch was mit der Genauigkeit der Berechnung, jetzt dämmert es wieder. Das heißt die ATIs sind theoretisch stärker als die nvidias in der Praxis sieht es aber anders aus?

Welchen Einfluss haben eigentlich die ROPs auf die Gesamtperformance?

Die ROPs sollten eigentlich für AA genutzt werden... Sprich wenn AA an ist läuft das mit über die ROPs, wobei aber AA mittlerweile auch über die Shader zu laufen scheint, seit dem R600 zumindest bei ATI, denn dort funktionierten ja die ROPs nicht richtig...
 
Zuletzt bearbeitet:
Genau das hatte ich auch immer im Hinterkopf, nur sind die neuen ATIs ja sehr performant, wenns ans AA (insbesondere ab 8x) geht und das, obwohl sie den GTX2x0 da eigentlich haushoch unterlegen sind (16 zu 32 ROPs, bei leicht höherem Takt für die ATI Karten)
 
nochmal zu den Vec5 Einheiten der AMD Karten, also soweit ich mich da auf die Schnelle nachmal eingelesen habe, können diese Einheiten pro Takt einen RGBA Wert (Rot, Grün, Blau und nen Alpha Wert) + eine 1D Scalaranweisung berechnen. Wobei diese Werte wohl scheinbar zum gleichen Objekt gehören müssen, sonst funktioniert es nicht (richtig)

Laut AMD soll angeblich die GPU aber auch die Möglichkeit besitzen, diese Vec5 Shader zu splitten, wobei das wohl auf dem Papier besser funktioniert als in der Praxis. Denn es soll ein Splitmodus von 1D+1D+1D+1D möglich sein, was dann in Summe bei den RV770 GPUs 800 Scalareinheiten entsprechen würde... In der Praxis aber wie gesagt kann man das wohl so nicht anwenden...

Wenn man den Shadertakt * die Anzahl der Shader rechnet bei der alten 260GTX und das mal mit der HD4870 vergleicht, dann kommt raus, das die HD4870 Vec5 Einheiten im Schnitt zu 2/5 ausgelastet sind. Gleiches kann man auch mit der 280GTX vergleichen, wobei man hier dann von Shadertakt + Anzahl noch 25% abziehen muss, da diese in etwa im Schnitt 25% schneller ist.
Das gilt natürlich nur für die Shaderpower und kann durch andere Dinge noch beeinflusst werden... (zugunsten oder zu ungunsten von AMD ;))
 
Wenn man den Shadertakt * die Anzahl der Shader rechnet bei der alten 260GTX und das mal mit der HD4870 vergleicht, dann kommt raus, das die HD4870 Vec5 Einheiten im Schnitt zu 2/5 ausgelastet sind.

Wie kommst du darauf? Aufgrund der Performance im Vergleich zur GTX260?
 
Zuletzt bearbeitet:
jo, daher hab ich auch zugeschrieben, das gilt nur für die Shaderpower und ist in einigen anderen Situationen nicht so vergleichbar...
Aber die Shaderpower ist nunmal das was derzeit wohl am meisten zählt würd ich sagen.

Ich denke mal schon das man das so wenigstens annähernd vergleichen kann wenn auch nur mit Vorsicht ;)
 
Um jetzt aber mal ein wenig wieder zurück zum Thema zu kommen, gibt es schon irgendwelche Neuigkeiten, wann nvidia die 55nm Karten in den Markt schieben will?
 
keine Ahnung, hab vorhin auch hier schon mal nach nem genaueren Datum gefragt, hat aber keiner geantwortet...
 
Oh, haben wohl alle (mich eingeschlossen) überlesen! ;) Oder aber es gibt noch keine bessere Antwort als Dezember.
 
aufgrund des heutigen datums und der fülle an informationen glaube ich kaum das es irgendetwas tolles noch dieses jahr geben wird.. wenn das weinachtsgeschäft mitgenommen werden soll müssten die karten ab nächster woche im handel verfügbar sein.

dann sollten wir aber schon mehr wissen, ..

ich hätte eine GTX 280 in 55nm gekauft, daraus wird nun denke ich nichts :(
 
Naja, vielleicht passiert das doch auch. Nvidia wollte die 55nm Karte doch ohne großes Trara einführen.
 
laut fudzilla läuft inzwischen schon die Massenproduktion des 55nm Chips.
 
Das wäre ja ein Dingen, aber doch nicht alle, sondern erst seit kurzer Zeit (wenn überhaupt).

Hmm...aber wo ist den bei Xbit-Labs Link die Rede von 55nm?
 
Zuletzt bearbeitet:
ich glaube kaum das noch kein besitze mal den kühler abgebaut hat, die nachricht wär doch bestimmt schnell durchgedrungen ..

und ja klar nvidia liefert ja auch schon viel in 55nm nur eben bisher den 200er noch nicht.

@raupi, woher nimmst du diese information? selbst der gpu-z screen zeigt doch 65nm..
 
Das mit GPU-Z ist sicherlich kein Indiz dafür, denn wahrscheinlich muss erst eine neue Version her, die die 55nm Karten richtig erkennt.

Aber wenn alle 216er Karten schon auf 55nm laufen, dann hätte das bestimmt schon die Runde gemacht.
 
ich glaube kaum das noch kein besitze mal den kühler abgebaut hat...
wobei ja der Heatspreader von außen betrachtet genauso wie der von den 65nm-Karten aussehen könnte. Und den Heatspreader machen ja nur die wenigsten vom Chip ab.

ciao Tom
 
Die wichtigsten Informationens stehen aber doch auf dem Heatspreader drauf, der 55nm Chip hat sicherlich eine andere Revision.
 
Wenn da schon 55er drauf wären, dann hätte die User das an geringeren Temps, geringerem Stromverbrauch und/oder massiv besseren OC-Ergebnissen sicher schon gemerkt und in die Runde geworfen ;)
 
Ja das stimmt wohl! wenn alles nur 55nm karten wären hätten die sicher an die 800Core gemacht!
 
Wenn da schon 55er drauf wären, dann hätte die User das an geringeren Temps, geringerem Stromverbrauch und/oder massiv besseren OC-Ergebnissen sicher schon gemerkt und in die Runde geworfen ;)

in der Tat hat die 216er GTX einen geringeren Stromverbrauch als die alte 192er GTX...
Aber dieser beläuft sich nur auf wenige Watt.

Aber es gibt doch sicher schon ein paar Leute, welche ne 216er und ne 192er GTX geköpft haben, da wäre sicher ne Meldung rumgegangen...

Und mehr OC muss ja auch net sein, vor allem nicht, wenn NV die VGPU Spannung nach gesenkt hat.
 
Wenn da schon 55er drauf wären, dann hätte die User das an geringeren Temps, geringerem Stromverbrauch und/oder massiv besseren OC-Ergebnissen sicher schon gemerkt und in die Runde geworfen ;)

Genau das meinte ich ja auch!

in der Tat hat die 216er GTX einen geringeren Stromverbrauch als die alte 192er GTX...
Aber dieser beläuft sich nur auf wenige Watt.

Aber es gibt doch sicher schon ein paar Leute, welche ne 216er und ne 192er GTX geköpft haben, da wäre sicher ne Meldung rumgegangen...

Und mehr OC muss ja auch net sein, vor allem nicht, wenn NV die VGPU Spannung nach gesenkt hat.

Das Gegenteil ist der Fall. Mir ist im GTX260 Thread noch keine 216er GTX untergekommen, die mit mind. 1,03V betrieben im 2D Takt betrieben wird. Die meisten liegen hier bei 1,11V für 2D und für den Extra-Takt unter Last bei 1,12V.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh