[Sammelthread] Nvidia GeForce 260 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 260 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Coming soon....on 17th. June

Nvidia GeForce 260 GTX Sammelthread

gtx260_01ytg.jpg

gtx260_02feq.jpg

gtx260_030gr.jpg

gtx260_04re3.jpg




Technische Daten der 260 GTX - G200

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 575 MHz
  • Shadertakt = 1.240 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 192 (1D)
  • FLOPs (MADD/ADD) = 714 GFLOP/s
  • ROPs = 28
  • Pixelfüllrate = 16.100 MPix/s
  • TMUs = 64
  • TAUs = 64
  • Texelfüllrate = 36.800 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = ??
  • Speichermenge = 896 MB GDDR3
  • Speichertakt = 999 MHz
  • Speicherinterface = 448 Bit
  • Speicherbandbreite = 111.888 MB/s
  • Stromaufnahme >>> 182 Watt TDP (über einen 2x 6xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
coming soon....




Geizhals Links (zu erwartende Preise zwischen 250€-350€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=260+gtx&x=0&y=0&in="]Hardwareluxx Preisübersicht[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Wie schon zu erwarten und ohne große Verwunderung entspricht der Kühler der 260GTX natürlich dem ihres großem Bruders, der 280GTX. Der ausreichend leistungsstarke Kühler vermag es auch bei dem kleineren Bruder, die Temperaturen problemlos in Schach zu halten. Leider und dieses mal zum Nachteil für Nvidia Fans ist es nicht gelungen, den Lüfter im Idle Modus lautlos zu halten. Die User welche ihre Freude an einem Silent PC haben, werden wohl oder übel zum Mittel einer nachträglichen Lüftersteuerung greifen müssen um die Karte im Idle zum schweigen zu bringen, diese ist leider aus dem Gehäuse heraus zu hören wenn auch nicht wirklich störend. Unter Last verhält es sich in etwa gleich, im die Temperaturen der großen GPU in Schach zu halten hat Nvidia Drehzahl der Lüfter wesentlich erhöht, was natürlich zu einer deutlichen Wahrnehmung führt und somit leider nicht an der Erfolg der 8800er GTS oder GTX Serie anknüpfen kann. In diesem Fall hat Konkurrent ATI bei der 480er Serie seine Hausaufgaben ein wenig besser gemacht.


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Karte akzeptabeles Niveau gesunken. Auch unter Last ist der Verbrauch für solch eine Karte okay, durch die etwas abgespekte CPU und den niedrigeren Taktraten im Gegensatz zur 280GTX lässt den Verbrauch unter Last als erträglich erscheinen. Im Augenblick scheint der 2D Modus allerding noch Probleme mit dem Multimonitoring zu haben, sobald 2 Monitore an der Karte betrieben werden schaltet diese leider nicht mehr in den 2D Modus, hoffen wir das dieses Problem in der nächsten Zeit noch gefixt wird.




Wie heiss darf meine Karte werden?
  • Wie schon im Abschnitt zur Lautstärke erwähnt, verwendet Nvidia bei ihrem 260er Modell diesmal den gleichen Kühler wie bei dem größeren 280er Bruder. Aufgrund der etwas abgespeckten GPU fällt es dem Kühler deutlich leichter die Temperaturen in Schach zu halten. Damit bleibt die Karte im Idle wie auch unter Last ausreichend kühl, was den Usern Spielraum verschafft die Lautstärke durch Anpassung der Lüftersteuerung noch zu verringern oder auch einfach den passenden Übertaktungspielraum zu geben, auch für heiße Sommertage. Die Temperaturen liegen im Bereich zwischen 65°-95° Grad.




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance


PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg


Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos. Da die 260GTX Baugleich ist , passen die Kühler natürlich auch auf der 260GTX. :wink:

image2.phpx5u.jpg


image.php7l5.jpg


gpu_x2_g200_5xn1.jpg


Danke Snoopy :wink:
[/LIST]




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
ich finde es gut wenn alle die 4850/4870 kaufen, denn dann wird die 260 GTX immer billiger. und vorallem mit OC geht die richtig ab ::love:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
jo bawde ist doch egal ob nun 4870 oder 260gtx keine bietet dir mehr(nur ein besseres design 260GTX) aus bei 8aa aber das ist meist nicht mehr spielbar :wink:Soulja
 
Lohnt es sich ein A8N-SLI Premium (Nforce4 SLI) mit 2-4 Gig Ram und nem Opteron 185 mit einer X260 zu versehen ? Ich denke mal jeder wird zu nem Intel 2 oder 4 kern raten und auf DDR2 setzen aber in anbetracht davon das nur gezockt werden soll und etwas brennen und mal nen Film umwandeln denke ich nicht das ein neuer Rechner sinnvoll wäre.

Was denkt ihr ? Reicht für BF3 welches ja kein Crysis sein wird sondern ein Massenspiel mit etwas besserer grafik als BF2 oder CoD4 so ein Rechner noch mit dieser Karte oder muß nen wechsel stattfinden ? Ich habe selbst gesehen was mir als Endanwender ein 6750 bringt. Und der bringt mehr als genug. Leistung im überfluss die ich kaum brauche.

Und die Games profitieren doch kaum bis garn icht von einem 4 kern wenn man mal ehrlich ist und aufs Portmonaie guckt. Und mit dem Rechner werden eher nur Onlinegames statt Hightech Singleplayer Spiele gespielt.

Hier gehts um Sinn und Geld statt um Benchmarkpunkte.

Danke für eure Antworten.
 
Zuletzt bearbeitet:
A8N-SLI Premium (Nforce4 SLI)Lohnt es sich ein A8N-SLI Premium (Nforce4 SLI) mit 2-4 Gig Ram und nem Opteron 185 mit einer X260 zu versehen ? Ich denke mal jeder wird zu nem Intel 2 oder 4 kern raten und auf DDR2 setzen aber in anbetracht davon das nur gezockt werden soll und etwas brennen und mal nen Film umwandeln denke ich nicht das ein neuer Rechner sinnvoll wäre.

Was denkt ihr ? Reicht für BF3 welches ja kein Crysis sein wird sondern ein Massenspiel mit etwas besserer grafik als BF2 oder CoD4 so ein Rechner noch mit dieser Karte oder muß nen wechsel stattfinden ? Ich habe selbst gesehen was mir als Endanwender ein 6750 bringt. Und der bringt mehr als genug. Leistung im überfluss die ich kaum brauche.

Und die Games profitieren doch kaum bis garn icht von einem 4 kern wenn man mal ehrlich ist und aufs Portmonaie guckt. Und mit dem Rechner werden eher nur Onlinegames statt Hightech Singleplayer Spiele gespielt.

Hier gehts um Sinn und Geld statt um Benchmarkpunkte.

Danke für eure Antworten.
in welcher auflösung gedänkst du zu spielen davon hängt es nämlich ab :wink:warum baust du nicht die 260GTX in das e6750 sys :confused:
 
Zuletzt bearbeitet:
Es geht nur um das AMD System. Auflösung ist 1600x1050. Denke für die Auflösung ist die graka zuständig und nicht Mainboard/Prozzi. Das Intel Sys gehört mir und das AMD is von nem Freund.
 
Es geht nur um das AMD System. Auflösung ist 1600x1050. Denke für die Auflösung ist die graka zuständig und nicht Mainboard/Prozzi. Das Intel Sys gehört mir und das AMD is von nem Freund.

jap gut bei dieser auflösung braucht er nicht das sys zu wechseln denn ab der auflösung kommt es auf die graka an und von der 260gtx geht ja genug power aus ;)
 
???

Versteh deinen Zusammenhang nicht ? Wenn er ne 1024er fahren würde oder ne 1900er ?? Wo setzt du dann den Unterschied ? Erklär mal bitte ;)

Ich wüßte überhaupt nicht was die Auflösung bei der karte zu sagen hat ? Es geht darum ob sein Mainboard mit dem Prozzi und Ram schnell genug hinterherrechnen kann damits für die karte bei games alles halbwegs zusammenpaßt.

Das meine Frage.
 
Zuletzt bearbeitet:
ich kann ja auch nur das sagen was ich so im forum oder im internet erfahre also guru willst du immer noch auf die 4870 wechseln ???

hm ich weiß noch nicht aber das liegt nicht an der karte weil mit overclock ich sogar locker die 280gtx verhaue aber der idle wert von ati macht mir kopfzerbrechen.will ja 2 karten haben und dann sind es 80w im idle mehr als bei der 260gtx im sli und das ist heftig,mal schauen.
@derguru

Und welcher takt hat die GTX260? :)

der letzte bench beim 3d mark06 war mit 760/1600/1300 im normalbetrieb lasse ich mit 731/1539/1275 laufen.
 
Zuletzt bearbeitet:
???

Versteh deinen Zusammenhang nicht ? Wenn er ne 1024er fahren würde oder ne 1900er ?? Wo setzt du dann den Unterschied ? Erklär mal bitte ;)

Ich wüßte überhaupt nicht was die Auflösung bei der karte zu sagen hat ? Es geht darum ob sein Mainboard mit dem Prozzi und Ram schnell genug hinterherrechnen kann damits für die karte bei games alles halbwegs zusammenpaßt.

Das meine Frage.

bis 1280x1024 sind spiele cpu limitiert aber mit 1600er oder 1900er auflösungen und mit hohen setings schafft man es die cpu auszulasten und somit die leistung graka limitiert zu machen so muss mal schalfen gehen :eek:
 
bis 1280x1024 sind spiele cpu limitiert aber mit 1600er oder 1900er auflösungen und mit hohen setings schafft man es die cpu auszulasten und somit die leistung graka limitiert zu machen so muss mal schalfen gehen :eek:

So ist es - wobei das auch von Spiel abhängt.
 
jo bawde ist doch egal ob nun 4870 oder 260gtx keine bietet dir mehr(nur ein besseres design 260GTX) aus bei 8aa aber das ist meist nicht mehr spielbar :wink:Soulja
bei CB läuft eine geocte 260 GTX wie eine 280 GTX, in dem getesten spiel.
 
Die GTX 260 läßt sich wirkloich sehr gut übertakten, für 250€ gabs nie mehr Leistung, einfacht top.

Grüß
Sascha
 
und was sagst du zur bildqualität?
wie hoch kannst du deine graka ocen?
 
ich lasse 24/7 mit 731/1539/1250 laufen
was ich max bis jetzt getestet hatte war 760/1600/1300
bildqualität ist wie immer also so wie bei deiner alten 8800gt,was sollte sich auch geändert haben.
 
Zuletzt bearbeitet:
ich lasse 24/7 mit 731/1539/1250 laufen
was ich max bis jetzt getestet hatte war 760/1600/1300
bildqualität ist wie immer also so wie bei deiner alten 8800gt,was sollte sich auch geändert haben.


Real sind das aber dann 729/1512/1242, oder?
Gebt dich bitte immer die realen Takten an, nicht das was eingestellt ist!
 
Real sind das aber dann 729/1512/1242, oder?
Gebt dich bitte immer die realen Takten an, nicht das was eingestellt ist!

wozu? die leute schauen nicht was der realwert ist sondern das was man einstellt.ich gib das an was ich beim riva einstelle.ist leichter für die leute nachzuvollziehen.
 
Zuletzt bearbeitet:
Gebt doch an was ihr wollt, nur schreibt dazu was es ist ;)
 
also ich bin von der gtx 260 begeistert. klar ist die 4870 auch sehr gut. aber mit gefällt das gesamt paket deutlich besser.

1. ist sie leise und stört auch unter vollast inkl oc nicht.
2. ich hab echt mühe die karte auf über 75Grad zu bekommen.
 
also ich bin von der gtx 260 begeistert. klar ist die 4870 auch sehr gut. aber mit gefällt das gesamt paket deutlich besser.

1. ist sie leise und stört auch unter vollast inkl oc nicht.
2. ich hab echt mühe die karte auf über 75Grad zu bekommen.

Hinzu kommt schon jetzt ein solider Treiber.
 
das ist für mich realwert und daran sollte man sich auch richten und nicht nach riva tuner toleranz messungen.
 
das ist für mich realwert und daran sollte man sich auch richten und nicht nach riva tuner toleranz messungen.

Das ist doch Quatsch, .. das hat doch nix mit Tolerenzmessungen zu tun!
Die Karte kann halt nur bestimmt Taktraten annehmen, und allein diese sind real, was du einstellst ist doch unwichtig!
 
Das ist doch Quatsch, .. das hat doch nix mit Tolerenzmessungen zu tun!
Die Karte kann halt nur bestimmt Taktraten annehmen, und allein diese sind real, was du einstellst ist doch unwichtig!

wieso ist denn bei deinem user review kein realer wert vorhanden? also verschone mich mit deinen neu erlangten weißheiten,rolf:lol:

mich interessiert es aus deiner sicht, nachdem du immer ati hattest.

auch wie immer schlechtere 2d qualtiät als bei amd,im gesamtpaket ist bei ati die farbqualität besser was natürlich auch an den besseren einstellungen liegen kann.
 
wieso ist denn bei deinem user review kein realer wert vorhanden? also verschone mich mit deinen neu erlangten weißheiten,rolf:lol:

Wieso neu erlangt? Das mit den Taktdomänen ist doch bei nV schon lange so!

Bei meinen Review? Wo hab ich dann da keine realen Werte?
Jetzt nicht um zu provozieren, sondern ernsthaft? Ich hab immer versucht die realen Taktraten anzugeben!
 
Wieso neu erlangt? Das mit den Taktdomänen ist doch bei nV schon lange so!

Bei meinen Review? Wo hab ich dann da keine realen Werte?
Jetzt nicht um zu provozieren, sondern ernsthaft? Ich hab immer versucht die realen Taktraten anzugeben!

also komm nerv nicht mit deinem möchtegernweisheiten,dann nimm zu deinem userreview keine gpz-z werte auf sondern die realen taktraten;)
 
also komm nerv nicht mit deinem möchtegernweisheiten,dann nimm zu deinem userreview keine gpz-z werte auf sondern die realen taktraten;)

Zeig mir mal ein paar Stellen wo ich nicht den realen Wert gepostet habe?

Hör auf mit deinen Möchtegernweisheiten, es ist doch einfach Fakt, ...
Nur weil Vista den Multi von machen AMD CPUs falsch erkennt und 4,3GHz angezeigt werden, obwohl nur 3,9 anliegen, schreibst du doch auch ned, dass deine CPU @ 4300 läuft, oder?
 
Zeig mir mal ein paar Stellen wo ich nicht den realen Wert gepostet habe?

Hör auf mit deinen Möchtegernweisheiten, es ist doch einfach Fakt, ...
Nur weil Vista den Multi von machen AMD CPUs falsch erkennt und 4,3GHz angezeigt werden, obwohl nur 3,9 anliegen, schreibst du doch auch ned, dass deine CPU @ 4300 läuft, oder?

wenn jemand fragt wie hoch man getaktet hat dann gibt man die werte an die man gemacht hat,was da real ist oder nicht ist :hwluxx: :wayne:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh