[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
hat eig schon jemand eine GTX260 hier ?
Ich weis is der 280 Thread aber ich würd gern auchmal Die zum vergleich sehn (hab mir eben eine bestellt)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Genau, per NiBitor und NvFlash für's Flashen vom Bios. Habe ich doch geschrieben oder so ähnlich zumindest.
 
Gibts neue Treiber?? :fresse:
Der 177.39 ist nämlich verbuggt und ich nutze den 177.26. Habt ihr nen Performance-Unterschied bemerkt zw. denen?


Nee, hab ich grad mal getestet beim 3D-Mark 06. 30 Punkte Unterschied:rolleyes:
 
:banana:Ich hüpf im Kreis:banana:

Undervolting klappt selbst im 3D-Modus. Mit 1.03V (Nibitor) läuft
die Karte immer noch bei 690MHz stabil. Grafikfehler kommen erst
bei 700Mhz und das erst wenn die Karte sich warmgelaufen hat.
Bei Standardspannung kommen Grafikfehler ab 735MHz. Das sind gerade
einmal 35MHz Takteinbuße mit Undervolting.

Und das beste kommt noch...

Sie bleibt schön leise und Kühl..:d Ganze 65W weniger Verbrauch.

Aber nach oben geht wohl nicht? :rolleyes:
 
Bei den "Roten" wird behauptet, dass die 4870 die GTX280 abziehen würde. Beweise hab ich noch keine gesehen.
Der Preis ist allerdings äusserst attraktiv mit 239€. Käme man mit CF auf ca 1,5-fache Leistung eine GTX280?
 
Zuletzt bearbeitet:
:banana:Ich hüpf im Kreis:banana:

Undervolting klappt selbst im 3D-Modus. Mit 1.03V (Nibitor) läuft
die Karte immer noch bei 690MHz stabil. Grafikfehler kommen erst
bei 700Mhz und das erst wenn die Karte sich warmgelaufen hat.
Bei Standardspannung kommen Grafikfehler ab 735MHz. Das sind gerade
einmal 35MHz Takteinbuße mit Undervolting.

Und das beste kommt noch...

Sie bleibt schön leise und Kühl..:d Ganze 65W weniger Verbrauch.

hatte ich ganz überlesen! :hail:

Hm shit kann mir jemand unter vista64 sagen wie das geht?
 
:banana:Ich hüpf im Kreis:banana:

Undervolting klappt selbst im 3D-Modus. Mit 1.03V (Nibitor) läuft
die Karte immer noch bei 690MHz stabil. Grafikfehler kommen erst
bei 700Mhz *********und das erst wenn die Karte sich warmgelaufen hat.
Bei Standardspannung kommen Grafikfehler ab 735MHz. Das sind gerade
einmal 35MHz Takteinbuße mit Undervolting.

Und das beste kommt noch...

Sie bleibt schön leise und Kühl..:d Ganze 65W weniger Verbrauch.

**********wieviel shader und memory liegen da an?
 
Sag mal bitte zuppi was kann ich denn jetzt in der Nsystemsteuerung einstellen damit ich die HQ auflösung eingestellt habe
 
Zuletzt bearbeitet:
Bei den "Roten" wird behauptet, dass die 4870 die GTX280 abziehen würde. Beweise hab ich noch keine gesehen.
Der Preis ist allerdings äusserst attraktiv mit 239€. Käme man mit CF auf ca 1,5-fache Leistung eine GTX280?
Da wird viel behaupet wenn der Tag lang ist....der Mittwoch wird es zeigen und ob die Karte mit 512mb in 1920x1200 mit viel AA nicht nach ner Zeit eingeht werden wir auch gewahr werden,ich glaubs erst wenn ichs am eigenen Rechner sehe und in dem CB Test fehlen die 1920x1200 Auflösungen......
 
Sag mal bitte zuppi was kann ich denn jetzt in der Nsystemsteuerung einstellen damit ich die HQ auflösung eingestellt habe

Ich mach dir mal ein paar Bildchen vom nHancer wie ichs einstelle,
denn ohne SSAA nie mehr wieder und mit der Karte schonmal garnicht.




Crysis für mster


global>wird immer übernommen wenn kein Profil da ist.
profil>ändern>die ausgerauten Einstellungen sind deine globalen Einstellungen die im Profil mit übernommen werden,da muß man nichts ändern.
Wenn das AA zuviel ist eben runtergehen durch nhancer haste alles was das Herz haben will.

Die Einstellung "AA-Einstellung des Spiels aufwerten" wird nur angekreutzt wenn das Spiel selbst in seinen Einstellungen AA hat!!!!
Wenn nicht Haken raus!!! Den wo nix ist kann man auch nix aufwerten.
Dann wird AA über die Kompatibilität erzwungen Dank nHancer zb. UT3 dann wir in dem Reiter "Kompatibilität" die Bits XXXXXXX45 Eingestellt und im UT3 Profil übernommen.
 
Zuletzt bearbeitet:
^^ siehst

für die 260er irgendetwas alternatives zum Kühlen in Arbeit mit Wasser ?

Bei der 280er lese ich ja auch nur von einem Kühler
 
Zuletzt bearbeitet:
hatte ich ganz überlesen! :hail:

Hm shit kann mir jemand unter vista64 sagen wie das geht?

Unter Vista einfach mit NiBitorV4.2 dein Bios auslesen, ggf. Taktraten anpassen und unter Voltages im Reiter "Exact Mode" die Spannungen ändern. Habe "Extra" und "3D" auf 1.03V gesetzt. Abspeichern und unter DOS mit NvFlashV5.67 das Bios flashen. Parameter 5 und 6 nicht vergessen.

Bsp.: nvflash.exe -5 -6 biosfile.rom

**********wieviel shader und memory liegen da an?

Bei mir liegen zur Zeit mit Biosmod 680MHz/1360MHz Shader/1250MHz Speicher an.

Achja und ich habe mich verschrieben der Lüfter dreht nicht auf 70% sondern nur auf 62%.
 
Bei mir steht da alles noch mit dem Sli, Sli Modus aktiviert usw. ich glaube ich muss den Nhancer erstmal neu installieren da noch praktisch vom Vorgänger der GX2 alles immer noch da ist wie ich es gelassen habe, oder kann ich das so lassen ist das egal?
 
Zuletzt bearbeitet:
Bei mir steht da alles noch mit dem Sli, Sli Modus aktiviert usw. ich glaube ich muss den Nhancer erstmal neu installieren da er noch praktisch vom Vorgänger der GX2 alles übernommen hat, oder kann ich das so lassen ist das egal?
Das glaub ich auch,irgendwie glaub ich da läuft einiges nicht so wie es soll.
 
Unter Vista einfach mit NiBitorV4.2 dein Bios auslesen, ggf. Taktraten anpassen und unter Voltages im Reiter "Exact Mode" die Spannungen ändern. Habe "Extra" und "3D" auf 1.03V gesetzt. Abspeichern und unter DOS mit NvFlashV5.67 das Bios flashen. Parameter 5 und 6 nicht vergessen.

Bsp.: nvflash.exe -5 -6 biosfile.rom



Bei mir liegen zur Zeit mit Biosmod 680MHz/1360MHz Shader/1250MHz Speicher an.

Achja und ich habe mich verschrieben der Lüfter dreht nicht auf 70% sondern nur auf 62%.

62% Luffi?!?! :hail:
Will haben!!!

Danke für die Anleitung, nur kann ich net mal das Bios auslesen! Hab mir eins für meine Karte geladen aber dem trau ich net ganz.
 
Unter Vista einfach mit NiBitorV4.2 dein Bios auslesen, ggf. Taktraten anpassen und unter Voltages im Reiter "Exact Mode" die Spannungen ändern. Habe "Extra" und "3D" auf 1.03V gesetzt. Abspeichern und unter DOS mit NvFlashV5.67 das Bios flashen. Parameter 5 und 6 nicht vergessen.

Bsp.: nvflash.exe -5 -6 biosfile.rom



Bei mir liegen zur Zeit mit Biosmod 680MHz/1360MHz Shader/1250MHz Speicher an.

Achja und ich habe mich verschrieben der Lüfter dreht nicht auf 70% sondern nur auf 62%.

kommste hin mit 1360 in den Spielen?
Hinzugefügter Post:
62% Luffi?!?! :hail:
Will haben!!!

Danke für die Anleitung, nur kann ich net mal das Bios auslesen! Hab mir eins für meine Karte geladen aber dem trau ich net ganz.

auf jedenfall mal das orig.sichern und denk drann wenns in die Hose mußte blind flashen...allso merk dir die Schritte und die Zeit dazwischen....
Hinzugefügter Post:
62% Luffi?!?! :hail:
Will haben!!!

Danke für die Anleitung, nur kann ich net mal das Bios auslesen! Hab mir eins für meine Karte geladen aber dem trau ich net ganz.

mit GPU Z auslesen und speichern dann kannste es in den nibitor einlesen.
 
Zuletzt bearbeitet:
Also kann ich den Nhancer beruhigt Deinstallieren und wieder neu installieren?
Edit: habs neuinst sieht jetzt genau so aus wie bei dir zuppi, ich sage dir ehrlich ich habe Bammel das nachher meine Karte nicht mehr so funktioniert wie sie sollte ( Crysis absturtz etc).
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh