Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptables Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.

image2.phpx5u.jpg


image.php7l5.jpg


gpu_x2_g200_5xn1.jpg


Danke Snoopy :wink:





Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Nun bisher schon, nur eben beim Betrieb Prime + Furmark erhalte ich primefehler, vielleicht, weil er dann zuviel von dem 6PIN-Adapter, der ja an die 2 Molex geht zieht, da ja die beiden extra-Leitungen von NT an dem 8-PIN-Anschluss gebunden. Nur welche beiden Leitungen wären dann die vom 8PIN-Adapter? :confused:

Und was hast du für ein Netzteil?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hey, ich habe gerade gesehen, dass die MSI GTX280 OC nur 270€ kostet: Meint Ihr, dass es sich für mich lohnen würde zu wechseln? :d

Es juckt mich in den Fingern... ;)

Mfg
 
Wird sich nicht viel nehmen in Deinem Fall?
 
Zuletzt bearbeitet:
Hey, ich habe gerade gesehen, dass die MSI GTX280 OC nur 270€ kostet: Meint Ihr, dass es sich für mich lohnen würde zu wechseln? :d

Es juckt mich in den Fingern... ;)

Mfg

Lohnt sich nicht wirklich. War auch kein grosser Sprung von meiner 260er zur 280er, aber nun eben geschehen.

Beiträge zusammengeführt, da Antwort auf eigenen Beitrag innerhalb von 4 Stunden:

Und was hast du für ein Netzteil?

Enermax Liberty 500 mit 2x 6PIN-EXtraleitungen je 25A
 
Hallo erstmal,

habe mir gestern die oben besagte MSI GTX280 OC bestellt. Nun meine frage, liegt denn der 6 auf 8Pin Adapter bei? Ich bin hier die ganze Zeit am Googlen, find aber nix. Bei der Zotac sollen wohl beide Adapter beiligen. Danke schonmal.

MfG
 
bei meinen zweien (gainward, pny) war nur ein 2*4pin mollex auf 6fach dabei
 
Na super, also wieder rumfahren und irgendwo eins auftreiben. Da bleibt dann nur noch media-markt. Hat keiner von Euch die Msi?
 
Hab sie mir heute bei HoH geholt. Ein 6pin auf 8pin PCIe Adapter liegt bei.

Kann ich eigentlich irgendwie verhindern, dass die Karte in den 3D-Modus wechselt? Ich sehe mit DVB-Viewer am PC fern und die Karte schaltet dabei in den 3D-Modus, was dazu führt, dass sie mehr Stom verbraucht und wärmer wird.
Das manuelle Runtertakten mit RivaTuner hilft auch nicht wirklich, weil dadurch die Spannung nicht sinkt.
 
ReapingAnt DU bist mein Held, vielen Dank für die Info.

MfG
 
Hat schon wer vom "EVGA GPU Voltage Tool" das bald kommen soll gehört? Wer nicht warten will kann seine Karte jetzt schon mehr Spannung oder wenn man will sogar weniger Spannung mithilfe von Rivatunter geben.

Im Forum von 3D-Center gibt es da kleines kurzes How-To dazu. (ab hier)

Ich habe das ebenfalls probiert und es hat tatsächlich funktioniert. Es war kein Problem die Spannung der Karte auf 1.35V anzuheben. Der Stromverbrauch ist natürlich in die Höhe gesprungen dafür konnte ich aber auch höher takten. Mit Standardspannung war bei ungefähr 730MHz schluss, mit Soft V-Mod habe ich ohne Probleme die Taktfrequenz auf 777MHz ohne Artefakte stellen können, weiter habe ich aber auch noch nicht getestet da die Spannungswandler der Karte abartig heiß wurden trozt Wasserkühler. Hier mal ein paar Stromverbrauchswerte.:

Default Clocks @ 0,95V = 280W
Default Clocks @ 1,05V = 300W
Default Clocks @ 1,18V = 345W (Standard)
Default Clocks @ 1,25V = 370W
Default Clocks @ 1,35V = 415W
OC Clocks (777MHz GPU / 1620MHz Shader / 1250MHz RAM) @ 1,35V = 480W

Die Temperaturen sahen unter FurMark wie folgt aus.:

Default Clocks / 0,95V = 41°C GPU-Temp / 70°C VDDC-Temp
Default Clocks / 1,35V = 49°C GPU-Temp / 100°C VDDC-Temp
OC Clocks (777MHz GPU / 1620MHz Shader / 1250MHz RAM) / 1,35V = 51°C GPU-Temp / 135°C VDDC-Temp



Das ganze auch im IDLE.:

IDLE Clocks @ 0.95V = 145W
IDLE Clocks @ 1,05V = 149W
IDLE Clocks @ 1,18V = 157W
IDLE Clocks @ 1,25V = 161W
IDLE Clocks @ 1,35V = 172W
OC Clocks (777MHz GPU / 1620MHz Shader / 1250MHz RAM) @ 1,35V = 195W


200W Unterschied...
 
@ OC_Burner:
Vielen Dank für die Information, genau das was ich gesucht habe. Jetzt kann ich meine Karte manuell auf 0,9 V und 2D-Takt einstellen während ich fern sehe.
Dadurch sinkt die Stromstärke in den Spannungswandlern von 20 A auf 4 A.
 
Hab mir auch die MSI geholt.

Adapter hab ich mir auch mitbestellt. Nun sehe ich, daß der MSI einen Masseanschluß weglässt. Beim Zubehör sind alle Pins belegt.

Ist der Zubehör Adapter nun besser, oder ist das bei der MSI Karte egal?


PS: HoH ist genial. Gestern per Nachnahme bestellt und eben gekommen.
 

Anhänge

  • PCIe 6 auf 8.jpg
    PCIe 6 auf 8.jpg
    56,9 KB · Aufrufe: 97
Hat die MSI Karte noch OC Spielraum?
 
So Karte ist drin und geht ab. Habe erstmal OC getestet und bin bei 710/1420/1320 ohne irgendwelche Fehler. Spiele getestet Crysis, FC2, NFSU und COD5. Kann nur sagen bin begeistert. Temperatur bei Lüfter Auto max. 78°C-80°C. Der Adapter 6* auf 8pin war bei.


MfG
 
Kann mal bitte jemand aufzählen, was bei der Karte von MSI (OC) alles mitgeliefert wird???
 
die Lautstärke bitte mal kurz erwähnen wenn sie aufdringlich ist ^^
 
Kann mal bitte jemand aufzählen, was bei der Karte von MSI (OC) alles mitgeliefert wird???

Hab ich ja schon in Deinem Thread gemacht:

8Pin Adapter
DVI Adapter
HDMI Adapter
YUV Adapter
SVHS Verlängerung
SPDIF Kabel
Treiber CD
Anleitung

die Lautstärke bitte mal kurz erwähnen wenn sie aufdringlich ist ^^

Laut ist relativ.
Bei 40% hört man ein Lüfterrauschen. Es gibt hier im Forum genug Anleitungen, wie man sich ein neues Lüfterprofil erstellt.
Meine z.B. fängt bei 35% an zu regeln.

GPU Idle: 51°C
GPU Last: 62°C (Drehzahl weiß ich momentan nicht ausm Kopf)
 
Falls Du mich meinst KleinerNils, ich spiele 1680/1050 auf 22". Also max. Settings bei Crysis-WH mit 2xAA waren min. FPS bei 30. FarCry2 8xAA und UltraHoch min. FPS so um die 50^^.
 
@ OC_Burner:
Vielen Dank für die Information, genau das was ich gesucht habe. Jetzt kann ich meine Karte manuell auf 0,9 V und 2D-Takt einstellen während ich fern sehe.
Dadurch sinkt die Stromstärke in den Spannungswandlern von 20 A auf 4 A.

Kannst du das irgendwie automatisieren? Und 2. Frage. Geht er in den 3D oder in den Extra(für Games) Modus? Denn sonst könnte man im Bios den 3D Modus absenken, damit das Ganze schön kühl bleibt :)
 
Automatisiert müsste sich das ganze auch machen lassen. RivaTuner kann wohl auch die 3D-Erkennung der Treiber nutzen. Allerdings bevorzuge ich zwei Tastenkombinationen um zwischen 2D und 3D zu wechseln. Der Grund weswegen ich Tastenkombinationen bevorzuge liegt darin das ich zwei Bildschirme an der Karte angeschlossen habe und im Dual-View Modus laufen die Treiber leider immer im 3D-Modus (der Bug ist bekannt aber noch nicht ausgebessert worden). Daher habe ich im Bios sämtliche Spannungen auf 1.03V gestellt (auch bei 1.03V erreiche ich immer noch 702MHz GPU-Takt) um so unnötigen Stromverbrauch zu reduzieren. Gestern habe ich mir ein paar Batches und VBS-Scripte erstellt um nun 0.800V im 2D-Modus und 1.25V im 3D-Modus per Tastenkombination haben zu können. Für eine Taktsteigerung von nochmal 10% lohnt sich das (602MHz --> 702MHz --> 777MHz).:coolblue:

Zur zweiten Frage kann ich die leider nur enttäuschen. Bis jetzt geht das nicht (es bleiben weiterhin als Minimum 1.03V und als Maximum 1.18V im Bios).
 
Zuletzt bearbeitet:
Spiel einer Hier auch Crysis Warhead? Ich habe bei Crysis Warhead ein kleines Problem seit dem ich in den Höllen war, bekomme ich immer einen breiten Balken durchs Bild so das ich nicht mehr sehen kann wo ich hin schieße nur umrisse. Weiß jemand woher her das kommen kann? Ist das ein Treiberproblem oder ein Bug im Game? Oder hat die GTX280 vielleicht einen weg?
 
Automatisiert müsste sich das ganze auch machen lassen. RivaTuner kann wohl auch die 3D-Erkennung der Treiber nutzen. Allerdings bevorzuge ich zwei Tastenkombinationen um zwischen 2D und 3D zu wechseln. Der Grund weswegen ich Tastenkombinationen bevorzuge liegt darin das ich zwei Bildschirme an der Karte angeschlossen habe und im Dual-View Modus laufen die Treiber leider immer im 3D-Modus (der Bug ist bekannt aber noch nicht ausgebessert worden). Daher habe ich im Bios sämtliche Spannungen auf 1.03V gestellt (auch bei 1.03V erreiche ich immer noch 702MHz GPU-Takt) um so unnötigen Stromverbrauch zu reduzieren. Gestern habe ich mir ein paar Batches und VBS-Scripte erstellt um nun 0.800V im 2D-Modus und 1.25V im 3D-Modus per Tastenkombination haben zu können. Für eine Taktsteigerung von nochmal 10% lohnt sich das (602MHz --> 702MHz --> 777MHz).:coolblue:

Zur zweiten Frage kann ich die leider nur enttäuschen. Bis jetzt geht das nicht (es bleiben weiterhin als Minimum 1.03V und als Maximum 1.18V im Bios).

Das zweite hast du etwas falsch verstanden. Ich bezog es auch auf die Taktraten, dass die im 3D Modus niedrig eingestellt werden für TV und im Extra übertaktet. Zumindest wäre das mein Wunsch :)
Aber 702 @1,03V ist ja :hail: Welche Karte hast du denn!?
Wie kann man denn 0,8V einstellen und wie viel bringt das noch? Ist 1,25V überhaupt vertretbar???
Danke für die Infos
 
ma ne kurze frage, was ist ein angemessener gebrauchtpreis für ne Point of View gtx mit koolancekühler verbaut?
 
ich habe mir gerade auch die msi oc bestellt und gleichzeitig nen ek wasserkühler, kann jemand was zu dem gerücht sagen, dass die karte kein bild ohne tachosignal des Lüfters ausgibt? Oder hat jemand einen Vorschlag mit welchem Bios ich die Karte wenn flaschen sollte? Evga vlt?
 
ich habe mir gerade auch die msi oc bestellt und gleichzeitig nen ek wasserkühler, kann jemand was zu dem gerücht sagen, dass die karte kein bild ohne tachosignal des Lüfters ausgibt? Oder hat jemand einen Vorschlag mit welchem Bios ich die Karte wenn flaschen sollte? Evga vlt?

ich würde die Karte mit dem standardkühler laufen lassen, die Nvidia Kühler sind sehr gut und leise. Die MSI OC Edition für 269 € ist sehr gut und so schnell wie die GTX285 :d, hätte ich die GXT260² nicht würde ich Sie auch kaufen.
 
Ist es normal das die GTX280 unter Volllast fiepen? Oder ist das nur bein meiner Leadtek so!
Ist das ein Grund für eine Reklamation?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh