[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke es ist umgekehrt, Plastikhaube und Lüfter auf der Vorderseite weg und durch den Wakühler ersetzen und die Abdeckung auf der Rückseite belassen, die Schrauben gehen ja nach vorne durch und greifen dann im Wakühler.
Ja schade ich dachte der Aufbau ist in etwas so wie bei der GX2 >Haube ab >15 Grad weniger...ist wohl aber nett,schade.
 
Wäre nice...
Was kriegsten für nen Kühler?

Werd ich tun, wenns die Zeit zulässt, wenn nicht am Wochenende, ...
muss ja "nebenbei" noch Arbeiten und Freundin, und Fußball, aber man muss halt Prioritäten setzen, dann geht das :drool:

Edit:

Wird wohl der aquagraFX 280GTX, sonst gibts ja nicht viel :(


Ja schade ich dachte der Aufbau ist in etwas so wie bei der GX2 >Haube ab >15 Grad weniger...ist wohl aber nett,schade.

Die Temps der Karte sind doch recht gut ;) ...

Kannst du etwas über OC bzgl. Core und Shadertakt berichten?
 
Zuletzt bearbeitet:
Werd ich tun, wenns die Zeit zulässt, wenn nicht am Wochenende, ...
muss ja "nebenbei" noch Arbeiten und Freundin, und Fußball, aber man muss halt Prioritäten setzen, dann geht das :drool:

Edit:

Wird wohl der aquagraFX 280GTX, sonst gibts ja nicht viel :(




Die Temps der Karte sind doch recht gut ;) ...

Kannst du etwas über OC bzgl. Core und Shadertakt berichten?

auf ne einfache Art weniger ist immer ok..naja was solls.

Bis dahin stabil
720/1566/1260
1 mhzchen mehr shader ist Ende im Karton.****
lasse sie 702/1512/1242 lt eVGA Tool laufen bis jetzt null problemo.

***wo bei der in 40er Schritten nach oben geht...
 
Zuletzt bearbeitet:
GPU battle takes toll on NVIDIA

http://channel.hexus.net/content/item.php?item=13961

NVIDIA announced the GeForce GTX 280, which claimed the overall GPU performance leadership, as well as the GTX 260. Soon after AMD's graphics arm - ATI - announced its Radeon HD 4800 series, which aims to offer superior value for money in the mid-range.

Share prices at the end of last week would seem to imply that markets are keener on AMD's offering than NVIDIA's, with the former's shares rising by 3.2 percent and the latter's falling by an alarming 16 percent.
 
auf ne einfache Art weniger ist immer ok..naja was solls.

Bis dahin stabil
720/1566/1260
1 mhzchen mehr shader ist Ende im Karton.****
lasse sie 702/1512/1242 lt eVGA Tool laufen bis jetzt null problemo.

***wo bei der in 40er Schritten nach oben geht...

Danke, ... hast auch ne PoV, oder?

Ja, das mit den Sprüngen war ja schon mit G80 und G92 so.
 
nd wird ein Enermax MODU82+ 525W ausreichen um die GTX280 + Intel® Core 2 Quad Q9550 + 8 GB Ram und Hds, etc. mit Strom zu versorgen?
Habe ein Modu 525w allerdings mit einem Wolfdale auf 4GHZ damit läuft meine Karte einwandfrei Übertaktet auf die Werte unten also praktisch OC Version von Zotac.

Die "ollen" Bequiet Straight Power scheinen irgendwie Probleme zu haben mit den Karten hier war ja schon einer neben HISN
wo es gar nicht lief mit einer Zotac und bei Computerbase hatte ein User genau das selbe Problem mit einem 550w Straight Power die Karte bekam zu
wenig Saft.

Nimm doch das 625w Modu 82+ Das reicht dann auch dicke mit dem Quad.
 
Zuletzt bearbeitet:
760MHz 1,25Volt Default
800MHz 1,35Volt vmod

Da man anscheinende ROP und Shader nicht Komplett voneinander getrennt takten kann, geht leider auch nicht mehr, da ganz klar der Shader beim G200 limitiert und nicht der ROP Takt.
 
@pupsi666

Es könnte gut möglich sein, das du dein System zu stark übertaktet hast.
Bei mir hing es mit meinem Speicher zusammen, als ich die Taktrate vom RAM gesengt habe war alles in Ordnung.
Da kann das System auch Primestable sein trozdem der Fehler...

auch lostplanet und COH? und wie gesagt macht er es auch bei default settings mit ddr3 1333 cas 9, und wenn AC und crysis läuft sollten doch eigentlich auch die anderen spiele laufen; muss nochmal schauen (der 174 driver soll eventuell besser laufen) oder meinst du das ram von der graka? und aufhängen tut er sich nicht nach 5min im 3dmode sondern eher schon nach 1min oder sogar kürzer.

und an der swapdatei liegt es auch nicht; habs gestern in COH gecheckt und liegt noch im zugesicherten bereich.
 
Zuletzt bearbeitet:
760MHz 1,25Volt Default
800MHz 1,35Volt vmod

Da man anscheinende ROP und Shader nicht Komplett voneinander getrennt takten kann, geht leider auch nicht mehr, da ganz klar der Shader beim G200 limitiert und nicht der ROP Takt.

Danke!
Ja, das mit den nicht völlig unabhängigen Takten des Shaders hate ich jetzt auch schon mitbekommen!

Kannste uns etwas nähere Infos geben wie sich das verhält mit dem Shader, ... beim G80 konnte man ja vollkommen unabhängig takten!
 
@dural: warum zeigt dann nibitor einen vid bereich von 1.06v (default 3d) bis 1.18v an? ist doch die kernspannung oder?
 
sobald die Differenz zwischen Shader und ROP zu gross wird, fällt der ROP Takt auf 100MHz runter, in der Regal kann man maximal den ROP/Shader um zwei schritte rauf oder runter Takten.

also bei max 1620MHz Shader Takt kann man den ROP von 760MHz auf max 800MHz Takten, wenn man über 800MHz gehen möchte muss der Shader auf 1680MHz rauf.

Die GTX Karten haben drei Spannungen, 2D, 3D low und 3D.
 
Zuletzt bearbeitet:
760MHz 1,25Volt Default
800MHz 1,35Volt vmod

Da man anscheinende ROP und Shader nicht Komplett voneinander getrennt takten kann, geht leider auch nicht mehr, da ganz klar der Shader beim G200 limitiert und nicht der ROP Takt.

Hast du Wakü, was haste für Temps?
 
sobald die Differenz zwischen Shader und ROP zu gross wird, fällt der ROP Takt auf 100MHz runter, in der Regal kann man maximal den ROP/Shader um zwei schritte rauf oder runter Takten.

also bei max 1620MHz Shader Takt kann man den ROP von 760MHz auf max 800MHz Takten, wenn man über 800MHz gehen möchte muss der Shader auf 1680MHz rauf.

Komisches Verhalten -.-

Also bei 702 Rop, müssten die 1400er und die Stufe darüber gehn, oder?

Hast du Wakü, was haste für Temps?

Ja, hat er!
 
Zuletzt bearbeitet:
Keine Ahnung, ist nicht meine Takt Region ;)

Aber das könnt ihr ja selber ganz schnell Testen, rivatuner Hardware Monitor Öffnen und den gewünschten Takt mit dem EVGA Tool oder rivatuner Einstellen, 3DMark Vantage öffnen und die Karte geht sofort für eine kurze Zeit in den 3D Modus! Wenn der ROP nicht auf 100MHz runter fällt ist alles in Ordnung.
 
VRAM mods lohnen sich bei Nvidia karten nich, der verbauten Samsung chips skalieren nicht wirklich mit mehr spannung, und was will man denn mehr als DDR3 RAM der 1200+ MHz rennt?
VMod per BIOS wirds wie bei den letzen karten nichtmehr geben.

deinen letzen satz verstehe ich nicht so wirklich... da ich jetzt nen mod dran hab kann ich ja selber kontrollieren wieviel spannung ich haben will.

Na jede Graka hat unter idle und load eine andere Spannung.


<-- hat heute ein 700W-Netzteil eingebaut. Und schwupps, auch die letzten Probleme behoben. Das BQ550W scheint wirklich mit dem QX9650 und der 280GTX überfordert gewesen zu sein. Kühler bleibt die Karte jetzt auch irgendwie.

Die ganzen beQuiets taugen meiner Meinung nach nicht viel.
Und wieso ist die Karte nun kühler? Wegen dem NT?
Welche Marke?


Ich denke es ist umgekehrt, Plastikhaube und Lüfter auf der Vorderseite weg und durch den Wakühler ersetzen und die Abdeckung auf der Rückseite belassen, die Schrauben gehen ja nach vorne durch und greifen dann im Wakühler.

Gibts irgendwo Bilder, auf denen man dieses "Blech" sehen kann?
Ich würde eher sagen, dass die rückseitige Abdeckung auch Kunststoff ist, aber zur Luftführung dient, um die rückseitigen Ram´s zu kühlen.

Die Ram´s auf der Vorder-und Rückseite sind nicht versetzt angebracht, oder?


@ all

Was haltet ihr davon?

GTX280-SLI vs. 4870-CF http://www.abload.de/img/112232498us4gp08x6.png

Die 4870 wurde für 259€ gesehen :eek:


btw:

GT200 + PhysX langsamer in Spielen!?!?!?

http://www.gamestar.de/hardware/news/grafikkarten/1946491/nvidia.html

Und stimmt das?

Bisher erlaubt der Treiber von Nvidia aber kein Abschalten der PhysX-Funktion, so dass eventuell in Zukunft Vergleiche von Grafikkarten etwas komplizierter werden könnten.


Hm... :hmm: http://channel.hexus.net/content/item.php?item=13961
 
Zuletzt bearbeitet:
Zitat von toyzruz
mit vantage habe ich (177.39 + physics)
22515 Punkte!!! Fett oder?
Hinzugefügter Post:
wiveil wären es denn weniger, wenn ich kein physix drauf gemacht hätte?

(Hab nur die trail, also kann bisjetzt den vantage nur einmal ausführen ... daher meine frage)


---

17935 Vantage Punkte mit 177.35 ohne Physix
Hinzugefügter Post:
ISt doch ok oder?
Möchte doch nur mal nen ungefähren Vergleich sehen ...
Danke toyzruz
 
Zuletzt bearbeitet:
Falls mal wieder irgendwer erzählt 1GB Vram ist fürn Arsch.

Zeigt ihm diesen Screenshot



2560x1600, 4xAA, 16xAF, Einstellungen im Game auf High, alle Regler nach Rechts :-)
Kein FPS-Überflieger, aber z.b. auf einer 9800GX2 völlig unspielbar.
 
Falls mal wieder irgendwer erzählt 1GB Vram ist fürn Arsch.

Zeigt ihm diesen Screenshot



2560x1600, 4xAA, 16xAF, Einstellungen im Game auf High, alle Regler nach Rechts :-)
Kein FPS-Überflieger, aber z.b. auf einer 9800GX2 völlig unspielbar.

Grrr... Schon wieder "Schnarch-Shack" :fresse:
Bei mir gehts ausserdem auch nicht.

Angeblich soll ATI weniger Vram verbrauchen. Wie soll das gehen?


@ Dural

Wie lange bleibt das da so liegen? :d
 
Zuletzt bearbeitet:
Verbraucht nicht weniger, sondern verwaltet ihn effektiver ;)
 
Verbraucht nicht weniger, sondern verwaltet ihn effektiver ;)

Meinte ich auch.
Hab mich verdrückt ausgekehrt :d

@ HisN

Ahhh... Geht doch ;)

Kannst du das Gleiche auch mal mit 1920x1200 machen?
4GB Ram wäre hier ja zu wenig.

Welches MB hast du?
 
Zuletzt bearbeitet:
Weiß zufällig jemand von euch, ob der Kühler von Aqua-Computer auch auf die GTX260 passt? Kann nirgends etwas darüber finden, auch auf deren Homepage und im Forum net. Thanx.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh