[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
Immer noch auf der Suche nach vglbaren 280gtx Vantage Systemen ...

mit vantage habe ich (177.39 + physics)
22515 Punkte!

Mit dem 177.35 ohne Physix (!) habe ich im Vantage 18000 Punkte mit meinem q9450@3500 Mhz...

Einzigstes was mich jetzt son bissi stutzisch macht ist, dass der Test auf computerbase mit SLI und dem 177.34 auf gut 21000 Punkte kommt (auch ohne Physix)

ALLERDINGS verwenden die ne cpu mit 4ghz!

Frage: Könnte das den Unterschied zwischen meinen und den cb Werten rechtfertigen??


Seh ich das richtig, dass Technic3d dem 280gtx SLI unter Vantage 15443 Punkte zutraut ... http://www.technic3d.com/article/pics/685/SLIResults1.jpg


und computerbase.de gibt dem 280GTX SLI Gespann über 21000 Punkte in Vantage. http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/13/#abschnitt_3dmark_vantage

Technic3d hat nen 3ghzQuad und CB nen 4ghzQuad... aber das wird ja wohl keine 5500 Punkte ausmachen, oder...

Beide Tests sind mit nem Treiber der KEIN Physix für Vantage bringt.
Wunder mich halt, weil das GTX280@SLI bei CB schon über 21000 PUnkte bringt und damit über 3000 mehr als mein System ...
Toyzruz
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nagut ihr Pfeifen :d
dann geh ich mal Oblivion installieren....bis später :wink:
 

Muahaha darauf hab ich schon lange gewartet auf so ne unsinnige Behauptung. Fakt ist aber dass es die Karte kann, und keine extra Karte oder sonstwas. Demnach fände ich es nicht mal unfair das auch zu nutzen.
Davon abgesehen braucht man ja nur mit/ohne testen und der "Kas is gessn".

Edit: Welchen Treiber nimmt man jetzt am besten? Der PhysX macht ja anscheinend Bildfehler, also den mitgelieferten nehmen oder?
 
Zuletzt bearbeitet:
Muahaha darauf hab ich schon lange gewartet auf so ne unsinnige Behauptung. Fakt ist aber dass es die Karte kann, und keine extra Karte oder sonstwas. Demnach fände ich es nicht mal unfair das auch zu nutzen.
Davon abgesehen braucht man ja nur mit/ohne testen und der "Kas is gessn".

Edit: Welchen Treiber nimmt man jetzt am besten? Der PhysX macht ja anscheinend Bildfehler, also den mitgelieferten nehmen oder?

Patch ist bald da, dann ist ruhe mit Physik X im Endergebnis.
 
Mir egal, mich interessieren eh nur Spiele. Von mir aus kann der 3dmark/vantage auch abgeschafft werden :d
 
3D Mark is scho net schlecht für Stabilitätstests usw. aber ein Spiel is halt ein Spiel!
 
Hab das mal ne andere Frage. Hab mir den neuen Forceware 177.39 samt PhysX Treiber besorgt und installiert. Ich bekomme aber im PhysX Treibermenü angezeigt, daß kein Nvidia PhysX Prozessor installiert ist. Das ist doch nicht normal, oder? Thanx.
 
Jaaa mein Rechner ist da, ich dachte der komt erst nächste Woche oder später! Zudem ist auch gleich noch mein 24'' Bildschirm gekomen, besser könnte der Tag nicht anfange! ^_^
Werde heute gleich mal ein paar Spiele benchen. :)
 
Habt ihr auch das Problem, dass ihr bei neuere Treiber ab 174.74 glaube ich nicht mehr normal die Auflösung 1440x900 auswählen könnt?

Ich muss diese immer manuell in der nVidia-Systemsteuerung eintragen und habe dabei auch kein gutes Gefühl, da dass ja eine manuell eingetragene Auflösung ist.

Mein Windows läuft zwar mit 1680x1050, aber um Spiele wie Crysis in 1440x900 zocken zu können, muss ich diese Auflösung in Windows ja einfügen, und das ärgert mich jetzt schon irgendwie (benutze zur Zeit den 175.19, war aber bei ein oder zwei vorigen Versionen auch schon der Fall).


mfg h0ver
 
Hm, 3D Mark will irgendwie nicht funktionieren. Naja später mal schauen, zuerst zocken. ^^

Edit:
Manche sagen ja der neuste Treiber sei nicht so toll, hat sich da was geändert?
 
Zuletzt bearbeitet:
Hat einer ne Erklärung zu meinem Problem oben? Thanx.
 
Oh sorry merke habe ausversehen hier und nicht im Treiber-Thread gepostet. Tut mir leid.
 
@Deathrow ja das ist total normal. Du hast ja auch kein Ageia.


Muss wohl so sein, die Physik wird ja über die Shader berechnet. Trotzdem ziemlich irreführend die ganze Angelegenheit....
 
Jo ist ja auch noch gar nicht offiziell das Ganze.
Nicht umsonst sind das Beta Treiber.
 
Wann soll denn der offizielle Treiber gelauncht werden?
 
Nice, grade kam ein Päckle...
Werds jetz erstmal mit dem 177.35 versuchen, is ja der letzte offizielle WHQL. Wenn der net mag dann der von der CD.
Idle (ohne installierten Treiber) atm lauter als die 8800GT :fresse:
 
Hab das mal ne andere Frage. Hab mir den neuen Forceware 177.39 samt PhysX Treiber besorgt und installiert. Ich bekomme aber im PhysX Treibermenü angezeigt, daß kein Nvidia PhysX Prozessor installiert ist. Das ist doch nicht normal, oder? Thanx.

Das ist auch richtig so.
Geh in dem Tool auf Einstellungen da siehst du es.
 
Das hab ich schon verstanden. Dachte die PhysX- Einheit in den Karten schimpft sich PhysX Prozessor.
 
Patch ist bald da, dann ist ruhe mit Physik X im Endergebnis.

If you look at the 3DMark Vantage Driver Approval Policy, section 3.5 clearly states, "Based on the specification and design of the CPU tests, GPU make, type or driver version may not have a significant effect on the results of either of the CPU tests as indicated in Section 7.3 of the 3DMark Vantage specification and whitepaper." When you run a CPU test on a GPU, it clearly violates the rules.

ehm, so die verwendung einer ppu im cpu test2 ist dann auch cheaten? i don't get it...naja, hab mich schon lange nicht mehr so amüsiert gefühlt von den deppen ausm amd lager :haha:

To be fair, ATI has been caught at the same thing as well, but nothing lately, and Intel compilers come with curious optimisation defaults as well. No one is clean, but only Nvidia seems to take dishonesty as a corporate mandate.

image.php

cry me a river, charles,,,
 
Anderes Problem:

In Age of Conan direkt bis zu 85°C und 100% Lüfter? Da hab ich bisher anderes gehört, das kann aber net so stimmen oder?
 
Hast du das Problem?
Also ich hab bei wohlgemerkt 28 Grad Raumtemperatur bis zu 82 Grad GPU Temp und meist 80% Lüfter, schwankt aber auch. Hm ne gute Gehäusebelüftung ist natürlich Voraussetzung für eine gute GPU Temp! Mach doch beizeiten den Bios Mod auf 1.03v und dann läuft der Kühler und leise. Werde ich evtl. auch machen.
 
Ich schicke die Karte zurück, da ich bei soviel Geld nicht selber am Lüfter nachhelfe.

Bei FurMark komme ich sehr schnell auf 105°C trotz 100% Lüfter. Heißer wird sie nicht, da sie dann anscheinend throttled.

Super :kotz:
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh