[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn du ein wenig nachdenkst, müsstest du von selbst auf die Antwort kommen.

Ja meien frage wahr bischen dumm gestellt na sicher weis ich das den die Graka mehr leistet aber wolte mal wissen macht es viel aus:

Zb.: Crysis 1280 mal 1024 4 mal AA
System: E6750 Gtx 280 VS Q9450 und Gtx 280

Macht sich das bei Crysis stark bemerkbar?
 
Ja, wahrscheinlich!
Die höher getaktete CPU bringt in Crysis mehr!


Alex
 
Obwohl alle beide Cpus auf 2,66 ghz laufen? und Crysis ist doch Quad ready oder?
 
Ihr habt doch die GTX angeschlossen, oder? :fresse:
Wäre nett wenn ihr mir die Frage beantworten könntet, sonst würde ich gleich noch ein Kabel bestellen. ;)
http://www.forumdeluxx.de/forum/showpost.php?p=9325997&postcount=974

Na ja mit einem neuen NT brauchst du keinen davon aber sonst eigentlich auch maximal die 2 rechten.
Die anderen beiden habe ich bei POV gar nicht dabei gehabt.
Hinzugefügter Post:
hey reicht ein Enermax MODU82+ 525W für die gtx 280 ?
thx

Ja reicht locker habe ich auch.
 
Zuletzt bearbeitet:
Karte läuft jetzt mit vmod, habe gestern sicher 1 Stunde Crysis mit 800MHz gespielt!

Nur leider bringt der mehr Takt so gut wie gar nichts, Vantage Extreme hab ich mit 800MHz nur 10 Punkte mehr als mit 750MHz, das ding limitiert trotz 512Bit Komplett am Speicher!!!

50MHz mehr am Speicher (von 1250 auf 1300MHz) gibt gleich 200Punkte mehr!

Ohne Qualitäts-Einstellungen oder bei anderen Anwendungen sieht das natürlich etwas anders aus, FEAR hab ich jetzt schon über 170FPS...

Mehr Takt würde sicher noch gehen, nur spinnt da rivatuner etwas rum...

Default Spannungen:
Speicher um die 2,15Volt
GPU ca. 2D 1,05Volt, 3D 1,25Volt
 
Zuletzt bearbeitet:
Ahhhh...
Gegenüber meiner 9800GX2 ist AGE Of CONAN mit der 280GTX endlich in "Full Detail" spielbar. Nix mit Texturen runterschrauben, Details runterschrauben, Sichtweiten runterschrauben und bei 360°-Turns Hänger aufgrund von VRAM-Mangel.

In 2560x1600 2xAA/16AF gehts endlich vernünftig (bis auf Alt-Tarantia und die Gildenstadt). Aber ob man jetzt 20 FPS mit Microrucklern oder 15 FPS hat (nur an diesen Stellen) ist mir persönlich jetzt auch scheissegal. Schließlich konnte ich Details anklatschen :-)
 
Watt sich lohnt und was nicht, das entscheidet eigentlich immer der Fragesteller. Was versprichste Dir denn von der 280? Und wo bricht Deine jetzige Karte ein? Wir haben nämlich nicht so den Plan was Du für Sachen zockst und wie Deine BQ-Einstellungen aussehen? Oder ist Dir das alles egal, hauptsache FPS? Oder zockste vielleicht nur CPU-Limitierte Sachen wo die Graka gar nix bringt? Du verstehst auf was ich hinauswill?

Netzteil könne sehr knapp werden wenn man davon ausgeht das die 280 etwa 230 Watt unter Vollast zieht. Da bleibt nicht viel für den Rest Deines Systemes übrig.

Wir rechnen

230/12= ca 20A .. haste noch 10A für alles andere.


hi ich zocke eigentlich alles ;)

Wo meine Graka in die Knie geht ist teilweise in Crysis und auch in COD4 stellenweise.
 
Zuletzt bearbeitet:
N1 geh mal in die config und schalte, blur und postprocessing aus . dann sieht das Game noch sahniger aus und die Fps gehn ab =)

Wäre schön, wenn man den gleichen Screen mit einer 8800GTX/Ultra (oder gar SLI) zum Vergleich hätte. Zumal angezeigte FPS heutzutage nicht wirklich etwas aussagen. Kaum einer schreibt über Ruckler, die regelmäßig oder ab und an auftreten können. Besser wären Videos... :)
Hinzugefügter Post:
Ahhhh...
Gegenüber meiner 9800GX2 ist AGE Of CONAN mit der 280GTX endlich in "Full Detail" spielbar. Nix mit Texturen runterschrauben, Details runterschrauben, Sichtweiten runterschrauben und bei 360°-Turns Hänger aufgrund von VRAM-Mangel.

In 2560x1600 2xAA/16AF gehts endlich vernünftig (bis auf Alt-Tarantia und die Gildenstadt). Aber ob man jetzt 20 FPS mit Microrucklern oder 15 FPS hat (nur an diesen Stellen) ist mir persönlich jetzt auch scheissegal. Schließlich konnte ich Details anklatschen :-)

Hast du GTX280-SLI?
 
Zuletzt bearbeitet:
@Snoopy69
gibt es ne Möglichkeit in-Game Videos zu machen, ohne dass diese die FPS beeinträchtigen? Bei Fraps werden die FPS ja auf 30 gesetzt :(

Also quasi, dass was ich beim Zocken "sehe", auch für andere sichtbar zu machen :fresse:
 
Moin !

Wie kann ich feststellen das die Karte wirklich runtertaktet ?
In GPUZ sind die Taktraten wie sie in Spielen sein sollen...

jemand dazu eine Info ?

Mit welchem Tool kann man die Karte unter Vista x64 übertakten ?

Grüße
Sascha
 
Wie wär´s mit abfilmen? ;)
Hat zudem auch keinen Einfluss auf die Perf.

btw: Gibt es schon eine Rivatuner-Version, die mit GT200 läuft?
 
Zuletzt bearbeitet:
ALSO GPUZ 0.2.4 und Rivatuner zeigen mir alles an was ich wissen will.
 
@Nascher

Taktet deine Karte runter oder steht da 602 / 1100 / 1292 in beiden reihen ?

Grüße
Sascha
 
wie waers mit ner capture karte in einem anderen pc?

Ich hätte eine (Pinnacle (Miro) DC30+). Allerdings hat die max. S-VHS-Ein- und Ausgänge. Mit DVI nicht so einfach.


ALSO GPUZ 0.2.4 und Rivatuner zeigen mir alles an was ich wissen will.

Also geht RT komplett? Auch unter x64?


@ all

Gibt es definitiv bei keiner Marke eine Karte mit HDMI? Und wer hat seine Karte an einem grossen TFT/Plasma hängen?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh