Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptables Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.

image2.phpx5u.jpg


image.php7l5.jpg


gpu_x2_g200_5xn1.jpg


Danke Snoopy :wink:





Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja schon klar, aber das Problem selbst liegt definitiv nicht an Vista 64bit.
 
Kannste als Parameter übergeben ans Flash-Proggi welche Karte bearbeitet werden soll.

Danke HisN. Könntest du mal den genauen Parameter posten? Was müßte ich noch dazuschreiben um die Karte anzuwählen?

Normal ist ja: nvflash -5 -6 GT200.rom
 
Du bennst das Bios gt200.rom

Und wenn du im Flash Menü bist gibts du ein nvflash gt200.rom und bestätigst das mit Z oder Y jenachdem ob deine tastatur deutsch oder englisch ist.
 
Du bennst das Bios gt200.rom

Und wenn du im Flash Menü bist gibts du ein nvflash gt200.rom und bestätigst das mit Z oder Y jenachdem ob deine tastatur deutsch oder englisch ist.

Das weiß ich ja :) HisN meinte aber, ich könne auch die Karten flashen, wenn ich ein Sli-Sys hab. Er meinte mit nem bestimmten Parameter könne ich bestimmen welche Karte angesprochen wird fürs flashen. Leider hat er den Parameter mir nicht genannt...

PS: Bei mir ist es egal ob gt oder GT oder a.rom oder wie auch immer. Hab bisher jede Bezeichnung eines Rom geflasht bekommen. Bei dir nicht?
 
Zuletzt bearbeitet:
@LtSnoopy:

warum flasht du sie auf die niedere taktung????? mit wakü laufen die loker auf der höheren^^!!!! mit dem thema parameter kann ich dir leider nicht weiter helfen.

mfg rolli
 
Das weiß ich ja :) HisN meinte aber, ich könne auch die Karten flashen, wenn ich ein Sli-Sys hab. Er meinte mit nem bestimmten Parameter könne ich bestimmen welche Karte angesprochen wird fürs flashen. Leider hat er den Parameter mir nicht genannt...

PS: Bei mir ist es egal ob gt oder GT oder a.rom oder wie auch immer. Hab bisher jede Bezeichnung eines Rom geflasht bekommen. Bei dir nicht?

Ne,ich muss es gt200.rom nennen sonst klappt das nich,habs schon versucht,aber is doch auch egal solange es fluppt :d
 
@LtSnoopy:

warum flasht du sie auf die niedere taktung????? mit wakü laufen die loker auf der höheren^^!!!! mit dem thema parameter kann ich dir leider nicht weiter helfen.

mfg rolli

Würde ich ja gerne... Meine eine Karte geht mindestens 720, hatte die auch schon auf 750 die Andere macht leider bei ca. 680 zu. Daher muss ich die höhere wohl der niedrigen Karte anpassen, also beide auf 650.
Gut, ich hab die niedrige nur unter Luft getestet, da meine HK´s zum Vernickeln sind. Aber wirklich doll geht die nicht, Shader und Ram ja, Gpu leider nicht. Atitool zeigt Artefakte und GTA 4 verabschiedet sich mitm Freeze bei über 680...

PS:Vom Takten mitm Rivatuner halte ich auf die Dauer nix, daher flashen:)
 
Ja schon klar, aber das Problem selbst liegt definitiv nicht an Vista 64bit.

Boah wie es mich nervt! Unter 32bit ist die sache nicht lange spielbar, bevor der Ram dicht ist.
Wenn du sagst es geht kann es ja nur an irgendwelchen Treibern liegen.

Ist das normal, das Warhead auf enthusiast mit der Karte grad 20fps schafft? in 1920

Edit: Hab das Problem gefunden. Mit 4GB läuft die sache nun etwas stabiler. Ich glaube man kann aber auch ruhig deutlich mehr ram haben für das game
 
Zuletzt bearbeitet:
also mit 275€ ist die doch schon recht gut im preis meinste nicht. Hatt doch damals 340 rum gekostet.
 
Also die GTX 260 ist im Preis deutlich gefallen, wann zieht die GTX 280 nach?

Die GTX260 ist im Preis gefallen,weil man erst durch 55nm Kosten gespart hat und dann das PCB radikal verbilligt wurde.Das ist bei der GTX280 nicht der Fall,es sind immer noch gleiche Herstellungskosten bzw jetzt sinds ja Restposten,die nicht mehr Produziert werden.
Außerdem liegt die GTX280 von der Leistung her zu dicht an der 285.
 
Zuletzt bearbeitet:
Mal ne Frage an die 280GTX besitzer.

Brauche ich denn unbedingt den 8pin und den 6 pin oder reichen 2 mal 6 pin? Mein Enermax hat leider nur 2x6 pin. Ich wollte nicht unbeding ein neues Kabel kaufen.
 
brauchst für die 280 einen 8Pin. Wenn Du kein Bock auf Adapterscheisse hast .. 285 kaufen, die kommt mit 2x6Pin aus.
 
Ich will aber keine neue Karte kaufen xD
Also geht sie ganr nicht an, wenn ich nur den 6 pin reinmache?
 
@Extrem Hunter

Hab mal vor einiger Zeit bei K+M einen 8-Pin Adapter gesehen.
 
Jo bei Computeruniverse und Alternate gibts direkt von Enermax neue Kabel, die kosten auch nur 6 €. Nur lohnt sich der Versand nicht xD
 
Liegen die Adapter 6pin-8pin nicht jeder GTX280 bei? Bei meiner Palit Xpertvision war einer im Karton. Hab mir vorher auch schon ne Waffel deshalb gemacht, aber unbegründet.
 
Das kommt auf die Karte drauf an, bei meinen Leadtek war auch jeweils einer bei. Bei einigen Karten sollen die aber fehlen...
 
Bei Arlt gibt es ein 6-8PIN-Kabel und Versand ist da inkl. ;)
Habe das erst gesehen, als ich schon mein Enermax durch ein Corsair ersetzt habe, aber auch ok, habe ich etwas mehr reserve und das Corsair ist auch etwas effizienter als das Enermax war.
 
Aber die GTX 280er können noch Hybrid Power, oder ist das auch nicht mehr der Fall?
Bei GTX 260er gibt`s kein HybridPower mehr, wenn ich mich nicht täusche. Sollten ab 55nm Fertigung nicht mehr unterstützen.
 
Die 280er sollte es noch können, da ja noch "alte" Fertigung.
 
hallo......

wie heiß dürfen denn die spawas auf den karten werden???? hab schon mal bisschen gesucht, aber man liest überall was anderes...... vielleicht wisst ihr was genaues....
 
Zuletzt bearbeitet:
wie heiss werden deine den? bei mir werden sie auf meinen beiden karten über 100°C nach kürzester zeit bei furmark belastung (1920*1200) hab sogar schon mal °C120+ gesehn jedoch dann sofort furmark beendet...
hab beide karten unter wasser und frag mich auch schon ob die dinger standartmäßig so heiss werden oder ich einfach nur schei... beim montieren der kühler gebaut hab
 
bei mir werden die spawas max 102° bei furmark und atitool und beim gamen so 95° mit den taktraten unten siehe sig. ohne biosmod.....
 
Zuletzt bearbeitet:
weiß jemand, warum die karte bei furmark mit 4xaa drastisch einbricht. bei 8x ists wieder normal, aer langsamer als ohne aa.
 
Hab mal ne Frage an die MSI besitzer, hab ihr das VGA Bios Live Update schon mal gemacht?
Bringt es was das neuste Bios drauf zu packen?


Gruß
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh