Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptables Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.

image2.phpx5u.jpg


image.php7l5.jpg


gpu_x2_g200_5xn1.jpg


Danke Snoopy :wink:





Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
wie lang ist die karte denn nun real in cm?
kann sein, die frage gabs schon, aber dafür lese ich nicht 15 seiten durch.
muss wissen, ob ich meinen agb versetzen muss....


steht im Startpost :coolblue::coolblue::coolblue:
aber für dich nochmal:

Passt die Karte in mein Gehäuse?

* Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi Leute,
eine Frage zur 280GTX: Gibts ja momentan recht günstig. Bin vorhin auf Edelgrafikkarten auf einige Verbrauchsdaten einer gemoddeten 280GTX gestoßen. Sieht ja garnichtmal schlecht aus. Nur ist das auch für einen Normalo machbar? Mit Rivatuner hab ich eine 4870 ganz gut in den Griff bekommen, nur geht das ähnlich einfach mit einer 280GTX oder muss ich das Bios verändern? Ein Link für eine Anleitung wäre supernett, da ich hier den Überblick verloren habe.

Thx und lg
 
Hab mal ne Frage an die MSI besitzer, hab ihr das VGA Bios Live Update schon mal gemacht?
Bringt es was das neuste Bios drauf zu packen?


Gruß

Hallöchen,

ich habe das mal probiert mit dem Live Update, aber habe irgendwie kein neues BIOS gefunden. Hast du es schon mal probiert ob du ein neues BIOS bekommen hast?

Grüße Mayk
 
Hallöchen,

ich habe das mal probiert mit dem Live Update, aber habe irgendwie kein neues BIOS gefunden. Hast du es schon mal probiert ob du ein neues BIOS bekommen hast?

Grüße Mayk

huhu Mayk,

ich such auch wie ein blöder, ein Kumpel hat mir aber einen Screen gezeigt mit einem neuen Bios, bloß der weiß nicht mehr woher er es hat :fresse:
Meld mich bei dir wenn ich eins finde, oder umgekehrt.

Gruß


@HD4870

hab meine GTX280 nagelneu für den selben Preis wie die ati bekommen und da musste ich zuschlagen, behalte bloß deine GTX ;)
 
steht im Startpost :coolblue::coolblue::coolblue:
aber für dich nochmal:

Passt die Karte in mein Gehäuse?

* Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


danke für soviel nachsicht. entschuldige, dass ich gefragt habe. da ich nicht wissen will, ob die karte bei 28cm platz rein passt, sondern wie lang das teil nun real ist, stelle ich nochmals meine frage.wie lang ist eine gtx280 (vom slotblech bis ende platine)

Kann das jemand messen und mir verraten? ob 27 oder 27,5 oder 28cm ist für mich entscheident.
 
Naja hast mich e bissl falsch verstanden aber egal bin ja net so ;)

Die Karte ist genauso lang wie eine 8800GTX/Ultra also 28cm :bigok:
habs extra nach gemessen
 
huhu Mayk,

ich such auch wie ein blöder, ein Kumpel hat mir aber einen Screen gezeigt mit einem neuen Bios, bloß der weiß nicht mehr woher er es hat :fresse:
Meld mich bei dir wenn ich eins finde, oder umgekehrt.

Gruß


@HD4870

hab meine GTX280 nagelneu für den selben Preis wie die ati bekommen und da musste ich zuschlagen, behalte bloß deine GTX ;)

wow was für ein guter preis wohaste die denn bekommen? Ich werde meien denke ich ehalten wenn ich den accelero GTX280 nehme, ansonsten ist sie mir zu laut.
 
Zitat von Sir Ozelot:Behalte Bloss deine GTX280...

Warum dies wenn ich fragen darf?

Weil die GTX der Ati davon zieht und das nicht zu knapp.
Ich hatte jetzt das Vergnügen die 4870,260,280 in meinem Sys. zu testen.
 
ok danke, dann habe ich das wohl falsch verstanden.
vor allem wohl den startpost, weil dort steht nicht wirklich ein istmaß drin.

also muss ich wieder umbauen. der agb ist im weg. :(
 
so mein oc ist nun bei 740/1550/speicher stock mit standard kühler auf 100% xD(Ich sag nur Düsenjet...) stable. Mehr ist ned drinn mit standard kühler und bios mod. Da muss wohl der accelero her, aber die w-lan karte ...
 
zum glück haben wir alle eine gtx 280.... da kann man wenigstens die spannung gescheit einstellen (auch per EVGA-Voltage Tool und andere) und die spawatemps auslesen..... :)

die gtx 285 ist für mich nur eine sparmaßnahme von nvidia, die auch noch teurer verkauft.....!!!!
 
Der Nachteil bei der GTX280 ist beim OC der Stock Kühler, hatte die Karte selbst und bei Xtreme OC wird die zu heiß
 
darum hab ich auch wakü..... gpu wird bei taktraten wie in meiner sig. nicht mal 50 °C...... und 700/1500/1200 schaff ich locker mit 1,06V.... da werden die spawas auch nicht so warm...... :)
 
Ja denn viel Spass mit deiner Karte hast ne gute erwischt :bigok:
meine GTX schafft diese Taktraten nichtmal mit 1,18v .
Naja mir reicht auch die standart Leistung bei 1.03v da ist sie schön leise und kühl :fresse:
 
jap..... scheint ein gutes exemplar zu sein..... bin wirklich sehr zu frieden mit der karte.... selbst im standarttakt hat die karte noch genügend leistung..... ich hoffe der thread wird hier wieder mal ein bisschen belebt..... sind ja viele auf dem gtx 285 trip, obwohl die ja nicht besser ist.....
 
Moin moin,bin jetzt auch im "Club".Bin von den Roten wider zu den Grünen ;)

Hab mir gerade bei alternate die EVGA 280GTX SSC bestellt und das gleich 2 X:asthanos:
299 taken ;) peer express sind morgen bis 12 uhr bei mir:banana:

Hat hier im fred jemand die karten am start und könnte mir was bezüglich temps. taktraten und OC erzählen ;)

BuLLiT
 
Zuletzt bearbeitet:
Ja denn viel Spass mit deiner Karte hast ne gute erwischt :bigok:
meine GTX schafft diese Taktraten nichtmal mit 1,18v .
Naja mir reicht auch die standart Leistung bei 1.03v da ist sie schön leise und kühl :fresse:

Das kann mit deiner auch gehen, wenn du sie unter wasser setzt. Das liegt wie ich das getestet habe vorrangig an der Temp. Auf 700 wird die Karte einfach zu heiß für den Standard Kühler.

Meine macht übrigens 675/1400/1150 @1,04. Find ich sehr angenehm, da die Temps/Lautstärke in Relation zur Leistung alles bisher dagewesene übertreffen :) Beste Karte, die ich bisher hatte. OK die 9800Pro AIW war auch ganz cool :P

---------- Beitrag hinzugefügt um 14:17 ---------- Vorheriger Beitrag war um 14:08 ----------

Hat hier im fred jemand die karten am start und könnte mir was bezüglich temps. taktraten und OC erzählen ;)
BuLLiT

Temps bei GTA4 max. 78° bei obigen Einstellungen.
Einmal Furmark landet sie bei 80°
 
Zuletzt bearbeitet:
Finde nicht das der Kühler bei 700 schlapp macht.
Meine macht 713/1458/1188 mit 1.1v und wird max. 83° warm.

Mal was anderes, hat jemand ne 9600GT als Physik drin?
Könnte billig an eine kommen, nur obs lohnt ??????
 
das würde mich auch interessieren. der test in der pcghw war ja mit einer 260. da die 280er ja schneller ist, könnte es sein, es bremst sogar. nur hat man einen gigantischen stromverbrauch.

was mich auch interssieren würde ist gtx280 + ageia physx-karte

edit: hab selbst etwas gefunden http://www.computerbase.de/artikel/...2008/bericht_nvidia_cuda_physx_ueberblick/12/

demnach bremst die ageia-karte die 280 aus.
im test der pcghw liegt die kombination aus 260+ageia VOR der kombi aus 260+9600gt
http://www.pcgameshardware.de/aid,6...e-im-Benchmark-Test/Action-Spiel/Test/?page=2
in der sind mehr karten abgedruckt. die 260+ageia hat 68,5 fps gebracht

somit wird die 9600gt ebenso bremsen und weniger fps erzeugen als die 280 allein.
 
Zuletzt bearbeitet:
Moinsen die karten sind da ;)

Sagt mal männer da ist kein DVI- HDMI adapter dabei,kann man auch den von ati nehmen???

Wie macht ihr das, wenn Ihr ein LCD mit HDMI anschlisen wollt???
 

Anhänge

  • 20032009192.jpg
    20032009192.jpg
    191,5 KB · Aufrufe: 56
Klar kannst du den von ATI nehmen. Gibt keinen Unterschied.

Es gibt DVI-HDMI Adapter.

Es gibt HDMI-DVI Kabel.

Musst du dich selber umschauen :)

Eigentlich sind solche Adapter aber bei neuen Grafikkarten dabei...
 
hab ich auch alles da(kabel-adapter) lass mein sony 40" dran laufen mit meiner 4870 X2.
Wundert mich nur das im lieferunfang kein DVI-HDMI adapter dabei war??
 
hab ich auch alles da(kabel-adapter) lass mein sony 40" dran laufen mit meiner 4870 X2.
Wundert mich nur das im lieferunfang kein DVI-HDMI adapter dabei war??

Es gibt auch HDMI auf DVI Adapter, nur mal so nebenbei ;)
Um HDMI Sound zu erhalten musst du das Kabel was mit der Graka dabei ist an das Mobo und die Graka anschließen.
Musst mal im Mobo-Handbuch schauen wo SPDIF0 steht.



Gruß
 
Finde nicht das der Kühler bei 700 schlapp macht.
Meine macht 713/1458/1188 mit 1.1v und wird max. 83° warm.

Dann hast du nicht genau verstanden, worum es dabei geht. Schlapp macht der Kühler nicht, aber wenn du die Karte mit Wasser auf 50° bringst, kanst du unter umständen noch ne ecke höher takten, weil sie eben sensibel auf hohe temps reagiert. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh