[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wieso macht ihr euch alle so Gedanken um den hohen Takt.
Wenn die Temp stimmt, ist das doch alles kein Problem.
Kaputt gehn die doch nicht, war noch fast nie so, ...

Zu hoher Takt, -> Freeze, Bildfehler oder Reboot, aber kaputt geht da nix, .. wie man sieht geht mit der richtigen Kühlung über 1GHz ...
 
Ich teste das Morgen nochmal mit dem Stromverbrauch. Die Werte eben waren aus dem Kopf.

8800GTX = 3DMArk2001 + 4x Prime (Jaaaa, auch das alte 3DMArk kann viel verbrauchen # Naturetest)
GTX280 = FurMArk + 4x Prime

Habe jetzt nochmal getestet da bin ich jetzt nur auf 580W gekommen, sehr merkwürdig. Aber wie gesagt ich teste morgen mit beiden Karten und genau den gleichen Einstellungen.
 
Saugt der Quad so viel? Toll wenn 2 Kerne sich langweilen und dennoch so viel Strom verbrauchen! :fresse:
 
Jepp! Ich hatte die Temps aber immer im Auge dank meines G15 LCD Displays! 88 Grad hatte ich bei 25 Grad Raumtemp, ich weiß was ich mache, 700 sind absolut stable. Die Temps sind wichtig, daher sollte 700Mhz mit Wakü kein problem sein.

Dann kann natürlich nix mehr passieren...happy OC! :)
 
mußt nur aufpassen der taktet wieder in Schritten>720>dann zeigt der 1555 an das sind dann aber schon 1566
Und 1250 Memory sind auch schon 1260mhz

720/1566/1260 läuft meine Stabil
 
Zuletzt bearbeitet:
@ thomsen78.
ne hab 4x6er pcie leitungen.

hier mal ein auszug
Watt: 850 Watt
Netzteillüfter vorhanden: Ja
Anzahl der Netzteillüfter: 2
Grösse der Netzteillüfter: 135+80
Netzteillüfter temperaturgeregelt: Ja
PFC: Aktiv
Anzahl der S-ATA Stromanschlüsse: 14
PCI-e x16 6pin Anschlüsse am Netzteil vorhanden: 4
Anzahl der 3,5" Anschlüsse: 2
Anzahl der 5 1/4" Anschlüsse: 9
Stromstärke der +3,3V Leitung: 30
Stromstärke der +5V Leitung: 30
Stromstärke der +12V-1 Leitung: 17
Stromstärke der +12V-2 Leitung: 17
Stromstärke der +12V-3 Leitung: 17A
Stromstärke der +12V-4 Leitung: 17A
Anschluss ATX vorhanden (20pol): Ja
Anschluss ATX12V vorhanden (4pol): Ja
Anschluss ATX2.0 vorhanden (24pol): Ja
Anschluss ATX12V vorhanden (8pol): Ja
modulares Stecksystem:: Ja
 
@kowa1981

Enermax taugt sicher! Combined Power in Ampere weißt nicht zufällig?
 
@ Alle GTX280-Besitzer : Da das einzige, was mich bei Crysis interessiert , die FPS im Multiplayer sind und leider nicht im SP oder irgendwelchen Demos, wollte ich euch ma Fragen, ob Crysis im MP und 'ner GTX280 auf 1680x1050 + 2AA auf High-VeryHigh flüssig laufen wird?

Habe zwar keinen 4GHz DualCore, aber einen Q6600 @ 2,4 (Standard), welchen ich auch auf 3GHz übertakten könnte. Aber mich würden halt hauptsächliche die FPS im MP auf 1680 + High bis Very High + 2AA.


Kann mir jemand was zu berichten?


Danke im Voraus und schönen Abend noch,

mfG h0ver
 
kannste noch hin und herschieben,shader entkoppeln und weiter runter kommste mit Core und Memory noch höher,shader ist mir aber wichtiger.
Reicht aber auch so 3x.

Kann das einer erklären, warum an mit weniger Shader mit Core und Mem höher kommt, .. ist jetzt nicht das erste mal dass man das hört?
 
Ja sieht so aus als ob du dann den Aufkleber kaputt machen musst. Sieht dann wohl nach Garantieverlust aus ? Aber muss es denn ne XFX sein ?
 
@ Alle GTX280-Besitzer : Da das einzige, was mich bei Crysis interessiert , die FPS im Multiplayer sind und leider nicht im SP oder irgendwelchen Demos, wollte ich euch ma Fragen, ob Crysis im MP und 'ner GTX280 auf 1680x1050 + 2AA auf High-VeryHigh flüssig laufen wird?

Wenn ich flüssig im SP mit 1280x1024, 4xAA, High zocken kann dann kannst du das bei deiner Auflösung im MP auf jeden Fall! :d
Die Performance im MP ist immer bisl besser gewesen, von daher sollte die höhere Auflösung mit der GTX280 flüssige FPS beschehren.
 
Zuletzt bearbeitet:
Kann das einer erklären, warum an mit weniger Shader mit Core und Mem höher kommt, .. ist jetzt nicht das erste mal dass man das hört?
Keine Ahnung
die berechnet doch den shader takt anders,AIL sagte mal 1450 sind ungefähr soviel wie beim G92 1800
Wenn ich bei mir nur noch ~1 mhz höher mit dem shader gehe ist Schicht,sofort Bildfehler.
 
Das hatte ich aber ebend genau auch bei einer 8800er GT davor der Kern ging noch
höher nur die Shader nicht.
 
Wenn ich flüssig im SP mit 1280x1024, 4xAA, High zocken kann dann kannst du das bei deiner Auflösung im MP auf jeden Fall! :d
Die Performance im MP ist immer bisl besser gewesen, von daher sollte die höhere Auflösung mit der GTX280 flüssige FPS beschehren.

Ok, danke dir ;-)

Und noch ist ja nicht alles ausgeschöpft treiberseitig ;)
 
die sollen mal ihre Tools in Ordnung bringen,da zeigt jedes was anderes an..gefallen tut mir das nicht...
Und vorallem das man kein festes 2D Profil erstellen kann geht mir kräftig auf den Keks.
Wird zeit das mal einer das Bios zerpflügt :d
Hinzugefügter Post:
Das hatte ich aber ebend genau auch bei einer 8800er GT davor der Kern ging noch
höher nur die Shader nicht.
Ja schon aber wenn AIL Rechnung stimmt kannste dir ja ausrechnen was 1550 G200 beim G92 wären..
Hinzugefügter Post:
Deswegen glaube ich auch im Leben nicht was "Raff" für Taktraten in seinem Test angegeben hat mit 1620 Shader MHZ das kann er einem erzählen der die Hose mit ner Kneifzange zumacht.
 
Zuletzt bearbeitet:
@tomsen78
aber wie soll ich die gfx anschliessen wenn am netzteil kein 8er stecker ist?
hab ja nur 4 von den 6er steckern.
oder gibts von enermax vielleicht austauschbare kabel wo dann ein 8er bei ist den ich mit meinem netzteil benutzen kann?

ach mann jetzt hab ich mir schon ein dickes netzteil für die nächsten jahre zugelegt und dann bringen die nen neuen standard raus. man geht mir das auf den sack. :fire:
 
@kowa1981

Gibt Adapterkabel! schließe 2x6Pin mit Adapter an den 8Pin Anschluss und dann einfach noch den 1x6Pin anschließen, du hast ja zum Glück 4! Wolltest 2x GTX280 anschließen?
 
@tomsen78
aber wie soll ich die gfx anschliessen wenn am netzteil kein 8er stecker ist?
hab ja nur 4 von den 6er steckern.
oder gibts von enermax vielleicht austauschbare kabel wo dann ein 8er bei ist den ich mit meinem netzteil benutzen kann?

ach mann jetzt hab ich mir schon ein dickes netzteil für die nächsten jahre zugelegt und dann bringen die nen neuen standard raus. man geht mir das auf den sack. :fire:

sind doch adapter bei den kartn bei , das manche da so probs draus machn...

Also seh ichss richtig ,core und shader sollte man gekoppelt takten, wenn core 700 mhz, shader 1400 (immer das doppelte beim shader ? ) oder is das egal ?
 
Zuletzt bearbeitet:
Ich glaube das ist total banane :) Bei meiner Karte davor hatte ich wiegesagt auch den Core höher als die Shader weil es ging.
 
Bei mir sehen einige Texturen bei Bioshock so verschwommen aus das sagt mir das kann ich bestimmt besser einstellen,

spiele mit allen Details (im Spiel) kann ich anderweitig nicht noch unter der Nvidia Sys Steuerung was zur Verbesserung einstellen?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh