[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
@Ulukay: Mit Deiner Karte stimmt was nicht. Die meisten haben 40-50° IDLE Last 75-85°.
IDLE laufen meine beiden bei 40% mit knapp 700 U/min. Da sind sie auch noch recht leise. In 3D sind sie nach einer Weile recht laut, aber vom Geräusch her angenehmer als die 2900XT war.
@GA-Thrawn: Ja ich habe die Zotac Amp! Edition. Allerding noch nicht getestet wie hoch sie gehen. Wozu auch?:drool:

WEil man immer das max rausholt ? mach ich ma so, egal ob graka, ram oder cpu !
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei der 8800-Serie ist dit Zieltemperatur 82°C soweit ich weiss. Bei GTX280 keine Ahnung. Müsste man in Rivatuner sehen können.

der g80 ist bis 110° lauffähig, der g92 wohl auch und beim g200 wirds auch net anderes sein.

nur gesehen haben ich das nur einmal; rivatuner hat mein lüfter auf 0 gestellt und einige zeit später dröhnte die graka dann kreischend nach frischluft :fresse:

und wenn man bedenkt, was für temperaturen im südlichen teil unserer erder im sommer normal sind, sollten dauerbelastung bei 100° den chips auch nicht schaden.
 
Zuletzt bearbeitet:
Rüschtüsch. Also kann der GT200 entweder D3D10.1 oder es ist kein MSAA. Ich halte CSAA für wahrscheinlich.


16xQ>16x CSAA (8 Farb- + 8 CV-Samples)
16X>16x CSAA (4 Farb- + 12 CV-Samples)
8x>8x CSAA (4 Farb- + 4 CV-Samples)
8xQ>8x Multisampling
Hinzugefügter Post:
aber wenn sie throttled dann hilft das alles nix!
schmeiß das Tool runter,das schrottet dir die Karte,nimm den Riva.
 
Zuletzt bearbeitet:
mit GPU-Z speichern und im neuen nibitor auslesen
würde mich auch mal interessieren die einzelnen Spannungen der Hersteller.
 
mit dem Drecktool rennt die Karte immer im 2D mit 1200mhz memory,die haben doch bei eVGA den Knall nicht gehört.
 
mit GPU-Z speichern und im neuen nibitor auslesen
würde mich auch mal interessieren die einzelnen Spannungen der Hersteller.

kommt eben darauf an wieviele spannungsprofile sie überhaupt hat. bis dato lies sich ja nur die 8800gt biosmod seitig anheben.


Hinzugefügter Post:

mit dem Drecktool rennt die Karte immer im 2D mit 1200mhz memory,die haben doch bei eVGA den Knall nicht gehört.

der speicher verbraucht doch nix, warum dann senken :confused:
 
Zuletzt bearbeitet:
Boah kotz, hab auch in Crysis Grafikfehler! Liegts am Treiber 177.39??

Könnt ihr mal schaun ob ihr das auch habt? Diese Fehler kommen immer wenn man in den Cloak-Mode geht und zurück.



:-[
 
kommt eben darauf an wieviele spannungsprofile sie überhaupt hat. bis dato lies sich ja nur die 8800gt biosmod seitig anheben.


Hinzugefügter Post:



der speicher verbraucht doch nix, warum dann senken :confused:

1100 ist standard in 3d.....mit dem Tool hatte ich sofort 20 Grad mehr im 2D Modus
 
16xQ>16x CSAA (8 Farb- + 8 CV-Samples)
16X>16x CSAA (4 Farb- + 12 CV-Samples)
8x>8x CSAA (4 Farb- + 4 CV-Samples)
8xQ>8x Multisampling
Hinzugefügter Post:

schmeiß das Tool runter,das schrottet dir die Karte,nimm den Riva.

zeigt dasselbe an -> ich schick die karte zurueck :-[
 
Boah kotz, hab auch in Crysis Grafikfehler! Liegts am Treiber 177.39??

Könnt ihr mal schaun ob ihr das auch habt? Diese Fehler kommen immer wenn man in den Cloak-Mode geht und zurück.



:-[

Mit den beiden anderen hatte ich sowas nicht,bei dem *39 weiß ich nett hab kein Crysis,bekomms nicht mehr installiert>Netzfehler,muß ich erst die Reg säubern.
Den Treiber hab ich aber eh wieder runter.
Hinzugefügter Post:
zeigt dasselbe an -> ich schick die karte zurueck :-[
nicht so
 
Zuletzt bearbeitet:
nochmal langsam zum mitlesen
auch wenn GAR KEIN tool laeuft rennt der luefter @ 100% und die karte throttled -> es RUCKELT
starte ich dann das evga tool ODER den rivatuner zeigen die 105° an
 
nochmal langsam zum mitlesen
auch wenn GAR KEIN tool laeuft rennt der luefter @ 100% und die karte throttled -> es RUCKELT
starte ich dann das evga tool ODER den rivatuner zeigen die 105° an

ach so der Lüfter rennt immer 100%..oha da mußte ja schon taub sein..
von Anfang an?
 
nochmal langsam zum mitlesen
auch wenn GAR KEIN tool laeuft rennt der luefter @ 100% und die karte throttled -> es RUCKELT
starte ich dann das evga tool ODER den rivatuner zeigen die 105° an

berühre doch mal das pcb; solltest du dir die finger verbrennen ist rma angesagt, ansonsten :confused: rma?
 
ach so der Lüfter rennt immer 100%..oha da mußte ja schon taub sein..
von Anfang an?

nein am anfang rennt er mit 40% - aber da hat die karte im idle schon 60-70° :(
auf 100% geht er bei rthdribl innerhalb von 60 sekunden :(
Hinzugefügter Post:
berühre doch mal das pcb; solltest du dir die finger verbrennen ist rma angesagt, ansonsten :confused: rma?

das zeug is schon ziemlich heiss ja :(
 
Zuletzt bearbeitet:
Kein Wunder das der so rennt der will die Karte ja vor dem schmelzen schützen.


Die Karte würde ich tauschen Sorry !
 
nein am anfang rennt er mit 40% - aber da hat die karte im idle schon 60-70° :(
auf 100% geht er bei rthdribl innerhalb von 60 sekunden :(
Hinzugefügter Post:


das zeug is schon ziemlich heiss ja :(

was passiert denn wenn du den Lüfter in 2D auf 60% stellt (auto raus)und vorm Gamen den Lüfter auf 80 % lockst,wie heiß wird die dann,mach mal.
hast du zufällig "everest" immer offen zb.in der sidebar?Dann schaltet die nicht runter und rennt immer im 3d Takt....
 
Zuletzt bearbeitet:
huhu zuppi

tja, nun müsste mal einer das bios von vid1 auf vid2 oder vid0(?) (3dmode) stellen und schauen, ob mehr als 800 gputakt drinne sind

:d

ach und ja, mavke meinte der g200 ist full supported (nibitor 4.2); kann nix schiefgehen ;)
 
Zuletzt bearbeitet:
ein scheiß isser der erkennt die Karten überhaupt nicht :d

verrat mir lieber wie ich die drecks maps in UT3 unter vista ans laufen bekomme...
 
So hab den Originaltreiber 177.26 drauf und keine Grafikfehler mehr! Kann also vom Treiber 177.39 nur abraten! :wink:
 
ein scheiß isser der erkennt die Karten überhaupt nicht :d

verrat mir lieber wie ich die drecks maps in UT3 unter vista ans laufen bekomme...

och zuppi; der mavke ist arm und kann sich keine lizenz für vista leisten (10k$?), ist auch schon alles :haha:

und ut3? haste die vollversion oder glaubste die laufen mit dem demo :lol:


Hinzugefügter Post:

So hab den Originaltreiber 177.26 drauf und keine Grafikfehler mehr! Kann also vom Treiber 177.39 nur abraten! :wink:

ehm, du meinst von aoc oder. ^^ wie kann man nur auf 5k 3dmurks punkte verzichten,,,tssststsss
 
Zuletzt bearbeitet:
So hab den Originaltreiber 177.26 drauf und keine Grafikfehler mehr! Kann also vom Treiber 177.39 nur abraten! :wink:

haste das gesehen?
16xQ>16x CSAA (8 Farb- + 8 CV-Samples)
16X>16x CSAA (4 Farb- + 12 CV-Samples)
8x>8x CSAA (4 Farb- + 4 CV-Samples)
8xQ>8x Multisampling

immer nur 8xQ oder 4x einstellen ,der andere Krams ist schrott!
Dazu kannste noch mit dem Monster TSSAA einstellen das schafft die locker.
In deiner Auflösung würd ich aber immer 2x2 oder 3x3 einstellen das
glättet alle Kanten.
Hinzugefügter Post:
och zuppi; der mavke ist arm und kann sich keine lizenz für vista leisten (10k$?), ist auch schon alles :haha:

und ut3? haste die vollversion oder glaubste die laufen mit dem demo :lol:


Hinzugefügter Post:



ehm, du meinst von aoc oder. ^^
nö er meint Crisisi

Nasen bär :d
hat mit Vista nix zutun das tool erkennt die Karten nicht aber das rom aus GPU-Z schon...haaaaloooo :lol:

ja und auch ne Vollversion ... der installer haut die Mod in myGames auf C und das Game liegt auf d....nur idioten echt :d
 
Zuletzt bearbeitet:
was habt ihr immer nur mit eurem AA :confused: mein erstes mal (geforce256 und quake3 mit msaa und ssaa bei 2x und 4x) waren dermaßen bescheidenen ausmaßes, das mir das die bohne juckt; solange es das spiel nativ unterstütz bin ich bis 4x (meist msaa) dabei; ansonsten eben schnuppe.
 
Zuletzt bearbeitet:
was passiert denn wenn du den Lüfter in 2D auf 60% stellt (auto raus)und vorm Gamen den Lüfter auf 80 % lockst,wie heiß wird die dann,mach mal.
hast du zufällig "everest" immer offen zb.in der sidebar?Dann schaltet die nicht runter und rennt immer im 3d Takt....

die hat auf 100% @ idle schon 55 und 3D throttled sie trotzdem -> weg damit
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh