Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 2

Status
Für weitere Antworten geschlossen.
...ich hab ein wenig das gefühl, dass im HWLUXX-test ein bisschen pro-Ati gebencht wurde... :(
wie sonst kann es sein, dass die GTX280 oft so "langsam" wie ne 9800gtx ist? *kopfschüttel*

es ist doch ein vollkommener schwachsinn, die GTX280 mit der 1280er auflösung zu benchen! ihr "einsatzgebiet" beginnt bei der 1920er mit vieeeel AA und AF! :xmas:

naja, wie ich schon mal sagte, man kann immer so benchen, dass sein favorisiertes produkt besser dasteht! :hmm:

gruss
t.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die ATI scheint ziemlich gleich stark zu sein in HQ.

Das ist in diversen Tests so, daß die GTX280 häufig erst, egal welche Qualieinstellungen, in 2580x1600 vorbeizieht. Vorausgesetzt es werden nicht irgendwelche ATI-Alttreiber verwendet.

http://www.techreport.com/articles.x/14990/9
http://www.techreport.com/articles.x/14990/11
http://www.techreport.com/articles.x/14990/13

Overall sieht es nach Pari aus. Also sind alle zufrieden ;)

Treiberseitig wird sich bei ATI und Nvidia noch so einiges holen lassen, denke ich.
 
Zuletzt bearbeitet:
Fakt ist nunmal das die 4850 bzw. 4870 ein Top Produkt ist , was in vielen Benches mit der 280GTX gleichziehen kann .

Und das die 280GTX deutlich im Preis sinken muss um konkurrenzfähig zu sein sollte auch einleuchten .

Ich liebe Nvidia , aber die Preispolitik und das gnadenlose ausnehmen der Kunden kotzt mich so langsam an .
Habe spaßeshalber mal 2 der kleinen 4850 getestet ( 260€ :d ) und die ziehen schon gut durch und weißen die 280GTX ( 480€ ) das ein oder andere Mal in die Schranken . Für mich als Nvidia Fan unfassbar !

@Zuppi
Schau mal hier ( eine der renommierteste Seite ) , da gibts genug HQ Tests und die sprechen ne eindeutige Sprache :

http://www.firingsquad.com/hardware/ati_radeon_4850_4870_performance/page14.asp
 
Zuletzt bearbeitet:
@tomson 78

Ich hatte das Problem mit der Temp bei 3DMark06.
Da ging die Karte auf 110°C, bei Crysis blieb die Temp unterhalb, so dass es keine Ruckler gab wegen der Temp. Bei Frontlines war das Game innerhalb von 2 Min nicht mehr spielbar, Temp´s um die 115°C 100% Lüfter. Das Game fing an zu stocken bei der Auflösung 1900x1200 alles voll aufgedreht. Meine 8800gtx hat damit überhaupt keine Probleme.
Die 280er von Asus habe ich erst einmal zurückgeschickt, erst mal abwarten ob NV da keine Fehlproduktion auf den Markt geworfen hat.
Wenn man die Beiträge so liest, könnte man dieses denken.
 
Fakt ist nunmal das die 4850 bzw. 4870 ein Top Produkt ist , was in vielen Benches mit der 280GTX gleichziehen kann .

Und das die 280GTX deutlich im Preis sinken muss um konkurrenzfähig zu sein sollte auch einleuchten .

Ich liebe Nvidia , aber die Preispolitik und das gnadenlose ausnehmen der Kunden kotzt mich so langsam an .
Habe spaßeshalber mal 2 der kleinen 4850 getestet ( 260€ :d ) und die ziehen schon gut durch und weißen die 280GTX ( 480€ ) das ein oder andere Mal in die Schranken . Für mich als Nvidia Fan unfassbar !

@Zuppi
Schau mal hier ( eine der renommierteste Seite ) , da gibts genug HQ Tests und die sprechen ne eindeutige Sprache :

http://www.firingsquad.com/hardware/ati_radeon_4850_4870_performance/page14.asp

Fakt ist das was hier noch gestanden war!

Jeder denkende Mensch sieht doch was Sache ist.
Und wenns nicht reicht werden die CL Vergleiche rausgeholt,wenn dann mit SLI gekontert wird,packt ihr die Kohle aus,lächerlich."

das ergänze ich noch.

gerne sofort ich hab aber nur eine Karte...
wir brauche da garnicht lange rumwursten der "X Wert Vantage (nur GPU Score) reicht.
X Wert>ist die Einstellung "EXtreme"

und nochmal ich habe die Karten absolut nicht abgewertet ,mich kotzt nur der Einseitige und immer passend zugesschnittene Vergleich an.
 
Zuletzt bearbeitet:
Fakt ist das was hier noch gestanden war!

Jeder denkende Mensch sieht doch was Sache ist.
Und wenns nicht reicht werden die CL Vergleiche rausgeholt,wenn dann mit SLI gekontert wird,packt ihr die Kohle aus,lächerlich."

das ergänze ich noch.

gerne sofort ich hab aber nur eine Karte...

Aber es ist doch auch klar das die 4850/4870 in ner ganz anderen Liga spielen sollte ( 9800GTX ) und das die 280GTX nicht die Leistung bringt die für diesen Preis erwartet war .

Mir geht es doch nur um die extreme Preispolitik bei Nvidia die so nicht in Ordnung ist und wenn ich sehe das sie sich für diesen Preis nur um 5-10% von der Konkurrenz absetzen kann die nur um die 200€ kostet .

Ok , Extrem nur die ersten beiden GPU Tests .
 
Zuletzt bearbeitet:
stimmt genau...

momentan kauft sich doch nur noch ein absoluter High End Käufer eine 280 GTX...

die 260 GTX ist ja sowieso vom Tisch, durch die 4870...
 
HighEnd kostet immer mehr Kohle!
Frag die Leute die sich für ein paar MHZ mehr einen 1000€ Intel kaufen.
Und wenn ich für die Mehrkosten endlich SSAA richtig ausspielen kann ist mir das Wert!
Kein Mensch wird gezwungen sich dies und das zu kaufen,ich würde auch nicht hingehen und irgend einem versuchen einen ATI Kauf auszureden nur weil ich glaube "Das ich das beste habe und sonst keiner".

Und genau das macht den Unterschied der hier langsam sauer aufstößt.
Hinzugefügter Post:
die 260 GTX ist ja sowieso vom Tisch, durch die 4870...
das ist auch wieder so ein Satz den ich nie schreiben würde..denn ich kanns nicht vergleichen,ich behaupte aber einfach mal so wie du das tust und wenn ich so die OC Ergebnisse der 260er sehe,das die 260er in 1920x1200 mit AA jede 4870 bügelt...
und jetzt kommen einige aus ihren Höhlen...verstehste was ich meine?
Hinzugefügter Post:
Aber es ist doch auch klar das die 4850/4870 in ner ganz anderen Liga spielen sollte ( 9800GTX ) und das die 280GTX nicht die Leistung bringt die für diesen Preis erwartet war .

Mir geht es doch nur um die extreme Preispolitik bei Nvidia die so nicht in Ordnung ist und wenn ich sehe das sie sich für diesen Preis nur um 5-10% von der Konkurrenz absetzen kann die nur um die 200€ kostet .

Ok , Extrem nur die ersten beiden GPU Tests .

den kannste ganz durchlaufen der CPU Wert spielt absolut keine Rolle
 
Zuletzt bearbeitet:
Könnte mein Graka Problem ein NT Fehler sein? Also das der Karte absichtlich aus irgend einem Grund viel zu viel Spannung gegeben wurde?

...mhhh...wäre es nicht auch möglich, dass genau dieser Bug bei allen jenen zum Standardrepertoire gehört, die diese Hitze/Lüfterprobleme (wie ich mich der ersten XFX) haben?

Was du beschreibst, passt genau ins Bild, es ist exakt das gleiche, was ich mit meiner XFX erlebt habe....nur war es dort Standard, also immer.

Andere Idee: Kann es ein, dass die 1.18v Schwankungen des Netzteils ausgleichen sollen? Also die Spannungswandler linear arbeiten? Wenn ja, was ist, wenn es bei dir einen solchen Drop gab und mit 1.03v irgednwas nicht mehr reichte, daher diese "Reaktion"?

Noch was anderes: Ich bin kein Elektroniker...aber wenn ich es richtig verstehe, muss die Karte bei einer v Differenz von 0.15 Volt (1.03 zu 1.18) bei von dir gemessenen 60 Watt weniger Verbrauch umgerechnet 400 Ampere WENIGER ziehen. (Amp * Volt = Watt)

Nun erinnere ich mich, dass bei 400A alles schmilzt...was stimmt an meiner Rechnung nicht?

LG
Skinny
 
Zuletzt bearbeitet:
Und das die 280GTX deutlich im Preis sinken muss um konkurrenzfähig zu sein sollte auch einleuchten .

Ich liebe Nvidia , aber die Preispolitik und das gnadenlose ausnehmen der Kunden kotzt mich so langsam an .

da muss ich dir zu 100% zustimmen!

die nvidia-teile sind offenbar saumässig überteuert!
ich denke, dass ati bei ihren karten nicht draufzahlt.
...der g200 mag vielleicht wegen seiner grösse teurer sein wie die neuen ati-chips, aber das rechtfertigt meine meinung nach noch lange nicht den fast doppelten preis :(

der einzige grund, warum ich mich nicht masslos über meine 280er ärgere, ist der, dass ich absolut zufrieden mit der performance bin! ich hatte gewisse erwartungen und die wurden erfüllt...

das alle karten im laufe der zeit billiger werden, ist eh klar! ...aber irgendwann muss man halt kaufen ;)

gruss
t.
 
HighEnd kostet immer mehr Kohle!
Frag die Leute die sich für ein paar MHZ mehr einen 1000€ Intel kaufen.
Und wenn ich für die Mehrkosten endlich SSAA richtig ausspielen kann ist mir das Wert!
Kein Mensch wird gezwungen sich dies und das zu kaufen,ich würde auch nicht hingehen und irgend einem versuchen einen ATI Kauf auszureden nur weil ich glaube "Das ich das beste habe und sonst keiner".

Und genau das macht den Unterschied der hier langsam sauer aufstößt.
Hinzugefügter Post:
die 260 GTX ist ja sowieso vom Tisch, durch die 4870...
das ist auch wieder so ein Satz den ich nie schreiben würde..denn ich kanns nicht vergleichen,ich behaupte aber einfach mal so wie du das tust und wenn ich so die OC Ergebnisse der 260er sehe,das die 260er in 1920x1200 mit AA jede 4870 bügelt...
und jetzt kommen einige aus ihren Höhlen...verstehste was ich meine?
Hinzugefügter Post:


den kannste ganz durchlaufen der CPU Wert spielt absolut keine Rolle

Damit hast du Recht , jeder sollte das kaufen was er mag ;) .

Aber letztendlich muss Higend garnet teuer sein , siehe die 4870 die für 250€ weniger fast genau das gleiche leistet . Und zig verschiedene Reviews von Namenhaften Seiten belegen das Eindrucksvoll .

Wenn es wieder nur einige Blender wären könnte man ja wieder eine gewisse Pro Ati bzw. Nvidia Haltung erkennen aber diesmal ist sich die Fachpresse wohl einig und bescheinigt der 4870 eine grandiose Leistung für wenig Geld .

Zu Vantage :

Achso , ganz durchlaufen lassen wäre unfair da käme die PhysX Leistung mit in den Score und jeder weiß mittlerweile das Nvidia da ein wenig schummelt ( Future will diverse Resultat konsequent aus dem Rankink ausschliessen ) .
 
Zuletzt bearbeitet:
Noch was anderes: Ich bin kein Elektroniker...aber wenn ich es richtig verstehe, muss die Karte bei einer v Differenz von 0.15 Volt (1.03 zu 1.18) bei von dir gemessenen 60 Watt weniger Verbrauch umgerechnet 400 Ampere ziehen. (Amp * Volt = Watt)

Nun erinnere ich mich, dass bei 400 alles schmilzt...was stimmt an meiner Rechnung nicht?

LG
Skinny

Hm, interessant, aber 400 Ampere is bisl viel oder? Mein NT packt nur 40, da muss doch ein AKW her.

Interessant wäre auch das Bios was die neuen Karten haben! Vielleicht ist dort ein neues Bios zu finden. Wäre schön gewesen wenn die Leute die Probleme hatten das alte Bios mit dem der neuen Karte vergleichen könnten.

:btt: Hier ist nicht das 4870 vs GTX280 Thread!
 
Zuletzt bearbeitet:
auch das habe ich nie abgetritten und eine grandiose Leistung bis 1920x1200.
Das wird sich wohl mit der 1GIG Variante ändern aber die ist noch nicht da,auch habe ich schon geschrieben wenn ATI endlich SSAA freischalten würde hätt ich auch eine (die 1gig Variante) so ist das für "MICH !!!!" völlig uninteressant auch wenn die Karten 20€ kosten würden und ich weiterhin NV die Kohle hintenrein stecken muß.
Hinzugefügter Post:
Hm, interessant, aber 400 Ampere is bisl viel oder? Mein NT packt nur 40, da muss doch ein AKW her.

Interessant wäre auch das Bios was die neuen Karten haben! Vielleicht ist dort ein neues Bios zu finden. Wäre schön gewesen wenn die Leute die Probleme hatten das alte Bios mit dem der neuen Karte vergleichen könnten.

:btt: Hier ist nicht das 4870 vs GTX280 Thread!

dito!
Ich bin da jetzt raus.

Hab ich mir angeschaut XFX und eVGA ist soweit das selbe,bis auf die OC Versionen,was ich nicht weiß ob auch die Timings verändert wurden,da hab ich keine Ahnung.
Ich will auch jetzt nix lostreten..aber die ganzen Tools,ob die nur auslesen..riva,evga,everest was weiß ich jeder hat einen eigenen Treiber und jedes sagt was anderes....ich hab gar keins mehr drauf und irgendwie hab ich ein besseres Gefühl :d
 
Zuletzt bearbeitet:
auch das habe ich nie abgetritten und eine grandiose Leistung bis 1920x1200.
Das wird sich wohl mit der 1GIG Variante ändern aber die ist noch nicht da,auch habe ich schon geschrieben wenn ATI endlich SSAA freischalten würde hätt ich auch eine (die 1gig Variante) so ist das für "MICH !!!!" völlig uninteressant auch wenn die Karten 20€ kosten würden und ich weiterhin NV die Kohle hintenstecken muß.

Jepp ;) .
Ich denke wir machen an dieser Stelle jetzt Schluss um nicht zu sehr OFF zu werden .
War doch trotzdem noch ne kleine vernünftige Diskussion ( ich liebe dies Smilys und das mit 36 )
 
Hm, interessant, aber 400 Ampere is bisl viel oder? Mein NT packt nur 40, da muss doch ein AKW her.

Denkfehler ;) Dafür ja die Spannungswandler, die wandeln die 12 Volt in was auch immer...unter anderem die 1.18 bzw 1.03 Volt...

Wenn die Karte 240 Watt am NT zieht, sind es also ca. 50 Ampere...kommt hin.

Nur, wie sieht es dann am Chip aus? bei 1.08 Volt? Wo sind die Elektroniker ;)

Gruss Skinny
 
Zuletzt bearbeitet:
Noch was anderes: Ich bin kein Elektroniker...aber wenn ich es richtig verstehe, muss die Karte bei einer v Differenz von 0.15 Volt (1.03 zu 1.18) bei von dir gemessenen 60 Watt weniger Verbrauch umgerechnet 400 Ampere WENIGER ziehen. (Amp * Volt = Watt)

Deine Formel ist richtig, aber du solltest die Zahlen an der richtigen Stelle einsetzen ...
 
Ich will jetzt nix lostreten..aber die ganzen Tools,ob die nur auslesen..riva,evga,everest was weiß ich jeder hat einen eigenen Treiber und jedes sagt was anderes....ich hab gar keins mehr drauf und irgendwie hab ich ein besseres Gefühl :d
 
Hm, interessant, aber 400 Ampere is bisl viel oder? Mein NT packt nur 40, da muss doch ein AKW her.

Denkfehler ;) Dafür ja die Spannungswandler, die wandeln die 12 Volt in was auch immer...unter anderem die 1.18 bzw 1.03 Volt...

Wenn die Karte 240 Watt am NT zieht, sind es also ca. 50 Ampere...kommt hin.

Nur, wie sieht es dann am Chip aus? bei 1.08 Volt? Wo sind die Elektroniker ;)

Gruss Skinny

Bei 240 Watt zieht die Karte aus dem Netzteil (12 Volt-Schiene) 20 Ampere. 100% Wirkungsgrad der SPawas und keine Nebenverbraucher mal einfach angenommen, zieht der Chip kartenintern 240Watt/1,08Volt = 222 Ampere
 
Ich will jetzt nix lostreten..aber die ganzen Tools,ob die nur auslesen..riva,evga,everest was weiß ich jeder hat einen eigenen Treiber und jedes sagt was anderes....ich hab gar keins mehr drauf und irgendwie hab ich ein besseres Gefühl :d

Jo wenns dann auch besser läuft is ok! Ich hätte nur gerne den überflüssigen 40% Lüfter auf 25% fest, mehr nicht. Takten kann ich auch per Bios Mod auf 655.....
Tja alles kann man dann wohl net haben. Oder eben warten auf nen neues Rivatuner.
 
Bieten 24 Zoll Monitore eine Auflösung von 2xxx*xxxx ?

Ich habe nämlich für Shooter und Konsole einen 37 Zoll Full HD mit 1920*1080er Auflösung und ich bin baff wie "fein" das ist.

Das muss ja auf 24 Zoll der Wahnsinn sein, mit einer noch höheren Auflösung!
 
Zuletzt bearbeitet:
Bei 240 Watt zieht die Karte aus dem Netzteil (12 Volt-Schiene) 20 Ampere. 100% Wirkungsgrad der SPawas und keine Nebenverbraucher mal einfach angenommen, zieht der Chip kartenintern 240Watt/1,08Volt = 222 Ampere

Glaube ich dir aufs Wort, weil stimmig und rechnerisch korrekt....also kann die Differenz bei den angelegten 1.03v zu 1.18v keine 60 Watt ergeben...

Und genau darauf wollte ich hinaus!! Denn es wurden 60 Watt Unterschied gemessen, die geringere Abwärme erscheint ebenfalls "60-Watt-typisch"...nur, wo kommen die her??

LG
Skinny
 
Jo wenns dann auch besser läuft is ok! Ich hätte nur gerne den überflüssigen 40% Lüfter auf 25% fest, mehr nicht. Takten kann ich auch per Bios Mod auf 655.....
Tja alles kann man dann wohl net haben. Oder eben warten auf nen neues Rivatuner.

wie der auf 40% dich nerven kann werd ich im Leben nicht verstehn.
Hinzugefügter Post:
beim flashen auch darauf achten das die Werte stimmen!
zb.1460>sind 1458 dann auch 1458 eintragen.
 
Zuletzt bearbeitet:
(nein die Frametimes sind perfekt also keien MR)




Sorry, Zocker28, aber du erzählst schon wieder die Unwahrheit, genauso wie bei der 38xx ATi Serie.

Auf den Bildern sieht man GANZ KLAR, daß du MR hast, und zwar genauso hoch wie bei Nvidia SLI. Die Anzeige rechts neben den fps zeigt das GANZ DEUTLICH.

Im ersten Bild hast du (22..55)
Im zweiten Bild hast du (28..53)
Im dritten Bild hast du (21..49)

Fraps ist nicht sehr verläßlich, aber diese Anzeige in Crysis schon. Die kann man nicht betrügen, Zocker28 ;)

Deswegen liebe ich diese Anzeige ja auch so ;)

Und natürlich sind 30fps flüssig, aber nur wenn sie ohne MR sind, und das sind sie bei SLi und Crossfire NICHT.

Deswegen kommt es dir nicht flüssig vor, eben WEGEN MR.

Schalte doch mal CF aus und teste mit einer Karte @ 30fps ~ 35fps. Schon wird alles flüssig, auch subjektiv. Du wirst sehen, die Anzeige wird das auch bestätigen.

Normales CF und SLI haben eben MR, damit muß man eben leben.

Eine Ausnahme könnte R700 werden, weil dort exklusiv (kommt nicht bei normalem CF zum Einsatz!) der "crossfire sideport" IM Chip aktiviert wird. Also eine wahnsinnige schnelle chip-zu-chip Verbindung, die aber natürlich nur auf dem gleichen PCB funktioniert und nicht über den pci-e Bus. (also 2x R700 wird sich dann wieder wie normales CF verhalten, nur besser skalieren).
 
Was ist denn diese VID Mode?

Kann man dort vielleicht auch was ändern?

nibitorvidhps.jpg


NiBiTor will mark your 3D Voltage as green.

Once you know your target voltage (voltage identifier), you change the VID
for it using the dropdown menu.
VIDs are marked with the voltage they will give if that can be seen from
the BIOS.
VIDs that cannot be identified are marked as ?.?V, as unknown.

Checking 'Extend Labeling' will remove the ?.?Vs and replace them with
voltages known as usual for your card type BIOS VIDs.
Its not sure that the values shown are correct for your BIOS.
 
Zuletzt bearbeitet:
Glaube ich dir aufs Wort, weil stimmig und rechnerisch korrekt....also kann die Differenz bei den angelegten 1.03v zu 1.18v keine 60 Watt ergeben...

Doch. Ein Siliziumchip verändert abhängig von der Versorgungsspannung seinen Innenwiderstand stark nichtlinear.

230 Watt / 1,18 Volt = 194 A ( 20 A aus dem NT)
170 Watt / 1,03 Volt = 165 A ( 14 A aus dem NT)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh