[Sammelthread] Nvidia GeForce GTX 560 "GF114" Sammel-Spekulations-Thread

Status
Für weitere Antworten geschlossen.
Nvidia GeForce GTX560 Sammel-Spekulations-Thread

cardspbjp.jpg


*Spekulation Mode an*

Release

"Anfang 2011"
"20.01.2011"

Neu vom 20.12:

1_mqa0j.jpg


GeForce GTX 560*Variante 1

Chip: GF112
Fertigung: (40nm)
Cuda Cores: 448
TMUs: 64
ROPs: 32
Chiptakt: 680 Mhz
Shadertakt: 1360 Mhz
Speichertakt: 3600 Mhz
Speicherinterface: 256 Bit
Speichergröße: 1 GB GDDR5
TDP: ca. 160 Watt

GeForce GTX 560*Variante 2 (Fudzilla Version)

Chip: GF114 (quasi GF104 mit den freigeschalteten Cuda Cores)
Fertigung: (40nm)
Cuda Cores: 384
TMUs: 64
ROPs: 32
Chiptakt: > 675 Mhz
Shadertakt: > 1350 Mhz
Speichertakt: xxxx Mhz
Speicherinterface: 256 Bit
Speichergröße: 1 GB GDDR5
TDP: ca. 1xx Watt

GeForce GTX 560*Variante 3 (expreview siehe Screenshot GPU-Z)

Chip: GF114 (quasi GF104 mit den freigeschalteten Cuda Cores)
Fertigung: (40nm)
Cuda Cores: 384
TMUs: 64
ROPs: 32
Chiptakt: 820 Mhz
Shadertakt: 1640 Mhz
Speichertakt: 1000 Mhz
Speicherinterface: 256 Bit
Speichergröße: 1 GB GDDR5
TDP: max. 160 Watt

vermutete technische Details

* Memory Bandwith: 156.2 GB/sec
* Pixel Fill Rate: 23.2 GPixels/sec
* Fragments Pipeline: 384
* Vertex Pipelines: 384
* Textire Units: 64
* Raster: 32
* Core Voltage: 1,1V
* 6 + 8Pin oder 6+6Pin Strom Anschluss

Erste Tests der Karte

noch nichts bekannt

Preisvergleich

noch nichts bekannt

Treiber

noch nichts bekannt

Tools

noch nichts bekannt

DX11 Benchmarks

noch nichts bekannt

Performance

noch nichts genaues bekannt, es soll wohl sich im Bereich der AMD HD6950 bewegen

Fudzilla orakelt: "We expect some average 15 to 20 percent performance increase from GTX 560 compared to GTX 460."

Links

Hardwareluxx - NVIDIA GeForce GTX 570 schon in Kürze?

Hardwareluxx - NVIDIA GeForce GTX 560: Startschuss schon im neuen Jahr?

geforce gtx 560 release date

GeForce GTX 560 < VideoCardz.com >

GTX 560 Specs and Release Date Leaked - Softpedia

Hardwareboard.eu - Neue Gerüchte rund um die GeForce GTX 560

http://www.fudzilla.com/graphics/item/20835-geforce-gtx-560-comes-next-year-has-384-shaders

Ps.: Bitte nicht schlagen ist mein erster Sammel Fred!
 
Zuletzt bearbeitet:
Lohnt sich die 560er auch in einem alten system mit pci-e 1.1 und xp 32 ?
oder kann die mit dx 9.0c gar nicht ihre stärken ausspielen?

Dann würd ich nämlich die 460er nehmen.
also pcie 1.1 16x ist überhaupt gar kein problem; performanceverlust ist minimal.
und ich persönlich fahr im moment auch noch auf xp32, weil ich vista einfach scheiße fand. bei mir gab es bislang kein spiel, das ich gar nicht spielen konnte, und einige, bei denen ich nicht die höchste quali genießen konnte (wofür die ersten dx10 karten meist eh nicht ausreichten oder was wie bei crysis nur abgekartetes spiel war zur konsumförderung). das featureset der 460 gleicht der 560; nur dass die 560 halt grob 1/4 schneller ist. 560 lohnt sich allemal und wird unter xp32 zwar nicht voll ausgereizt, aber in ähnlichem maße wie die 460 auch...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ok, danke für die Information. Dann endscheide ich einfach nach Preis und Verfügbarkeit.

Die 560er kostet noch +- 70 Euro mehr als die 460er :/
 
Scheint ja ein ziemlicher Run auf die EVGA und die GTX 560 im Allgemeinen zu sein.
Hoffentlich klappt es diese Woche noch mit der Lieferung meiner EVGA...
 
An die Leute die 950 MHz mit Standard-VCore hinbekommen:
Ist das 100% stabil? Wie ist eure Standard-VCore?
Bei mir laufen 950/1900/2100 MHz mit 1,087 Volt nicht 100% stabil.
Temp sieht gut aus, 62°C bei 50% Drehzahl (leise, aber nicht unhörbar!), daran liegt es also nicht.

MfG :cool:
 
An die Leute die 950 MHz mit Standard-VCore hinbekommen:
Ist das 100% stabil? Wie ist eure Standard-VCore?
Bei mir laufen 950/1900/2100 MHz mit 1,087 Volt nicht 100% stabil.
Temp sieht gut aus, 62°C bei 50% Drehzahl (leise, aber nicht unhörbar!), daran liegt es also nicht.

MfG :cool:

Ja ist es. Std-VCore bei mir ist 1,025. 24/7 Settings ist 1000/2000/2300 @ 1,067V
 
Haltet ihr EVGA(GTX560) und die Gigabytekarte für gleichwertig was die Qualität und Verarbeitung angeht? Ich habe mich für die GigabyteOC entschieden und bin recht zufrieden.
 
Evga mag ein Ansehen als "Premiumhersteller" haben, aber ob sich das nun auch in besserer (Hardware-)Qualität äußert sei mal dahin gestellt, zumal Evga doch meistens nach Referenzdesign fertigt.

Gigabyte scheint sich da mehr Gedanken zu machen, was eine leise und effiziente Kühlung anbelangt, aber Gigabytes Ruf als Grafikkartenhersteller ist denke ich nicht so gut, wie der von Evga. Zumal auch einige bei der GTX460 und auch schon bei der GTX560 von Spulenfiepen (vermehrt) bei den Gigabyte-Karte berichtet hatten.

Aber schlechte Karte kann man von allen Herstellern erwischen.
 
spulenfiepen ist ein no-go für mich.

hey ist denn keiner so begeistert von der icy vision kompatibilität?

das wär doch super:
-ref design von evga wegen super support
-baseplate drauflassen
-icy vision für 35€
-2 gute 92x25er @600rpm drauf
:love:
 
Zuletzt bearbeitet:
Ja ist es. Std-VCore bei mir ist 1,025. 24/7 Settings ist 1000/2000/2300 @ 1,067V

Dann scheint die MSI sehr gut zu gehen! :d

@huijuijuijuijui
Ein Kühlerwechsel ist beim Referenzdesign unnötig.

MfG :cool:
 
auf der POV Seite ist jedoch kein Referenzdesign aufgelistet, es kann sein, dass das Bild bei HWV einfach nur falsch ist

Ja, denke ich auch,
Es gibt soweit ich weiß, die eine "normale" mit dem großen Lüfter, und drei OC Modelle mit besserer Spannungsversorgung und je drei Lüftern.

---------- Beitrag hinzugefügt um 10:58 ---------- Vorheriger Beitrag war um 10:56 ----------

spulenfiepen ist ein no-go für mich.

hey ist denn keiner so begeistert von der icy vision kompatibilität?

das wär doch super:
-ref design von evga wegen super support
-baseplate drauflassen
-icy vision für 35€
-2 gute 92x25er @600rpm drauf
:love:

Hört sich zwar gut an, aber bei Ref. Karten wie EVGA, Club 3D, Sparkle, PNY ist das denke ich nicht nötig.
 
Dann scheint die MSI sehr gut zu gehen! :d

@huijuijuijuijui
Ein Kühlerwechsel ist beim Referenzdesign unnötig.

MfG :cool:

Wieso unnötig? Im Idle ist der Lüfter zu laut. Gut, man könnte auch nur den Lüfter austauschen (so hatte ich das damals bei der GTX460 gemacht) oder gibt es schon die Möglichkeit, die Drehzahl im Idle weiter abzusenken?
 
@huijuijuijuijui
Ein Kühlerwechsel ist beim Referenzdesign unnötig.
ansichtssache. ich hab gehört der läuft im idle auf 30% mit 1100 rpm und wär n tick lauter als ne gtx 460 idle und unter last soll der sogar noch lauter als im idle werden. das ist mir immer noch viel zu laut. ich hab im moment nur 120 mit 450 rpm und ne dick eingepackte und entkoppelte festplatte. bei 92er lüftern wärn 600 rpm das limit.
ich dachte zuerst auch die gtx 560 wär leise weil das viele schreiben in den tests. und im vergleich zu manch anderen brüllwürfeln ist sie wohl auch leiser. aber das ist wohl alles relativ.

ich bin halt gewöhnt, meinen pc versehentlich aus- statt einzuschalten, wenn der monitor aus ist und ich ihn angelassen hab und das über die zeit vergessen hab.

außerdem find ich ne lüftersteuerung voll hirnverbrannt. mein kumpel hat n relativ leisen pc, aber der ändert sein geräusch immer. das find ich nervig.
ich regel sogar meinen monitor nur auf 4 bestimmten helligkeiten, da sonst die stromversorgung geräusche macht :d

also mein pc muss unhörbar sein und das unhörbare sollte nicht schwanken :d

gibts keine ähnlichdenkenden hier?

@topace: mit nem bios mod wirds vielleicht gehn.
 
Zuletzt bearbeitet:
Doch mich! :)

Für mich muss ein Rechner auch nahezu unhörbar sein. Von daher wäre mit der Referenlüfter der GTX560 auch zu laut. Und du glaubst garnicht, wie lange ich einen Monitor gesucht hatte, der bei reduzierter Helligkeit nicht surrt.
 
Zuletzt bearbeitet:
mich auch, schwankende Lüfterdrehzahlen finde ich auch extrem nervig
am besten alle Lüfter knapp unter der Schmerzgrenze laufen lassen und das sowohl im Idle als auch unter Last

der Mensch ist eben ein Gewohnheitstier und mag keine Veränderungen :)
 
auf der POV Seite ist jedoch kein Referenzdesign aufgelistet, es kann sein, dass das Bild bei HWV einfach nur falsch ist

Bei Google gibt es mehrere Bilder der Karte...
Sehr verwirrend. Vermute aber auch fast, dass HWV ein falsches Bild hatte.
Den POV eigenen Kühler finde ich extrem hässlich.
 
nix undervoltet :fresse:

stand hier aber nicht mal ein paar seiten weiter vorn das eine zu niedrige VID nicht gut sein soll?
 
nix undervoltet :fresse:

stand hier aber nicht mal ein paar seiten weiter vorn das eine zu niedrige VID nicht gut sein soll?

Wenn nvidia die VID so einstuft wie Intel, dann heißt dass, dass je geringer die VID, desto schlechter die Güte der GPU und desto größer die Leckströme. Damit die GPU dann noch innerhalb der TDP bleibt, muss die Spannung entsprechend niedrieger sein, das bedeutet aber auch, dass die GPU wärmer wird, als eine mit höherer VID.

Im Prinzip könnte man sagen ist die VID ein Grenzwert für die Spannung, damit die TDP nicht überschritten wird.
 
Wenn nvidia die VID so einstuft wie Intel, dann heißt dass, dass je geringer die VID, desto schlechter die Güte der GPU und desto größer die Leckströme. Damit die GPU dann noch innerhalb der TDP bleibt, muss die Spannung entsprechend niedrieger sein, das bedeutet aber auch, dass die GPU wärmer wird, als eine mit höherer VID.

Im Prinzip könnte man sagen ist die VID ein Grenzwert für die Spannung, damit die TDP nicht überschritten wird.

Wahrscheinlich ist das, ... auch wenn öfter mal Messungen dagegen sprechen.

Dennoch, auch wenn der Chip als schlecht eingestuft wird, geht oftmals die mit kleiner VID besser.
 
Mit besser gehen, meinst du, dass die GPU insgesamt mehr Takt schafft oder aber für den gleichen Takt weniger Spannung benötigt?
 
Beides in der Regel.
Aber der höchste Takt wird meistens mit kleinen VIDs erreicht, ähnlich wie bei CPUs.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh