NVIDIA präsentiert die GeForce GTX 1060

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Respekt, du musst ja dann starke Nerven haben wenn es so kommt...... :fresse: :haha: :rofl:

oder evtl auch du? mir ist es relativ egal.. sollte nvidia mit der 1060 nicht das erreichen was ich mir vorstelle Kaufe ich die Karte nicht..aber eine rx 480 kauf ich auch sicher nicht 😉

Gesendet von meinem SM-G920F mit der Hardwareluxx App
 
oder evtl auch du? mir ist es relativ egal.. sollte nvidia mit der 1060 nicht das erreichen was ich mir vorstelle Kaufe ich die Karte nicht..aber eine rx 480 kauf ich auch sicher nicht ��

Wer? Ich? - Nö bloß nicht...... neeee da gibt es schöneres.....

Edit:
Beim egal sein sind wir schon zu weit... ;)
 
Aus der o.g. Übersicht stimmt gar nichts außer die Rechtschreibung ;) Die 1060 wird definitiv in keinem Fall außer vielleicht pCars 30% vor der RX480 liegen. Nie und nimmer!

Weiss man schon wer den Sammler zur 1060 erstellt?

Sammler werden merist erst nach NDA-Fall erstellt ;) Geduld Geduld... Bringt ja nichts, den Sammler auch noch mit Spekulationen zuzustopfen.
 
Ich würde ja mal die Custom RX 480 VS Custom 1060 Tests abwarten. Mal sehen wo man dann bei den OC Modellen die meiste Performance fürs Geld bekommt.
 
Halte ich für fraglich. Es wurde auch die Spannungsversorgung arg beschnitten - evtl. um die Effizienz zu erhöhen. Aber eine Ti könnte nicht höher takten - somit könnte man mit den zusätzlichen MOSFETs gar nichts anfangen... Eventuell war es auch tatsächlich sehr eilig und man hat das PCB vom Prototypen genommen, einzelne Bauteile entfernt und direkt in Produktion gegeben?
Trotzdem könnte natürlich noch eine Version mit 8GiB geplant sein.
Was hat denn die Spannungsversorgung der GTX 1060 mit dem (möglicherweise 256Bit) Speicherinterface des GP106 zu tun?
 
Auf das 256Bit- Interface kann man daraus schließen, dass Plätze für Speicherchips fehlen. Das PCB ist also auf 8 Chips ausgelegt. Und 256 sind 25% mehr als 192. Und 192 sind bei 6GiB angegeben. Es könnte aber auch so sein, dass die Karte nicht etwa für 8, sondern für 4GiB mit 8 kleineren Chips vorbereitet wurde, weil 3GiB schwachsinnig sind:)

Es könnte aber auch eben wie gesagt sein, dass man es eilig hatte und ein Testboard- Layout, was gut funktionierte, dafür benutzt hat, weil man keine Zeit aufwenden wollte, es komplett neu zu designen und voll auch den Chip zuzuschneiden. Für den Kunden ist es ja wurscht ob da unbelegte Plätze sind oder nicht.
 
Auf das 256Bit- Interface kann man daraus schließen, dass Plätze für Speicherchips fehlen. Das PCB ist also auf 8 Chips ausgelegt. Und 256 sind 25% mehr als 192. Und 192 sind bei 6GiB angegeben. Es könnte aber auch so sein, dass die Karte nicht etwa für 8, sondern für 4GiB mit 8 kleineren Chips vorbereitet wurde, weil 3GiB schwachsinnig sind:)

Es könnte aber auch eben wie gesagt sein, dass man es eilig hatte und ein Testboard- Layout, was gut funktionierte, dafür benutzt hat, weil man keine Zeit aufwenden wollte, es komplett neu zu designen und voll auch den Chip zuzuschneiden. Für den Kunden ist es ja wurscht ob da unbelegte Plätze sind oder nicht.
Was hat deine Antwort jetzt mit meiner Frage zu deinem ursprünglichem von mir zitiertem Text zu tun :confused:
...sorry, aber irgendwie habe ich das Gefühl du zitierst mich bzw. antwortest mir, aber schreibst eigentlich einem Anderem?!

Mein ursprünglicher Beitrag mit den verschieden PCB Speicherbestückung samt GP106 sollte einfach nur aufzeigen, das der GP106 möglicherweise doch ein größeres (256Bit) Speicherinterface inne hat, als nVidia aktuell mit der GTX 1060 samt 6GB @ 192Bit bereit ist zu zeigen. Das nVidia auf zwei völlig verschiedenen Grafikkarten Layouts (ATX PCIe x16 vs Notebook MXM3.0B) mit GP106 Grafikchip die identische Speicherchip-Überbestückung antestet, ist schon echt kurios.

Zumal nVidia beim Drive PX2 schon bei der ersten Präsentation mit GTX 980M Grafikkarte und deren Testläufen sicherlich ziemlich klar war, das die GP106 Release Version ein deutlich kleineres Speicherinterface als auch Speicherbestückung benötigen wird. Es also nicht mal notwendig gewesen wäre nen MXM Board mit 6 Speicherplätzen zu entwickeln, geschweige denn mit 8 Chips. Es sei denn man wollte gleichzeitig ausloten was der GP106 mit vollem 256Bit SI in der Lage ist zu leisten, für mögliche Notebook Ableger sehr interessant zu wissen.

Vielleicht ist auch diese GTX 1060 mit 6GB @ 192Bit einfach nur ein Tribut an den Preis gewesen, um nicht wesentlich teurer als die RX 480 heraus zu kommen und die Marge hoch zu halten. Die weggefallenen 2GB Speicher samt Speicherbandbreite hätten vielleicht eher vernachlässigbar Leistung gebracht und so spart sich nVidia lieber den Preis und Arbeitsschritte der zwei Speicherchips beim RX 480 Konkurrenten.

Naja, mal abwarten was die GTX 1060 schlussendlich leisten wird, egal welches Speicherinterface der GP106 nun wirklich inne hat :)
 
Zuletzt bearbeitet:
Stimmt eigentlich die folgende Rechnung (Fundstück aus dem CB Forum)?

CB Forum schrieb:
Die GTX1080 hatte 256bit mit 5000MHZ bei 20 Shaderclustern -> 16,0GB Bandbreite je Cluster
Die GTX1070 hatte 256bit mit 4000MHZ bei 15 Shaderclustern -> 17,1GB Bandbreite je Cluster
Die GTX1060 hatte 192bit mit 4000MHZ bei 10 Shaderclustern -> 19,2GB Bandbreite je Cluster (+20% zu GTX1080)

Dies könnte eine weitere Erklärung sein, warum die GTX 1060 als "halbe GTX 1080" schneller als 1/2 x GTX1080 ist.

Und wieviel Platz im VRAM verbrauchen eigentlich die gleichen Texturen in einer GTX 1060 gegenüber einer RX 480? Ich meine, die Daten werden bei Nvidia deutlich stärker komprimiert - entsprechen die 6 GB dann in Wirklichkeit (entpackten) 7 GB oder sogar 8 GB?

PC Welt schrieb:
Dank des gewachsenen Caches und der Kompression soll es Maxwell möglich sein, nun bis 25 Prozent weniger Bytes pro Bild aus dem Speicher holen zu müssen.
 
Zuletzt bearbeitet:
Das kannst du nicht so einfach sagen. "Bis zu" ist das Zauberwort weil es immer Quellenabhängig ist.
 
Stimmt eigentlich die folgende Rechnung (Fundstück aus dem CB Forum)?

Dies könnte eine weitere Erklärung sein, warum die GTX 1060 als "halbe GTX 1080" schneller als 1/2 x GTX1080 ist.

Und wieviel Platz im VRAM verbrauchen eigentlich die gleichen Texturen in einer GTX 1060 gegenüber einer RX 480? Ich meine, die Daten werden bei Nvidia deutlich stärker komprimiert - entsprechen die 6 GB dann in Wirklichkeit (entpackten) 7 GB oder sogar 8 GB?
Sowohl für AMD als auch Nvidia Hardware wird seitens OpenGL und Vulkan einfach ASTC genutzt, ebenso verhält es sich unter DX. Dort nutzt man eben die klassischen BC Level, aktuell BC6H oder BC7. Je nachdem ob HDR her muss oder nicht.

Deine von PC Welt zitierte 25% Aussage bezieht sich auf den Generationenwechsel bei Nvidia wonach die ganze Maxwell GPU auf einen 2048KB L2 cache zugreift und - laut Nvidia - im Vergleich zum Vogänger 25% weniger Bytes pro Frame über den Bus geschoben werden müssen. Halt eine Nvidia aussage, sollte man also nicht wirklich ernst nehmen.
 
Also 279 Euro soll die Preisempfehlung der GTX 1060 sein. Das hört sich mal wieder sehr verlockend an. Aber was ist genau damit gemeint ? Sicherlich keiner Empfehlung auf irgend einer noch folgenden Reviewseite.
Damit sind natürlich die billigen Customs mit den noch schlechteren Board- und Kühldesign gemeint oder sollte ich eher sagen die günstigste Variante, die eh keiner kaufen will ?
KFA² GeForce GTX 1080 Preisvergleich | Geizhals Deutschland

Die brauchbaren Customs werden sich wohl eher preislich in Richtung FE orientieren und je nach Beliebtheit auch mal darüber.
Sorry, wenn ich so genau hinschaue.
 
Wenn ich alle Info zusammen hole sieht das doch in etwa so aus:

48 ROPs von denen nur 32 mit voller Geschwindigkeit nutzbar sind.

1060 3GB = 1152 Cores
1060 6GB = 1280 Cores

GP104 auf 1152 cores kastriert ....

Oder hab ich was übersehen :confused:
 
Für euch
rop = raster operation prozessor einfach gesagt die Bildpunkte des Monitors bsp 1920-1080 ergibt dann die pixel fill rate mit dem shader in megapixel
TMU = Texture Mapping Unit Die Dreiecke die dargestellt werden können in der Auflösung (kurz die texturauflösung) mal shader = texture fill rate Ergebnis in megatexel
Rechenleistung shader mal gpu takt mal 2 ist t/flops

48rop werden nicht von den shader beschränkt weil diese allein da sind und lediglich die pixel für die maximale Auflösung sind
Also indemfall 4k (gtx 1600)
Die shader sind klar in 128 Blöcke gestaffelt.
10 sind es in der 6gb version (1280 shader) und 9 bei der 3gb version (1152)
Die texelfüllrate ist dagegen schon wichtiger weil diese die details im Bild je Auflösung darstellen
das geht nur soweit bis die Bildpunktanzahl übertroffen wird. derzeit nicht möglich.
 
Zuletzt bearbeitet:
Die brauchbaren Customs werden sich wohl eher preislich in Richtung FE orientieren und je nach Beliebtheit auch mal darüber.
Sorry, wenn ich so genau hinschaue.

Echt? Bessere Kühler kosten mehr als schlechtere Kühler? Seit wann ist das denn so?

Vermutlich aber nur bei Nvidia, oder? Oh, warte - Custom Preise der RX 480 für die Nitro und Devil kommen rein... 300 Euro. Auch mehr als 269 Euro.

Sorry, wenn ich so genau hinschaue.
 
gut gekontert tardis lass dir nix gefallen ;) ;)

Gesendet von meinem SM-G920F mit der Hardwareluxx App
 
Custom Preise der RX 480 für die Nitro und Devil kommen rein... 300 Euro. Auch mehr als 269 Euro.

Ich gehe eher von 280€ aus. Selbst Overclockers UK, die die Karten dauernd Lichtjahre vor Release überteuert zur Vorbestellung freigeben, verlangen nur 300€ dafür.
Edit: Die Referenz- 480 stand übrigens für ca. 310 oder 320 drin, bevor sie rauskam, wenn ich mich nicht täusche..
 
Zuletzt bearbeitet:
Echt? Bessere Kühler kosten mehr als schlechtere Kühler? Seit wann ist das denn so?

Customs kosten eben mehr. War schon immer so. Aber hier wird suggeriert, das die Customs nur 279 Euro kosten sollen. Das ist eben nicht richtig.

Vermutlich aber nur bei Nvidia, oder? Oh, warte - Custom Preise der RX 480 für die Nitro und Devil kommen rein... 300 Euro. Auch mehr als 269 Euro.

Sorry, wenn ich so genau hinschaue.

300 Euro wo ?
Gibt bis jetzt keine UVP der Customs von der RX480 !

Und warum entschuldigst du dich ? Du hast ja recht damit !
Hier wird eine Referenzkarte(PBC) mit schlechteren Kühler als Referenz als Customdesgin verkauft und jeder glaubt dann, dass der Preis für alle folgenden Customs genauso ist, welche den Namen Custom wenigstens verdienen. Das ist eben objektiv gesehen absolut falsch und ist nur ein Vorzeigepreis, den eh keiner nutzen wird.

Wer dran glaubt, der soll es auch. ;)
 
Stimmt eigentlich die folgende Rechnung (Fundstück aus dem CB Forum)?



Dies könnte eine weitere Erklärung sein, warum die GTX 1060 als "halbe GTX 1080" schneller als 1/2 x GTX1080 ist.

Schon die 1070er ist pro Shader und Takt schneller als die 1080er... Mit der Bandbreite hat das eher wenig bis nix zu tun.
Mal davon ab, die Rechnung bzw. Aufstellung lässt den Takt vermissen. Es geht ja nicht um Shader-Einheit pro SI-Einheit (platt gesprochen), sondern um Leistung der Shader (heist Einheitenanzahl * Taktrate) pro Speicherbandbreite (heist SI-Breite * Takt)
Dazu kommt, die Tests bis dato haben gerade bei der 1080er eher ergeben, dass obenraus das PT deckelt. Sprich die Karte ist Powerlimitiert (zumeist). Wenn also die 1060er weniger stark ins Limit rennt, wird auch mehr Leistung pro Shader und Takt bei rum kommen. Gleiches gilt natürlich auch für die 1070er.

Und wieviel Platz im VRAM verbrauchen eigentlich die gleichen Texturen in einer GTX 1060 gegenüber einer RX 480? Ich meine, die Daten werden bei Nvidia deutlich stärker komprimiert - entsprechen die 6 GB dann in Wirklichkeit (entpackten) 7 GB oder sogar 8 GB?

Das lässt sich so nicht direkt benennen. Bzw. benennen schon, aber es wäre ein unsinniger Vergleich. Was für Daten im VRAM liegen hängt vom Speichermanagement ab. Und hier unterscheiden sich NV und AMD je nach Messung und Spiel teils deutlich, selbst bei gleichem Speicherausbau.
Von daher ist die Frage eigentlich völlig wertlos, da der entscheidende Punkt eben ist, welche Daten überhaupt vom Speichermanagement im VRAM gehalten werden im Vergleich.
Wenn angenommen NV mehr Daten im VRAM hält als AMD, dann wird natürlich auch mehr Platz absolut benötigt... Das heist aber nicht, dass es zu Problemen kommen muss. Denn wiederkehrende Texturen sind ggf. schon drin und müssen nicht erst nachgeladen werden.

Für euch
rop = raster operation prozessor einfach gesagt die Bildpunkte des Monitors bsp 1920-1080 ergibt dann die pixel fill rate mit dem shader in megapixel
TMU = Texture Mapping Unit Die Dreiecke die dargestellt werden können in der Auflösung (kurz die texturauflösung) mal shader = texture fill rate Ergebnis in megatexel
Rechenleistung shader mal gpu takt mal 2 ist t/flops

48rop werden nicht von den shader beschränkt weil diese allein da sind und lediglich die pixel für die maximale Auflösung sind

Mhhh irgendwie steht hier viel unsinn...
A) "pixel fill rate mit dem shader in megapixel" -> was haben die Shader bei der Pixelfüllrate zu suchen? Nix... Auch hat das weniger mit der direkten Monitor Auflösung zu tun, denn es gibt eine Menge zusätzlichem Stuff, der dort Pixelfüllrate "frisst". Auch bzw. gerade in neueren Titeln. Die Pixelfüllrate wird errechnet in ROPs * deren Takt = Pixelfüllrate in MPix/sec.
B) "Texture Mapping Unit Die Dreiecke die dargestellt werden können in der Auflösung (kurz die texturauflösung) mal shader = texture fill rate" -> wieder die Shader, was haben die da zu suchen? Nix... Die Texelfüllrate errechnet sich durch die Anzahl der TMUs * deren Takt = Texelfüllrate in MTex/sec.
C) "Rechenleistung shader mal gpu takt mal 2 ist t/flops" -> wieso pauschal mal 2? Auch unsinn... Die 2 steht dort, weil eine ALU gängier GPUs heute ein MADD "pro Takt" kann. Das heist also Shaderanzahl * Takt in GHz * 2 (weil multiple ADD). Der G80/G200 bei NV konnte bspw. noch MADD + MUL (zumindest theoretisch), weswegen dort eine 3 stand. Die VLIW5 GPUs bei AMD haben dort eine 10 stehen. Die VLIW4 eine 8. Weil ein "MADD" * fünf "Dimensionen" bzw. vier "Dimensionen".
Das gilt allerdings primär für FP32 aka einfache Genauigkeit. Bei doppelter Genauigkeit oder FP16 sieht das wieder anders aus... Vor allem bei letzterem, der GP100 von NV kann FP16 mit doppelter FP32 Geschwindigkeit, weil pro Shadereinheit einfach zwei FP16 Themen hinten rauskommen. -> dort ist also die "2" eher eine "4". Zusätzlich hat der GP100 dedizierte FP64 Einheiten in halber Anzahl der FP32/FP16 mixed Einheiten, wenn ich das richtig in Erinnerung habe... Dort bleibt die 2 für MADD bestehen.
D) "48rop werden nicht von den shader beschränkt weil diese allein da sind" -> auch irgendwie komisch. ROPs sind nicht alleine da... Üblicherweise werden diese in einem gewissen Verhältnis zum SI bzw. dem L2 Cache gekoppelt. Ein Grund, warum bei der 970er durch abknipsen eines der acht Interconnect Beinchen auch ROPs und L2 Cache brach liegen/lagen.

Customs kosten eben mehr. War schon immer so.

War vielleicht mal, seit NV die Founders Edition vertreibt ist es aber zumindest bei NV nicht mehr der Fall...
Natürlich können die aufwendigeren Customs auch mehr kosten... Aber das war ja gar nicht seine Aussage. Custom schließt in dem Fall ALLES außer dem Ref. PCB/Kühler ein... Und hier heist es bis dato mit Pascal, Ref. = teurer, Customs = günstiger. :wink:
Einfach mal abwarten...
 
Customs kosten eben mehr. War schon immer so. Aber hier wird suggeriert, das die Customs nur 279 Euro kosten sollen. Das ist eben nicht richtig.

So, so... es wird hier suggeriert, dass die Customs "nur 279 Euro" kosten. So wie ich hier gestern schrieb:

Schön, dass in dem Reviewer Guide Dokument noch einmal der Hard Launch bestätigt wurde - sowohl für die Referenz- als auch die Custom-Modelle.

Erste GTX 1060 Custom Modelle können in den USA schon ab $259 (280€ inkl. MwSt) vorbestellt werden:
https://www.sabrepc.com/zotac-zt-p10600a-10l-geforce-gtx-1060-graphics-card.html

Oder wie ich hier vor drei Tagen schrieb:

Zum Glück gehen die GTX 1060 Customs schon ab 279 Euro los und es könnte sein, dass es sie sogar vor den RX 480 Customs (die bestimmt 300 Euro kosten werden), zu kaufen geben wird.

Komisch, dass es dich weitaus weniger gestört hat, als hier suggeriert wurde, dass alle GTX 1060 Customs über 300 Euro kosten werden...


https://www.overclockers.co.uk/powe...ddr5-pci-express-graphics-card-gx-188-pc.html
https://www.overclockers.co.uk/sapp...ddr5-pci-express-graphics-card-gx-37b-sp.html

Könnt ihr AMD Trolle nicht in eurem RX 480 Thread bleiben? Ihr interessiert euch doch eh nicht für die GTX 1060 - und hier nur in den Thread kommen, um Stunk zu machen, hat Hardwareluxx nicht nötig.
 
Zuletzt bearbeitet:
Customs kosten eben mehr. War schon immer so. Aber hier wird suggeriert, das die Customs nur 279 Euro kosten sollen. Das ist eben nicht richtig.

Es wurden die RX 480er teilweise für 235€ verkauft - ohne Gewinn macht das wohl niemand, besonders nicht mehrere. Dass die Preise allgemein noch so stabil bei 270€ lagen und jetzt teilweise schon steigen liegt sicherlich an der starken Nachfrage -> bei vielen Shops ist die Karte bereits nicht mehr lieferbar.
AMD kann den Preis sicherlich noch drücken und ich bin mir sehr sicher, dass sie das auch tun werden, wenn Nvidia in den Preiskampf einsteigt, weil selbst wenn AMD damit nur kostendeckend agieren könnte, ist das Wichtigste AMDs Grafikkartensparte, den Marktanteil zu steigern und Werbung für Vulkan etc. zu machen. Sonst können sich ihre GPUs mit noch so großer Rechenleistung tot arbeiten, weil die Entwickler keinen Anreiz haben, Spiele für AMD- Hardware zu optimieren. Auch DOOM zeigt wieder, wie gut LowLevel APIs die Rechenstarken Chips auslasten können, wenn man es nur will...

Edit:
Könnt ihr AMD Trolle nicht in eurem RX 480 Thread bleiben? Ihr interessiert euch doch eh nicht für die GTX 1060
Jetzt sehe ich auch gerade, dass es gar nicht der RX 480- Thread ist. Warum hast Du denn überhaupt damit angefangen? :d
 
Zuletzt bearbeitet:
.... lasst doch den pickepuh in ruh! Der hat sich im 480er thread mehrmals deutlich gg. "Undercoverheuchler" ausgesprochen, naja, zumindest die die kritisch der RX480 gegenüberstehen/standen. Ich kann jetzt nicht glauben das er jetzt selber so hier agiert ;)
 
Könnt ihr AMD Trolle nicht in eurem RX 480 Thread bleiben? Ihr interessiert euch doch eh nicht für die GTX 1060 - und hier nur in den Thread kommen, um Stunk zu machen, hat Hardwareluxx nicht nötig.

He nicht alle in den Topf werfen ^^, ich interessiere mich auch für die 1060, aber rein auf technischer Ebene....
 
Und hier heist es bis dato mit Pascal, Ref. = teurer, Customs = günstiger. :wink:

Jo.

Wobei der Referenzkühler der GTX 1060 durchaus wie ein brauchbarer DHE Kühler aussieht. Im Gegensatz zum RX 480 Referenzkühler unter dessen Platikgehäuse sich ein winziger Kühlkörper befindet, der zu unerträglichem Lärm unter Last führt. Dagegen hat die GTX 1060 unter ihrer Aluminiumhülle einen Kühlkörper, der wenigstens den Raum ausfüllt und weitaus leiser ans Werk geht.

Es macht schon Sinn, dass der Nvidia Referenzkühler mehr kostet als z.B. der weiter oben verlinkte Zotac Billig-Kühler der 280 Euro Karte. Bei der RX 480 stellt der Refernzkühler schon das billigste und funktional niedrigste Niveau dar. Schlechter und damit billiger kann einfach kein Custom Kühler mehr sein.

- - - Updated - - -

.... lasst doch den pickepuh in ruh! Der hat sich im 480er thread mehrmals deutlich gg. "Undercoverheuchler" ausgesprochen, naja, zumindest die die kritisch der RX480 gegenüberstehen/standen. Ich kann jetzt nicht glauben das er jetzt selber so hier agiert ;)

Wieso ist Pickebuh überhaupt hier - war er nicht gebannt? Oder verwechsele ich ihn?

- - - Updated - - -

He nicht alle in den Topf werfen ^^, ich interessiere mich auch für die 1060, aber rein auf technischer Ebene....

Faszinierend, wer sich so alles angesprochen fühlt, obwohl ich ja primär mit Pickebuh geredet habe. Das "ihr" war ein Falle.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh