Gigabyte kürzt GeForce GTX 1070 auf 170 mm

Ohne AMD wären wir immer noch mit 32 Bit CPUs unterwegs und hätten weder GDDR5 noch HBM auf den Grafikkarten sowie auch kein DX12 und Vulkan. Schließlich hat hier die Pionierarbeit mit Mantel erst den Stein ins Rollen gebracht.

ja genau und NV hätte mal alle 10 Jahre ne Handvoll Karten verkauft, man braucht ja nicht aufrüsten .............. du hast die Marktwirtschaft verstanden ......... möchte ich ein profitables Unternehmen mit jährlicher Gewinnsteigerung, dann hole ich mir zukünftig Tips bei dir :stupid:

natürlich gebe ich dir Recht wenn man am Ars** ist dann fängt man an in jedem Misthaufen zu stochern, sonst weiß womöglich morgen schon nur noch die alten was AMD bedeutet ....................... das als Pionierarbeit zu verkaufen und den Leuten noch so eine RX 480 Bretzel vor die Füße werfen son Flop auch.

Schade das AMD im Moment nichts gegen NV zu setzen hat, hoffe das da Zen was reißt sonst wird es dunkel um die Jungs. Wäre schade
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es nützt nur nichts wenn man die GPU künstlich beschränkt. Wenn ich eine 980Ti mit einer Fury vergleiche, sehe ich mehr Speicher und viel mehr OC-Spielraum bei der 980. Selbst wenn man nicht übertaktet wäre bei der Fury der Speicher bereits das Ausschlusskriterium. Selbst auf 1080p kann man 4 GB problemlos erreichen. Dabei machen die 3xx Rebrands Zukunftssicherheit vor, es ist äußerst merkwürdig warum AMD das nicht bei der Fury tat. 512-bit GDDR5 wären immer noch besser als bei der 980Ti gewesen, dazu gleich 8 GB VRAM.

Also ich hab bei 5890x1080 (inkl Bezel Korrektur) so maximal 60 ~70% memory usage in allen Spielen. Insofern sind die 4GB echt ok. Ist halt von Vorteil wenn die Bandbreite so hoch ist und die GPU nicht alles bei nem lächerlichen Bus von 192 oder maximal 256 Bit alles cachen muss, wo sonst die Performance abschmieren würde.

Ich erinnere gerne immer an die PS2, die trotz 4 MB(!) Speicher an der GPU auch am Ende noch einzelne Titel wie GT4 in 1080i raus gespuckt hat und Spiele mit großer Sichtweite und vielen Texturen auch kein Problem waren, da das Ding stets alles in Speicher geschoben hat. Große Busbreite ist halt Pflicht.
 
Zuletzt bearbeitet:
Ist halt von Vorteil wenn die Bandbreite so hoch ist und die GPU nicht alles bei nem lächerlichen Bus von 192 oder maximal 256 Bit alles cachen muss, wo sonst die Performance abschmieren würde.
Abermals: Die GTX1070/1080 wischen mit der Fury Riege den Boden auf, trotz 256-Bit Interface.
Abgesehen davon reichen die 4Gb ja heute schon nicht mehr aus, um bei den neuesten Games die maximalen Einstellungen zu aktivieren - siehe Doom.
 
Zuletzt bearbeitet:
Abermals: Die GTX1070/1080 wischen mit der Fury Riege den Boden auf, trotz 256-Bit Interface.

Lass es mich in einem für dich verständlichen Vergleich ausdrücken: Nvidia Technik ist ein alter Honda Civic, bei dem die Drehzahl bis zum Erbrechen gesteigert wird. Im grünen Lager dreht man seit 8 Jahren immer nur an der Taktschraube, anstatt Innovation zu präsentieren.
 
ich lach mich hier grad beim lesen des ein oder anderen post wirklich kaputt :haha:
 
Lass es mich in einem für dich verständlichen Vergleich ausdrücken: Nvidia Technik ist ein alter Honda Civic, bei dem die Drehzahl bis zum Erbrechen gesteigert wird. Im grünen Lager dreht man seit 8 Jahren immer nur an der Taktschraube, anstatt Innovation zu präsentieren.

Lass es mich in einem für dich verständlichen Vergleich ausdrücken ........ dann fahre ich sehr gerne den alten Honda Civic und Bretter mit 3 L auf 100km an dem Rohrkrepierer vorbei
 
Lass es mich in einem für dich verständlichen Vergleich ausdrücken ........ dann fahre ich sehr gerne den alten Honda Civic und Bretter mit 3 L auf 100km an dem Rohrkrepierer vorbei

Nur kostet dich halt der Civic 150k und das vergleichbare Auto mit wirklich aktueller Technik wäre günstiger.
 
Die GTX1070 ist das ungleich bessere Design, effizienter, schneller, doppelter Speicherausbau.


:rolleyes::wall:
Ja ist auch richtig. Nur war meine Aussage auf deine Äußerung zur effizienten Architektur bezogen. Bereits die nano hat das gut hinbekommen, trotz 28nm und nicht perfekter Architektur...

Die 1070 ist gut, deswegen interessiert mich die Karte ebenso. Jedoch warte ich immer ab, bis das Gegenprodukt der Firma x da ist ;) vielleicht wird vega dank tsmc Prozess doch anständig usw. Glofo 14 nm ist halt doch bockmist...


Gesendet von meinem HTC One mit Tapatalk
 
Ja ist auch richtig. Nur war meine Aussage auf deine Äußerung zur effizienten Architektur bezogen. Bereits die nano hat das gut hinbekommen, trotz 28nm und nicht perfekter Architektur...

Die 1070 ist gut, deswegen interessiert mich die Karte ebenso. Jedoch warte ich immer ab, bis das Gegenprodukt der Firma x da ist ;) vielleicht wird vega dank tsmc Prozess doch anständig usw. Glofo 14 nm ist halt doch bockmist...


Gesendet von meinem HTC One mit Tapatalk

der generationen sprung war allgemein sehr enttäuschend, wie ich finde.
 
ich lach mich hier grad beim lesen des ein oder anderen post wirklich kaputt :haha:

Kann ich auch nicht mehr ernst nehmen.

1080x3 ist nicht ansatzweise so hoch wie 4K. Den Fehler haben hier schon viele gemacht. Es sind 6,2 Millionen Pixel, gegenüber 8,2 bei echtem 4K. Das sind knappe 25 % weniger.

4 GB reichen bei manchen Titeln noch knapp, von der Zukunftssicherheit mit der manche AMD-Fanboys ihre Rebrands bewerben ist hier aber nichts zu sehen. Ich kann mit Gewissheit sagen, 3 GB auf 384-bit reichen nicht, mehr als mittlere Details bei Battleborn in 4K auf meiner 780 lässt die FPS unter 20 droppen.

Dass Nvidia nichts getan hat stimmt nicht, alleine Kepler war bereits ein großer Fortschritt da man keinen "Hot Clock" auf den Shadern mehr beließ. Nvidia schaffte es mit den Generationen unfassbare Taktraten zu erreichen. Man sollte bedenken, dass eine 1070 ähnlich viel verbraucht wie eine 480, aber das Doppelte leistet und ab Werk bereits 1,6 GHz hat. Die CPU in meinem ersten eigenen PC hatte 1,6 GHz. Richtig fortschrittlich wird es wenn man noch Takt draufgibt: Bei einer Fury sind 50 MHz ein gutes Ergebnis, bei einer Maxwell oder Pascal-Karte kann man auch 500 draufgeben, das teils ohne große Spannungsanhebung.

Ich befürchte leider dass auch Zen nichts wird. Nur mithalten wäre schon schön. Die 480 ist OK aber keine Meisterleistung auf Höhe einer 5000er AMD. Zu der Zeit war AMD seinem Gegenspieler haushoch überlegen. Dazu rollt Nvidia seine Produkte jetzt schon aus, die meisten zahlungswilligen Kunden haben sich bereits mit Fail Editions eingedeckt, preisbewusstere Kunden wie ich werden bald auch kaufen wenn die Customs kommen. Selbst wenn man AMD in Erwägung zieht haben sie nichts lieferbar. Vor dem Kauf der 1080Ti werde ich Vega erwägen, da HBM2 mir lieber wären als GDDR5X. Jedoch nur wenn die Leistung stimmt. Wenn die Ti Mass Effect in 4K maxt und Vega nicht, wird es die Ti. Die wird sich nämlich auch ähnlich wie die anderen Pascalkarten übertakten lassen.
 
Nur kostet dich halt der Civic 150k und das vergleichbare Auto mit wirklich aktueller Technik wäre günstiger.

schreib am besten 2 Millionen das werte jede günstige Krücke noch ein bissel mehr auf ...................... was nützt dir ein "Auto mit wirklich aktueller Technik wäre günstiger" wenn du mit 30 über die Autobahn juchtelst. Über das Wort "vergleichbare" lass ich mich mal lieber nicht aus
 
Mit GDDR5 und DVI gehört die 1070 schlichtweg direkt ins Museum.

HBM und mehrere DPs sollten da heute eine Grundausstattung sein.

Was nutzt dir ein schnelles Element wie HBM, wenn der Rest lahm ist?

Wenn du die Wahl zwischen zwei Systeme hast: ein lahmes System, in dem ein Element schnell ist und einem zweiten System, das als Gesamtsystem deutlich schneller ist - was wählst du dann? Lass mich raten: du wählst das AMD System.
 
Zuletzt bearbeitet:
Und wieso bitte keine 1080 Gigabyte?:motz: Eine 1080 auf einem kurzen PCB mit trotzdem solider Bestückung und ein passender Wasserkühler. Dann würde ich vermutlich zuschlagen. Aber mal sehen was die Zukunft bringt, vielleicht kommt mit Vega ja auch ein Nachfolger für die R9 Nano.

Auf jeden Fall schon mal besser als nichts!
 
Mich langweilen seit 7 jahren die AMD verfechter mit ihren argumenten
 
Die ist sowas von putzig :d

Sobald es eine WaKü für die gibt, ist sie gekauft :banana:
 
ich möchte nur mal einwerfen das die 1070 gtx im 16nm verfahren hergestellt wird und die nano im 28nm.
die nano gibts schon über ein halbes jahr, ich meine da ist klar das jetzt die nvidia schneller ist und weniger verbraucht.
und in ein paar monaten kommt dann ne nano 2 im 14nm verfahren raus und ist wieder besser als die nvidia karte.

das spiel geht immer so hin und her. verstehe daher auch diesen krieg zwischen grün und rot nicht. :stupid:
 
Bei einem Marktanteil von ~80% bei verkauften Grafikkarten ist eher G-Sync der Standard ;)

Zum Glück funktionieren Standards anders.
Ein Standard ist meist ein von einem Konglomerat herausgegebene und von den meisten bzw. Allen Herstellern akzeptierte genormte Spezifikation.

Im Fall von Adaptive Sync(freesync) ist das Teil des Displayport Standards (1.3a und folgende) den Intel, AMD, Matrox, Qualcom, Samsung etc. und so gut wie alle Monitorhersteller akzeptiert haben. Streng genommen hat auch Nvidia das akzeptiert. Aber anstatt den Industriestandard zu nutzen nimmt man dort lieber etwas propriäteres.

Dementsprechend agiert Nvidia entgegen der ausgehandelten Standards.
 
Zum Glück funktionieren Standards anders.
Ein Standard ist meist ein von einem Konglomerat herausgegebene und von den meisten bzw. Allen Herstellern akzeptierte genormte Spezifikation.

Im Fall von Adaptive Sync(freesync) ist das Teil des Displayport Standards (1.3a und folgende) den Intel, AMD, Matrox, Qualcom, Samsung etc. und so gut wie alle Monitorhersteller akzeptiert haben. Streng genommen hat auch Nvidia das akzeptiert. Aber anstatt den Industriestandard zu nutzen nimmt man dort lieber etwas propriäteres.

Dementsprechend agiert Nvidia entgegen der ausgehandelten Standards.

Gibt es nicht dieses FastSync? Ich wäre froh wenn Gsync auch AMD unterstützen würde. Dann bräuchte ich keine 780Ti für meinen Bildschirm. Leider ist das die einzige vollfunktionstüchtige GPU gewesen die im Preisrahmen lag. Eine 290X wäre sowohl preis- als auch VRAMtechnisch besser gewesen.

Andererseits will ich nicht 300 € Verlust bei meinem Monitor hinnehmen um dann an AMD gebunden zu sein oder auf Sync verzichten zu müssen. Und wenn AMD nichts liefert muss es wieder Nvidia sein. Die 1080Ti kann man inzwischen sehr gut abschätzen von der Leistung her.
 
MSI-GeForce-GTX-1070-Duke-Edition-4.jpg
 
Das Bild hat keinen Zusammenhang zu irgendwas gepostetem. Daher verstehe ich dieses kommentar lose Bild nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh