Ampere-Architektur von NVIDIA soll im April starten – Turing als Codename der ersten GeForce-Karte

Ich rüste einfach den Speicher auf. SSDs und HDDs sind ja wenigstens billig. Kürzlich gab es 500er EVOs für 99 € neu. Und am Wochenende habe ich mehr (Multicore-)Leistung im HTPC als in meinem Performancerechner. Da schlage ich lieber zu solange ich einen Ryzen für 260 e bekomme. CPUs sind billig wie nie, danke AMD. Ohne Ryzen würde Intel nämlich auch 2018 noch Vierkerner für 400 € servieren. Wenn die Gerüchte stimmen sollen so ziemlich alle Chips mindestens 20 % teurer werden, darum lieber jetzt das kaufen was noch bezahlbar ist. Ich will mir gar nicht vorstellen wie das für Leute sein muss die sich jetzt einen neuen PC bauen wollen. Selbst die billigste Einsteigerkarte kostet schon 180 €.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich rüste einfach den Speicher auf. SSDs und HDDs sind ja wenigstens billig. Kürzlich gab es 500er EVOs für 99 € neu. Und am Wochenende habe ich mehr (Multicore-)Leistung im HTPC als in meinem Performancerechner. Da schlage ich lieber zu solange ich einen Ryzen für 260 e bekomme. CPUs sind billig wie nie, danke AMD. Ohne Ryzen würde Intel nämlich auch 2018 noch Vierkerner für 400 € servieren. Wenn die Gerüchte stimmen sollen so ziemlich alle Chips mindestens 20 % teurer werden, darum lieber jetzt das kaufen was noch bezahlbar ist. Ich will mir gar nicht vorstellen wie das für Leute sein muss die sich jetzt einen neuen PC bauen wollen. Selbst die billigste Einsteigerkarte kostet schon 180 €.
Die Preise steigen noch so um 15-25%. Dann halt im Abverkauf zuschlagen, machte ich früher immer so. Bei den GPUs liegt das klar an den IHVs weil die nicht nachgeordert haben, es wäre möglich gewesen. Ist also mit von denen verursacht. Gab es schon mal, für meine alte Graka bekam ich damals mehr als sie neu gekostet hat. Schon krank irgendwie nach einem Jahr.;)

Nvidia wollte wohl später kommen, vermutlich hat das öffentliche Interesse und die Unzufriedenheit dazu geführt, dass sie vorziehen um die Gemüter zu beruhigen, hoffentlich kein Paperlaunch.
 
Zuletzt bearbeitet:
Ich habe letztes Jahr fast 600 € für meine gebrauchte 1070 kassiert. Sie hat 450 gekostet. Da war ich echt froh wie bescheuert manche Leute sind. 1070er teurer als 1080er... Als nächstes kommt dann wahrscheinlich CPU Mining und dann kostet ein Ryzen auch 600 €.
 
Nein, sicherlich nicht, aber wieso sollte Intel was ändern wenn es jetzt nur FX gäbe? Jedes Jahr 5 % Mehrleistung und einen neuen Sockel. So lief das seit 2011. Und das ist mehr als belegt.
 
Und deshalb würden die das auch die nächsten 10 Jahre so machen? Dir ist schon klar, dass die Leute irgendwann nichts mehr kaufen wenn der Fortschritt zu lange stagniert?
Außerdem ändert Intel innerhalb von ein paar Monaten den Plan und baut 2 Kerne mehr rein? Das ganze war bereits seit min. Mitte 2016 bekannt (wahrscheinlich schon früher, zumindest geahnt), d.h. bei Intel schon länger geplant. Jetzt möchte ich gerne deine Argumentation zum Zusammenhang von Ryzen und CL mit 6-Kernen hören. Vergiss dabei nicht die Geheimniskrämerei um Ryzen. ;)
 
Deswegen muss Nvidia jetzt noch 1 Jahr und einen Monat warten? Du hast echt eine Logik...
Aber wundert mich irgendwie auch nicht bei deiner Anzahl ein Beiträgen. Da kommt wie beim Holzmann halt auch viel Dünnpfiff raus...
Das schlimme ist ja, bei dir kommt nicht mal das - sondern nur heiße Luft, mir läuft es da noch warm am Ar**ch runter. Du wirkst manchmal wie ein trotziges Kind.

EoL bedeutet Nvidia arbeitet alle Bestellungen die bis November 2017 noch eingegangen sind ab, die können auch bis Mitte des Jahres 2018 reichen. Überleg doch mal selbst, als immer so großkotzig zu antworten. Das ist wirklich nur Dünnpfiff. Sie gehen dabei von einer Produktlinie von 2 Jahren aus (das muss sich irgendwie auch lohnen, denn GP102 ist was anderes als GP104), Architektur ist da mal egal und woran du dich ständig klammerst. Es gibt aus Herstellersicht auch keine Gründe dafür anders zu verfahren, die hast du doch groß rausposaunt und zig mal kommentiert. Das waren von der Architektur eher nur Evolutionsschritte als dann bemerkenswerte Änderungen.

Was für Beiträge - hier gibt es genug die in ein paar Jahren 10.000 tausende ansammeln, den Großteil meiner Beiträge verfasse ich im Hilfeforum oder im Vegathread.
 
@satuan
Du hängst dich doch aus purer Verzweiflung an Details wie Namen auf, nur damit irgendwie in deine seltsame Logik passt.
Aber wenn du meinst, dass die 1080Ti in einem Jahr noch das aktuelle Produkt ist, bitte. Ganz nebenbei: der GP102 wird nicht nur in der 1080Ti und TitanX verbaut.

"Es gibt aus Herstellersicht auch keine Gründe dafür anders zu verfahren, die hast du doch groß rausposaunt und zig mal kommentiert."
Wo habe ich geschrieben, dass man keine neuen Produkte bringen muss?
 
@satuan
Du hängst dich doch aus purer Verzweiflung an Details wie Namen auf, nur damit irgendwie in deine seltsame Logik passt.
Aber wenn du meinst, dass die 1080Ti in einem Jahr noch das aktuelle Produkt ist, bitte. Ganz nebenbei: der GP102 wird nicht nur in der 1080Ti und TitanX verbaut.

"Es gibt aus Herstellersicht auch keine Gründe dafür anders zu verfahren, die hast du doch groß rausposaunt und zig mal kommentiert."
Wo habe ich geschrieben, dass man keine neuen Produkte bringen muss?

Und du kommst mir mit Logik, natürlich genau deshalb wird der Ausschuss anderweitig verwurstet. Wenn Ampere oder was auch immer einen Performanceboost von 20% mitbringt, kommt er an die ti im GA104 FE Ausbau nicht ran. Für Deep Learing oder im Profisegment (was auch immer du meinst) werden vermutlich nur Vollausbauten verwendet, der Rest geht in die GTX Produktion und die dürfen seit Dezember wirtschaftlich-professionell nicht mehr verwandt werden. Siehe Treiberlizenzabkommen.

Daher konnte im Verlauf wohl auch die TitanX auf Xp umgestellt werden. Man hatte sogar welche über, vermutlich weil die Fertigung recht moderat läuft. Anfänglich und die ersten Monate zahlt man dort nur drauf.

Du reitest doch hier auf Vega umher, klick mal in deine eigene Legende. Zu aller erst verkauft Nvidia mal die ersten 1180 oder 2080 in ihrem Shop über Directverkäufe und in direkter Konkurrenz zu ihren Partnern und sich selbst im eigenen Portfolie, das Geschäft ist für die IHVs sehr lukrativ weil sie die Marge erst mal komplett mitnehmen und wenn sie satt sind, dürfen die Partner dann mal ran. Was denkst du verkaufen die den Rest der Zeit - Vegas?

Genau deshalb sagen sie schon mal jetzt, dass sich die Preise erst im Q3/2018 stabilisieren oder senken.

Ich gebs auf...wahrscheinlich deine Absicht. Ich bin völlig verzweilfelt klar - habe kein anderes Hobby.:stupid:
 
Nvidias Ampere muss arbeiten, Turing darf spielen. Aber später.
-> Turing in Q3 für Gamer, wenn das stimmt
-> Ampere für als Volta Nachfolger dann im Profibereich, vllt irgendwann als TitanA :fresse:

Würde zeitlich zumindest zu den ~2 Jahren nach Pascal passen. Bleibt zu hoffen, dass die mit nem GT100? Oder GT102? (sofern "T" für Turing steht) entsprechend fix um die Ecke kommen...

EDIT: falscher Link - angepasst
 
Zuletzt bearbeitet:
Es geht wieder los. Null Speedangaben aber monströse Preise ankündigen, es geht wieder los. Wir freuen uns drauf
 
Nvidias Ampere muss arbeiten, Turing darf spielen. Aber später.
-> Turing in Q3 für Gamer, wenn das stimmt
-> Ampere für als Volta Nachfolger dann im Profibereich, vllt irgendwann als TitanA :fresse:

Würde zeitlich zumindest zu den ~2 Jahren nach Pascal passen. Bleibt zu hoffen, dass die mit nem GT100? Oder GT102? (sofern "T" für Turing steht) entsprechend fix um die Ecke kommen...

EDIT: falscher Link - angepasst

Klingt mir immer noch nicht logisch Ampere und Turing, hätte eher angenommen Turing wird irgendetwas neben der Titan (leider verdichten sich die Infos das es doch so kommt). Ob eine 2060/2070/2080/2080ti jetzt Turing heißt oder nicht ist doch egal, weil die Artikelbezeichnung doch für sich spricht. Turingarch interessiert doch keine Sa*, Hauptsache da steht GTX drauf. Erinnert mich an AMD und ihrem ständigen Logo- und Seriennamengeändere. Als wenns nichts wichtigeres gebe. Wie GPUs intern bezeichnet werden ist doch egal.

War zu vermuten das Nvidia das bringt was sie müssen, nicht was sie könnten. Hoffentlich verkommt das dann nicht auf Dauer zu einem Geplänkel wie im CPU Bereich, denn dann bekommen wir ewig nichts wirklich neues, sondern nur Verbessertes. Irgendwie muss das mit 4K und höher auch mal langsam vorwärts gehen.
 
Längerer Releasezyklus wäre an sich auch OK. Dann kann ich mir nächstes Jahr eine DSLR kaufen samt Objektiven. Wenn eine neue Ti käme würde ich das wahrscheinlich nicht aushalten.

Es wäre auch toll wenn man die Turings dann irgendwie locken könnte. Dafür wieder halbwegs normale Preise, abzocken dürfen sie gerne bei den Minern. Wahrscheinlich wird es dann auch wieder ein Septemberlaunch wie 2014. Mit einer Ti würde ich dann nicht vor Mitte 2019 rechnen.

Architektur ist schon gut, hauptsache da kommt Mehrleistung raus. Ich denke dass 4K dann vor allem billiger wird, aktuell muss man schon 1000 € allein für die GTX hinlegen wenn man wirklich 4K spielen will (Ohne auf Mittel spielen zu müssen). Dann dürfte das auch mit einer 2070 für die Hälfte gehen. Viele Leute wären dann wohl eher bereit sich so einen Monitor zu holen, zumal die Preise und Marktsättigung dann auch mitspielen.
 
Zuletzt bearbeitet:
Architektur ist schon gut, hauptsache da kommt Mehrleistung raus. Ich denke dass 4K dann vor allem billiger wird, aktuell muss man schon 1000 € allein für die GTX hinlegen wenn man wirklich 4K spielen will (Ohne auf Mittel spielen zu müssen). Dann dürfte das auch mit einer 2070 für die Hälfte gehen. Viele Leute wären dann wohl eher bereit sich so einen Monitor zu holen, zumal die Preise und Marktsättigung dann auch mitspielen.
Mehrleistung wird schon kommen, nur wenn man Nvidia kennt wird das gestaffelt und gut durch gemolken. Ihnen bleibt ja auch nicht anderes. Die Märkte sind ja so gut wie fest aufgeteilt. Es braucht einfach mehr Konkurrenz da AMD das derzeit nicht mehr allein stemmen kann und sie sich anderweitig fokussieren.

Bei größerer Konkurrenz gäbe es auch leistungstechnisch größere Schritte die Nvidia sicher liefern kann. Wenn man 'ne 1080ti noch billig geschossen hat ist man aus allem gut raus. 15-20% in der Realtität machen den Kohl echt nicht mehr fett. Zur GDC/GTC dann Whitepaper, dann orientieren sie sich wie AMD also doch an 7nm/7nm+ und AMD Navi+ irgendwas. Hätte gedacht die packen jetzt mal den Hammer aus. Friede-Freude-Eierkuchen...
 
Was wir brauchen ist eine 1170 quasi für 350-450 Euro mit der Leistung einer 1080 Ti :)
 
Was wir brauchen ist eine 1170 quasi für 350-450 Euro mit der Leistung einer 1080 Ti :)
Die würden dir die Miner aus der Hand reissen, schlechteste Idee von allen. Wirds daher nicht geben.

Das Schlimme ist ja auch, AMD sieht sich nicht animiert an ihrer Premiumstrategie etwas wesentliches zu ändern, dass ist Highend und so stangiert das für Enthusiasten, die eigentlich diejenigen sind die die Mainstreamtechnologie irgendwo auch vorfinanzieren, alles Mist - bin enttäuscht. Bedeutet bis auf Optimierung Leistungsstillstand.

AMD konzentriert sich dabei auf den Softwarestack, weder Nvidia noch AMD sind dabei unter Druck. Riecht mir mächtig nach Absprache bis 7nm kommt.
 
Zuletzt bearbeitet:
Aber was dann? Wozu brauchen wir einen 1070 Nachfolger mit 20% Mehrleistung....und gerade jetzt im 4K Zeitalter brauchen wir mehr bezahlbare Power!
Und Miner... der Begriff ist mir immernoch ein Dorn im Auge. Grad egal was es da wieder für neue affige Ideen mit Grakas gibt. Wir brauchen Daddelpower!
 
Zuletzt bearbeitet:
Macht Sinn, dass der Gaming-Ableger erst später kommt. Dieser soll ja sehr wahrscheinlich GDDR6 spendiert bekommen und bis hat nur Samsung angefangen diesen zu produzieren. Die Konkurrenz will ja erst im Verlauf des Jahres mit der Produktion beginnen. Durch den Launch in Q3 ist man dann nicht nur abhängig von Samsung, welche dann die Preise kurzzeitig hochtreiben könnten. Auch sollten bis dahin dann genug Kapazitäten an GDDR6 vorhanden sein, sodass es nicht zu Engpässen bei dem Speicher kommt, wie aktuell.

GDDR6: Samsung startet Massenproduktion und schockiert Konkurrenz - WinFuture.de
 
Hätte ich nicht gedacht, dass die neuen GeForce Karten erst im 3. Quartal erscheinen.

Zumal, wenn mich nicht alles täuscht, stand iwo, dass die Produktion der GTX 1080 Chips Ende letzten Jahres bereits eingestellt wurde. Auch wenn zur Zeit die Verfügbarkeit des VRAMs den größten Flaschenhals darstellt, weiß ich nicht, ob Nvidia für einen so langen Zeitraum genug Grafikchips auf Vorrat produzieren konnte.

Aber das deckt sich ja mit den Berichten, dass die Grafikkartenpreise noch weiter ansteigen werden ...
 
Macht Sinn, dass der Gaming-Ableger erst später kommt. Dieser soll ja sehr wahrscheinlich GDDR6 spendiert bekommen und bis hat nur Samsung angefangen diesen zu produzieren. Die Konkurrenz will ja erst im Verlauf des Jahres mit der Produktion beginnen. Durch den Launch in Q3 ist man dann nicht nur abhängig von Samsung, welche dann die Preise kurzzeitig hochtreiben könnten. Auch sollten bis dahin dann genug Kapazitäten an GDDR6 vorhanden sein, sodass es nicht zu Engpässen bei dem Speicher kommt, wie aktuell.

GDDR6: Samsung startet Massenproduktion und schockiert Konkurrenz - WinFuture.de
Hynix und Micron erreichen auch 16gbit/s. Nvidia hängt nicht so sehr an der Bandbreite, die von HBM brauchen sie nicht mal bei Volta. Die tatsächlichen Spannungen sind daher unbekannt und ein gut behütetes Geheimnis. Setzen alle irgendwo nur Fakewerte die man ausliest.

GDDR6 wird auch an die Autobauer geliefert, für KI, VI und 4K Displays. Da macht man mehr als für Gamer.

- - - Updated - - -

Zumal, wenn mich nicht alles täuscht, stand iwo, dass die Produktion der GTX 1080 Chips Ende letzten Jahres bereits eingestellt wurde.
Nein 102 ist EoL, dass bedeutet aber nicht, dass er z.Z. nicht noch produziert wird.
 
Thx for Info.
Und immer wieder herrlich einen Artikel von Igor zu lesen. Da steckt irgendwo immer auch ein "Schmunzler" drin^^.
Ti dann wohl wieder Anfang/Mitte 2019
Hätte ich nix dagegen. Hauptsache der Sprung von 1080Ti zur 1180Ti/2080Ti ist mindestens ähnlich groß wie 980Ti zur 1080Ti (waren bei mir immerhin 50-70%, je nach Game und das von hochgezüchteter 980Ti Lightning zur 1080Ti FE@ Standardtakt).

Für nur ~25% Mehrleistung würde ich sie (Turing) nicht mal mit dem Hintern anschauen :d.
 
Zuletzt bearbeitet:
War zu vermuten das Nvidia das bringt was sie müssen, nicht was sie könnten. Hoffentlich verkommt das dann nicht auf Dauer zu einem Geplänkel wie im CPU Bereich, denn dann bekommen wir ewig nichts wirklich neues, sondern nur Verbessertes. Irgendwie muss das mit 4K und höher auch mal langsam vorwärts gehen.

Das ist übrigens das Problem, warum du da weiter oben von mehreren Leuten in gewisse Schubladen geschoben wurdest - du wertest obwohl du genau nichts an Infos hast.

Kein Plan was der Mist immer soll - aber wie das Ding heist, ist am Ende scheiß egal. Genau so ob da wer davon ausgeht, es wäre mehr gegangen. Im Moment gibt es genau null Infos in wie weit sich ein Turing ggü. Pascal platzieren kann/wird. Bleibt es beim üblichen Zyklus, schafft es der 04er Chip die alte 00/02er Riege (leicht) zu toppen. Nicht mehr oder weniger ist zu erwarten und nicht mehr oder weniger ist bei effektiv nur minimal verbesserter Fertigung auch realistisch. Was auch immer du da bitte erwarten würdest. -> der TopDog kommt nicht als erstes oder gar demnächst. Vllt Ende 18, Anfang 19... Dann wird es aber wieder richtig abgehen, wie mit einer TitanXp/TI paar Monate nach Pascal Release.

Das effektiv "wichtige" an der News von THG ist übrigens, dass es neben einem Ampere als Volta Nachfolger einen Turing als Pascal Nachfolger gibt. Man also wie bisher zweigleisig fährt und durch die noch konkretere Trennung auf zwei verschiedene Codenames auch klar davon ausgehen sollte, dass es Keinen Zwitter mehr geben wird. Das kommt klar dem Gamer zugute, da er nicht für irgendwelche Transistoren in Silizium zahlen wird, die er nie braucht. Mit diesem Schritt festigt NV ggü. AMD abermals ihren Standpunkt, dass für einen Markt ausgerichtete Produkte offenbar funktionieren und (für NV) von Vorteil sind. Für AMD bedeutet dass dann wohl, dass ein Zwitterbetrieb wie bei Vega weiter für Probleme sorgen wird - weil das Ding alles irgendwie kann, aber dort wo es drauf ankommt, vllt nicht 100% richtig liefert. Mining/Computeleistung interessiert nen Gamer idR absolut gar nicht um mal ein Beispiel zu bringen.

Mehrleistung wird schon kommen, nur wenn man Nvidia kennt wird das gestaffelt und gut durch gemolken. Ihnen bleibt ja auch nicht anderes. Die Märkte sind ja so gut wie fest aufgeteilt. Es braucht einfach mehr Konkurrenz da AMD das derzeit nicht mehr allein stemmen kann und sie sich anderweitig fokussieren.
Und wieder ne unsinnige Wertung deinerseits...

Bei größerer Konkurrenz gäbe es auch leistungstechnisch größere Schritte die Nvidia sicher liefern kann. Wenn man 'ne 1080ti noch billig geschossen hat ist man aus allem gut raus. 15-20% in der Realtität machen den Kohl echt nicht mehr fett.
Worauf willst du hinaus? Nur weil es ne TI gibt, hat die doch nicht jeder? Was ist mit den ganzen 1080, 1070/1070TI Besitzern? Oder Vega? Oder Polaris? Oder gar den Maxwell und älter Besitzern? Meinst du die müssen, weil dir 15-20% zu wenig sind, auf Ewig und Drei Tage damit leben???

Bedeutet bis auf Optimierung Leistungsstillstand.

Weist du woher!??? Keiner zwingt dich zum Stillstehen. Wer mehr will, kann demnächst mehr kaufen. Ausgehend von deiner Vega wirst du da vllt sogar die 20-30% sehen ;) Also immer ran... Bei halben Verbrauch oder sowas in der Art. Stillstand ist Anders...
 
Wird es geben, aber nicht bei Release. Die 1070er waren anfangs auch abartig teuer, aber dann sanken die Preise. Eine 2070 wird dann wohl Richtung 1080 Ti FE gehen, eine 2080 1080 Ti Max-OC mit mehr Effizienz. Das Übliche eben. Ich war echt irritiert als ich mir mal anschaute wie wenig 4K-Nutzer es noch gibt. Die Monitore sind bezahlbar, aber die Karten eben nicht.

Der GP102 ist bereits EOL. Die anderen glaube ich nun auch oder kurz davor.

Und natürlich melken sie den Markt, das machen sie schon seit Kepler. Bei Fermi kam noch alles in einer Serie, bei Kepler wurde jedoch der mittlere Chip (GK104) als High-End vermarktet. Das war dann beim GM204 wie auch beim GP104 genauso. Richtiges High-End kommt immer erst am Ende mit der Ti.
 
Und natürlich melken sie den Markt, das machen sie schon seit Kepler. Bei Fermi kam noch alles in einer Serie, bei Kepler wurde jedoch der mittlere Chip (GK104) als High-End vermarktet. Das war dann beim GM204 wie auch beim GP104 genauso. Richtiges High-End kommt immer erst am Ende mit der Ti.

Nö... Da wird gar nix gemolken. Wer zwingt dich bitte die kleinen Modelle mitzunehmen? Bleib doch bei den x70 oder x80 Modellen und fertig. Wer HighEnd will, kauft bei den x80TIs und fertig.

Keine Ahnung wie man das nicht sehen kann - aber seit NV die x04 und die x00/02er Chips zeitlich trennt, gibts auch keine Refresh-Gens mehr!? Zufall?? Ich denke nicht...
Bis Fermi gabs oft/meist nen kompletten Refresh des kompletten Lineups, nun seit Kepler gibts das nicht mehr. Kommt der 00/02er Chip oben drauf, wird der 04er als Performancechip weiter benutzt. Im Grunde ist das also einfach nur anders als bisher...

Auch sage ich es immer gern wieder - gemolken wird nur der, der sich melken lässt. Ist man vom gelieferten Produkt nicht angetan, kauft man nicht. Ganz einfach... Geht ganz ohne leidiges Spielen lassen an den Nippeln ;)


PS: die 1070 war auch nicht abartig teuer... Der Fehler ist, die Händler-Rabattierung der alten 980TIs als Basis zu nutzen. Die haben doch ihre Restbestände raus gekloppt. Deswegen war 980TI/1070 Performance eben "nur" 300-350€ wert. Und ne über 400€ teure 1070er sieht teuer aus... Aber paar Wochen VOR Release lag die 980TI noch bei deutlich über 400€... Wo auch die 1070er ansetzte. Alles alles im Rahmen...
 
Zuletzt bearbeitet:
Die würden dir die Miner aus der Hand reissen, schlechteste Idee von allen. Wirds daher nicht geben.
Kann Nvidia verhindern. Z.B. durch Limitierungen im Treiber.

Und natürlich melken sie den Markt, das machen sie schon seit Kepler. Bei Fermi kam noch alles in einer Serie, bei Kepler wurde jedoch der mittlere Chip (GK104) als High-End vermarktet. Das war dann beim GM204 wie auch beim GP104 genauso. Richtiges High-End kommt immer erst am Ende mit der Ti.
Dir wäre es also lieber Nvidia macht richtig ernst und vernichtet schnellstmöglich AMD? Oder was meinst du käme dabei raus wenn wenn die 1080Ti bereits im Mai 2016 gekommen wäre, die 980Ti bereits im September 2014 usw.?

- - - Updated - - -

PS: die 1070 war auch nicht abartig teuer... Der Fehler ist, die Händler-Rabattierung der alten 980TIs als Basis zu nutzen. Die haben doch ihre Restbestände raus gekloppt. Deswegen war 980TI/1070 Performance eben "nur" 300-350€ wert. Und ne über 400€ teure 1070er sieht teuer aus... Aber paar Wochen VOR Release lag die 980TI noch bei deutlich über 400€... Wo auch die 1070er ansetzte. Alles alles im Rahmen...
Der Fehler ist sogar noch viel größer. Die 1070 ist deutlich besser als die 980Ti. Angefangen mit der höheren Effizienz, über die neuen Features (H265 und ich glaube noch HDMI 2.0) über die 33% mehr Speicher. Daher darf die 1070 auch mehr kosten als die 980Ti. Und wie du sagtest, die 980Ti hatte auch mal 700€ gekostet.
 
Das ist übrigens das Problem, warum du da weiter oben von mehreren Leuten in gewisse Schubladen geschoben wurdest - du wertest obwohl du genau nichts an Infos hast.
Wenn du meinst. Ich habe übrigens nicht geschrieben das eine 2080ti als erstes kommt oder eine Karte in deren Leistungsregion, davon träumen hier ganz andere Leute. Switche mal lieber auf Mitte 2019 oder Mitte Q2 (KJ). Bis dahin fließt ja noch viel Wasser den Bach runter, das Nvidia ihre Roadmap total über die Haufen geworfen hat, ist ist mal wieder egal, ja fdsonne ich vergass.

Wieder die übliche Polemik, wenns um Nvidia geht. Poor Volta?
 
Zuletzt bearbeitet:
Ich überlege langsam wirklich mein 1080 für 600+ zu verticken und auf die nächste Generation zu warten und da direkt wieder die 80er zu nehmen :d Mining sei dank steht meine ASUS ja mittlerweile wieder beim Neupreis und die 600€ sind durchaus realistisch zu erzielen.
 
Kann Nvidia verhindern. Z.B. durch Limitierungen im Treiber

Der Fehler ist sogar noch viel größer. Die 1070 ist deutlich besser als die 980Ti. Angefangen mit der höheren Effizienz, über die neuen Features (H265 und ich glaube noch HDMI 2.0) über die 33% mehr Speicher. Daher darf die 1070 auch mehr kosten als die 980Ti. Und wie du sagtest, die 980Ti hatte auch mal 700€ gekostet.
Dann passen diese Limitierungen aber nicht in dein Preisfenster. Es ist ja noch etwas anders, denn das optimierte Fertigungsverfahren kostet ja auch erst mal.

*im Übrigen war ich von beiden IHVs enttäuscht, nicht nur Nvidia.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh