GeForce Special Event: NVIDIA stellt am 1. September die Ampere-Grafikkarten vor

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich dachte die Chips kommen diesmal nur von Samsung?
 
jo also wenn das Teil

384Bit, 19-21 GBps, 24GB, 5375 Cores, 2,X GHz Takt und 3x8 Pin hat dann lecko mio - das wird TEUER

also 1999-2499€ für den fetten sind es auf alle Fälle
 
3090 12GB mit 19GBs und für die Titan 21GBs für 24 GB ???
 
jo also wenn das Teil

384Bit, 19-21 GBps, 24GB, 5375 Cores, 2,X GHz Takt und 3x8 Pin hat dann lecko mio - das wird TEUER

also 1999-2499€ für den fetten sind es auf alle Fälle
2k ok aber noch ein wasserblock backplate hmm das wird echt Zuviel. Auf Luft noch ok aber wer möchte so etwas.
 
Hat auch Vorteile wenn das teil so teuer ist.
der wakü block ist dann gefühlt recht günstig.
2000€ ist doch nun auch nicht viel wenn das teil ordentlich Leistung hat.
Da kommt man dann mal nen Samstag und Sonntag arbeiten und schon ist das Teil bezahlt :bigok:
 
Bin gespannt was da kommt.

Wobei ich derzeit mit der 2080 jetzt auch nicht so sehr das Verlangen habe direkt was neues anzuschaffen.. vlt mal nen halbes Jahr nach release oder so wenns nen Schnapper geben sollte.
 
Freier?
machste Umschulung zum Profi killer da Verdienste 5000€ innerhalb einer Sekunde.
Einmal abgedrückt und 5000€ kassieren 😝
Da kannste mit einem job gleich SLI bezahlen 😂

hinterher glaubt das noch wer 🙈
 
Ja ich habe für meine titanx Maxwell im sli auch nur knapp 2400€ mit wakü bezahlt
 
Eben, the more you buy the more you save! :whistle:
 
Genau man kann nur raten, das bis BN aus zu sitzen, wenn dann keine Lösung in Sicht ist, kann man immer noch NV das Geld in den Rachen werfen.
 
Genau so sehe ich das auch
 
jo also wenn das Teil

384Bit, 19-21 GBps, 24GB, 5375 Cores, 2,X GHz Takt und 3x8 Pin hat dann lecko mio - das wird TEUER

also 1999-2499€ für den fetten sind es auf alle Fälle
meine Schmerzgrenze liegt bei 2000 Euronen; bei mehr warte ich auf Preissenkung;
wird allerdings nicht mehr als 12 gb verbaut, bin ich bei 1200 raus
 
Ich lese auf den letzten Seiten hier viel zu oft etwas von 2.000EUR. Pssst, bringt niemanden auf Ideen *Spaß*

Ich kaufe aber keine GPU mit toller P/L, sondern die billigste GPU mit der von mir benötigten leistung.

Mache ich auch so....ungefähr?! Und des besseren Verständnisses wegen: Die benötigte Leistung ist die maximale Leistung und unter diesen wird geschaut, was bezahlbar ist. So gilt das jedenfalls für mich.
Die billigste von den besten zu nehmen, das könnte ich dann auch nicht....
 
Sehr ungünstige Strategie. Die werden sicherlich schon in Foren mitlesen und wenn da alle sagen "2000 bugs no problem", dann kommen auch die 2000 bugs...
wie schon gesagt, für den Preis erwarte ich auch fast volle Austattung (nur 48 Gb Ram wären noch besser), sonst gehe ich nicht mit
 
Wäre sowieso nicht interessiert an einer 3090. Schade das hier alle so scharf auf die sind und sich die Beiträge fast nur dadrum drehen. Ich würde das DIng sowieso nur für den neuen MSFS nutzen und Videobearbeitung. Da bräuchte ich wahrscheinlich gar nicht so ein Monster.

Aber es soll wohl keine 3000er Super Version erscheinen, zumindest nicht sofort? Na ja, werde dann wohl eher das günstigste nehmen. Aber vielleicht erleben wir ja auch eine Überraschung und die von nvidia setzen nicht so hohe preise. Evtl. spielt da auch mit rein, dass die Kaufkraft bei vielen durch Corona gesunken ist. Wobei bei das jetzt eine Behauptung meinerseits ist, wie das real aussieht kann ich nicht beurteilen.
 
"fast volle Ausstattung" -> da muss ALLES passen.
 
Zu sehen sind 11 GDDR6-Speichermodule, was für 22 GB Speicher sprechen würde – denn 11 Module auf der Rückseite bedeuten 11 weitere auf der Vorderseite. Der bekannte Leaker kopite7kimi ist sich jedoch sicher, dass der zwölfte Speicherbaustein verpixelt worden ist. Und mit 24 Bausteinen beziehungsweise 24 GB dürfte es sich demzufolge um die Platine einer GeForce RTX 3080 Ti oder RTX 3090(der genau Name ist noch unklar) handeln.
 
Zuletzt bearbeitet:
24 GB @ 21 und 5374 Cores - da kann BN einpacken, und selbst wenn die Karte 350W säuft, es kommt wenigstens was raus

Zwischen den Zeilen lässt sich jedenfalls erahnen, dass da eine enorme Innovationskraft dahinter stecken muss. Alleine die Zusammenarbeit mit Micron um den GDDR6X-Speicher zu realisieren finde ich beeindruckend. Da hat man das ganze PCB mit den Signalwegen überarbeitet um das gebacken zu bekommen. Wenn sich dann noch der RT-Coprozzessor bewahrheiten sollte, dann wird es für AMD wirklich schwer. Sowas macht man nicht über Nacht. Dahinter steckt eine enorme Arbeitsleistung, die ich so bei AMD auch (noch) nicht sehe.
 
Sowas macht man nicht über Nacht. Dahinter steckt eine enorme Arbeitsleistung, die ich so bei AMD auch (noch) nicht sehe.
Die Frage ist nur, was kommt bei rum?
GDDR6X anstatt non X bringt nebst bissle Bandbreite jetzt erstmal nichts weiter groß an Vorteil... oder überseh ich was?
Und dieser ominöse Coprozessor - Keine Ahnung was das genau sein möchte, klingt mir auch nur bedingt nach nem Gamechanger. Das Ding ist - wenn das Teil nicht in 0815 Titeln performt, wird es schwer für NV hohe Preise bzw. noch höhere als bisher zu verlangen, die Meute hat bei Turing schon gemeckert was das Zeug hält.
Und AMD schickt sich an dieses mal mit BigN durchaus stino 0815 Perf. zu liefern. Anders als Polaris, Vega und Navi, wo man entweder nicht wollte oder nicht mehr liefern konnte ohne den Verbrauch zu eskalieren...

Aber ich bin gespannt was wird - btw. könnten diese dunklen Pixel auf dem PCB Bild auf nen 12. Chip hindeuten, der nur unten weggepixelt ist. Ich glaub Igor hatte das in der Richtung gar schonmal skizzizert - 4+4 links und rechts, 3 oben und einer unten. Das PCB ist wohl klar keine FE, weil deutlich höher als üblich. Damit fällt ne Titan raus oder es gibt demnächst Custom PCB Titanen. Ich interpretiere das Bild auf 22-24 GB für den nicht Titan TopDog...
 
@fdsonne
Naja also bei meiner RTX2080, bringt höherer Speichertakt gleich mehr FPS und nicht wenig, ich glaube bei der 2080TI verhält sich das ähnlich trotz höherer Bandbreite, hat aber auch mehr GPU Leistung.
Also wenn die wesentlich mehr GPU Leistung haben werden sie wohl die Bandbreite brauchen um diese auch umzusetzen.
Die werden den Aufwand nicht ohne Grund betrieben haben.

Einige Prozente an Leistung werden sie bestimmt rausholen.Müsste ich grob schätzen 5-10% vielleicht, das ist aber nur ne Vermutung je nach Anwendungsfall.
 
Zuletzt bearbeitet:
Ich hoffe mal nicht, dass es einen abgetrennten Co-Prozessor gibt...warum hat man das da nicht gleich mit in die GPU reingebaut? Co-Prozessoren haben sich nie lange gehalten, das war mehr ein Notbehelf bisher...wie beim x87 Coprozessor beim 286er, oder der Sage TnL CoProzessor den 3dfx entwickelt hat um den Rampage damit auszustatten,...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh