NVIDIA Ampere ab 21. und 28. September mit angeblich 35 % mehr Leistung

Das ist nicht das Thema...

BTW war ich bei gleichem Verbrauch besser als eine 1080 und die 2070 sieht aktuell auch shice aus dagegen :wayne:
Bleib du einfach bei deiner Meinung und alles wird gut ;)

Es macht ja auch absolut keinen Sinn eine optimierte Karte gegen eine unoptimierte zu vergleichen. :rolleyes:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
lol da dachte ich diesmal kann man mich nicht enttäuschen da ich mir von Amd nichts erwarte, da könnte es doch glatt Nvidia schaffen mich trotz des ganzen Aufwandes bei Ampere mit "nur" 35% Mehrleistung zu Turing zu enttäuschen :lol:
 
Für alle, die diese Leakbench-Twittereien jetzt für bare Münze nehmen, noch mal ein Zitat aus dem Artikel:
Nichts desto Trotz handelt es sich hierbei lediglich um Gerüchte, die auch schon bei vergangen Generationen manchmal weit daneben lagen.
Also ruhig Blut...
 
35% wäre ein schlechter Witz und kann ich mir beim besten Willen nicht vorstellen. Shrink von 14 auf 8 nm und eine neue Architektur? 50% ist hier das Minimum, das geleistet werden muss!

Denke auch nicht, dass NV sich trauen würde solchen Schrott zu releasen und dann noch eine Schippe beim Preis draufzulegen, da würde man eine Menge Kunden einbüßen (und das völlig zu Recht).
 
+30% effizienz wäre doch ganz okey.
Die Karte ist für mehr Watt ausgelegt und dann käme man auf die bis zu 60% in manchen Benchmarks.

Für Leute die Leistung über alles stellen und denen Preis sowie Leistungsaufnahme egal ist mag das sein. Ich will jedoch keine Karte mit deutlich mehr als ~120W im Rechner haben. Damit ist für mich Effizienz kriegsentscheidend. Und +30% ist bei einem Shrink irgendwie reichlich erbärmlich. Bei AMD hat der Shrink über 50% gebracht...
 
Warum sind die 350W (wenn sie denn stimmen) so ein großes Problem? Klar ist das enorm viel, aber am Ende zählt doch nur das Verhältniss Watt/Performance. Das muss man sich am Ende anschauen. Wenn das besser als bei bisherigen Karten ist, dann ist sie effizienter. Und wenn man etwas sparsameres haben will, kauft man eben die kleineren Varianten.

Digga fällt dir was auf , siehe Bild :asthanos: Rückschritt .

NVIDIA GeForce RTX 3090 graphics card pictured - VideoCardz.com881 × 756
 
Ich rechne eher mit 60 %. 30 % von alter Ti auf 3080 wären in Ordnung.

Für Leute die Leistung über alles stellen und denen Preis sowie Leistungsaufnahme egal ist mag das sein. Ich will jedoch keine Karte mit deutlich mehr als ~120W im Rechner haben. Damit ist für mich Effizienz kriegsentscheidend. Und +30% ist bei einem Shrink irgendwie reichlich erbärmlich. Bei AMD hat der Shrink über 50% gebracht...

Dann hat AMD noch mehr Raum zum Aufholen. Einen "NVIDIA Killer" erwarte ich zwar nicht, ein konkurrenzfähiges Produkt ist dieses Mal aber definitiv möglich.
 
Hat der "Leakbench" überhaupt mal Treffer gelandet, oder warum sollte man darüber Vermutungen anstellen ?
 
Dann hat AMD noch mehr Raum zum Aufholen.
Was aber auch nur ein schwacher Trost ist. Nach dem Motto "es geht zwar leider nicht weiter, aber immerhin kommt die Konkurrenz ähnlich weit". Nvidia hat mit Maxwell und Pascal eine Erwartungshaltung geschürt die befriedigt werden will!
 
Digga fällt dir was auf , siehe Bild :asthanos: Rückschritt .

Es geht um Effizient also Leistung pro Watt. Da kann der Kühler auch doppelt so groß sein, wenn die Leistung pro Watt besser ist als bei der 2XXX Serie ist sie dennoch effizienter. Das 350W extrem sind ist ja klar. Aber darum ging es mir ja nicht ;-)
 
Ich bin gespannt wie es bei Ampere mit der zugabe von spannung aussieht weil Pascal und Turing haben ja quasi nicht mit der Spannung skaliert aber nun wird ja bei Samsung gefertigt.
Hinterher kann man auf 2300Mhz+ kommen wenn man mehr Volt gibt.
Braucht man halt nur nen ordentlichen Wasserkühler und nen 500Watt Bios und ab gehts :bigok:
 
Vielleicht gibts ja nächste Woche paar Benchs mit OC da sieht man ja ob was skaliert.
Was die jetzt an Takt machen ist ja auch noch ne Nebelkerze.
 
Ich hatte glaube was bei 3D Center gelesen wo gesagt worden ist das bei 2100mhz schon deutlich über 400Watt benötigt werden und 2200Mhz möglich waren.
Ist die frage welches stepping das war.
Ich baller da eh gleich ne Wakü drauf und auf die GPU kommt Liquid Metal dann sollte das teil kühl bleiben selbst wenn da 450Watt+ durchgelutscht werden.
 

wenn man Igor glauben darf, sind die ganzen 57% ect. eh alles nur Bullshit bzw einfach in eine Richtung raten
 
habe noch eine gtx 1080 nonTi im Rechner, denke da wird eine schöne Steigerung mit der 3090 drin sein
 
35% ist auch zu wenig, wenn man den Preis, Kühlung und TDP anschaut.

Du meinst den Preis, den wir nicht kennen, die Kühlung, die noch ungetestet ist und die TDP, die wir auch nicht kennen?
Genauso wie die 35% btw. ;-)
 
Na bei nem Triple Slot Kühler mit Überhöhe wird die TDP nicht gerade niedrig ausfallen.

Und der Preis nach Nvidia Manier erst recht nicht.

Bei dem FE Design ist teuer + durstig eigentlich schon gegeben.
 
Ich hatte glaube was bei 3D Center gelesen wo gesagt worden ist das bei 2100mhz schon deutlich über 400Watt benötigt werden und 2200Mhz möglich waren.
Ist die frage welches stepping das war.
Ich baller da eh gleich ne Wakü drauf und auf die GPU kommt Liquid Metal dann sollte das teil kühl bleiben selbst wenn da 450Watt+ durchgelutscht werden.

Da würde ich noch nicht zuviel drauf geben was da irgendwo steht. Fakt wird eher sein das noch keiner die Karten zum testen da hat.
Ich mein wir reden hier ja meist über dinge die irgendwer auf Twitter raus gehauen hat.

Wakü hau ich nach nem "alles ok" test auch recht schnell drauf, die Teile Schreien ja nach Wakü :d
 
Ist denn irgendwo mal ein Wort bzgl. der Größe der 3080 gefallen? Wird die auch so ein 3-Slot Klotz werden der nur in große Gehäuse passt? Für mich hat sich die 3090 schon allein wegen 3-Slot disqualifiziert, die wird wohl in kein ITX-Gehäuse passen :(
 
Ich empfehle auch mal dringend die PCI-E Slots anzuschauen bei den Bildern.
Da hat sich jemand nen Spaß erlaubt und die ganze Presse verteilt die Bilder fröhlich, ohne irgendwas zu verifizieren. ;-)

Hint: Wenn die 3090 mit so einem PCI-E Ding kommt, dann passt die in kein aktuelles Mainboard. Also muss es ja auch noch neue Mainboards geben,.. und nen neuen PCI Standard... 3.5? 4.5? ;-)
 
Gegen die Eiswolf-Lösung hätte ich an sich nichts gegen, nur wird sie bei NVIDIA vermutlich außerhalb des Budget liegen. Ich lasse mich aber gerne überraschen. 50 % von Ti zu Ti (60 % bei der 3090) wären für mich völlig in Ordnung, solange der Preis der neuen Ti dazu passt.
 
Eventuell ist dies der typische 'underdog' - leak, somit mindestens: leak x 2 = 70%.

.. wobei auch 35% mehr bei 3080 vs. 2080ti auch gut klingen

Allein mit dem neuen Kühler und der höheren Leistungsaufnahme schafft meine luschige 2080 auch 35% mehr :banana:
 
RTX 3080 Launch als Erstes laut Unserem lieben @Igor
Man will wohl AMD in die Paroli fahren,- falls jene anschliessend Kleinigkeiten leaken,-
und dann die RTX 3090 so gestalten dass jene Karte die Krone behält und den Preis dementsprechend setzen.

Dies spricht:
Nvidia ist sich diesesmal der Absoluten Enthusiast Krone Absolut nicht ganz bewusst und setzt auf Kartenspiele!
 
Je mehr Du BN hypen willst, desto mehr bin ich sicher, dass BN mit biegen und Brechen 2070S Level erreicht, bei 600 Watt. Keine Ahnung wieso! ;-)
Ich meine, mal ganz ohne Witz, in einem Anfall aus Ernsthaftigkeit: Wird es nicht irgendwann fad ein Team zu verteidigen, bevor es mal liefert? Ich habe ja auch AMD Aktien und die rechnen sich dicke,... aber glaubst Du echt im Forum so Dinge sagen hilft dem Kurs? ;-)
 
Mal langsam @Tech Enthusiast

Berni ist AMD Experte, was er sagt trifft ein!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh