NVIDIA dreht an der Ampere-Schraube: Die GeForce RTX 3080 Founders Edition im Test

Das mit CPU Limit (ich glaube zwar nicht dran, aber es soll ja hin und wieder eiens geben), dass dauert dann noch bis AlderLake/ZEN4 mit DDR5 oder wie?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Endlich passiert mal weiter Entwicklung in Form der nächsten Schritte aber ihr möchtet lieber in der Vergangenheit verweilen,oje...Kein Dvi Stecker mehr,muss ich nu echt nen Adapter nutzen,PCI 4.0,jetzt muss ich tatsächlich mein Board inne Tonne treten...Und neulich sacht mir doch einer ich soll im Zug einsteigen, ich bin doch nicht bescheuert,da hätte es mich doch zerrissen^^
 
Teilweise schon lustig und ich bin mir bewusst, dass man die Aussagen einer Person nicht mit der einer anderen Person in Verbindung bringen sollte,... trotzdem witzig zu lesen.

An einem Tag wird gemeckert, weil man so wenig Fortschritt hat.
Dann wird gemeckert, weil man nun neue CPUs braucht, weil der Fortschritt der GPUs zu groß ist.
An einem anderen Tag wird gemeckert, weil die GPUs so viel brachliegende Performance haben,... dann wird gemeckert, wenn eine GPU die Performance ab Werk ausnutzt.
Am nächsten Tag wird dann gemeckert, weil alles unter 30% kein Fortschritt ist, aber ab 50% wäre das natürlich Bombe. Und dann wird gemeckert, weil der Fortschritt nur 60 % ist.

Immer nur meckern, gerne wegen genau gegenteiligen Dingen. Oft nur durch Tage getrennt, oder durch Topics, die auch mal simultan laufen. ;-)

Hoffe es fühlt sich jetzt keiner direkt angegriffen deswegen, sondern eher zum Schmunzeln animiert. Das kann ja nicht nur mir auffallen hehe.
 
Auch wenn ich es bereuen werde:
Hier geht es weder um deine oder meine Meinung.

...

Ich für meinen Teil, werde einfach mal abwarten und dich einfach weiter wüten lassen, ohne das böse oder persönlich zu meinen.
Richtig, es geht nicht um Meinung, weshalb ich den Begriff "Fakten" verwendete.
Wenn du es als "wüten" aufnimmst, wenn ich dir sage, dass die CPU Limits dieser Spiele bereits bekannt sind und von der 3080 in 4K nicht erreicht werden, kann ich dir auch nicht helfen. Das sind schlicht Tatsachen und ich versuche dir klar zu machen, dass diese Tatsachen vorgeben, was die Situation ist.

Wir scheinen aneinander vorbei zu reden, bzw habe ich das Gefühl du weißt nicht so richtig, wie sich ein CPU Limit verhält. Aber gut, warte ruhig ab, was du abwarten willst.
Beitrag automatisch zusammengeführt:

Nicht nachvollziehbar ist für mich, dass manche von der Leistungssteigerung gegenüber der 2080Ti "enttäuscht" sind. Wir sprechen hier von 699 € vs. 1200 €.
Die 2080Ti war halt lachhaft überteuert, da ist für viele der Preis kein sinnvoller Vergleichswert. Wenn der Preis der neuen Karte nur gut erscheint, weil die alte Karte viel zu teuer war, dann ist der neue Preis nicht automatisch "gut", sondern erstmal nur "weniger schlecht".
 
Verstehe das Problem nicht , wenn die GPU mehr Leistung hat,und die CPU dann höher takten kann/muss und ins Limit läuft was sie mit deiner alten GPU nicht gemacht hat dann ist doch alles wie sein soll ? Du hast Geld für was neues ausgegeben wovon du dir mehr Leistung versprochen hast,diese Mehrleistung investierst du jetzt in Eyecandy und deine CPU läuft wieder wie vorher,außer Natürlich du möchtest das game das du vorher mit 60FPS jetzt auf einmal mit 150FPS zocken...


Edit:hier nochmal zum Speicher,da ja viele glauben sie hat 1GB weniger als die 2080ti und leistet daher weniger...:

Im Falle der Geforce RTX 3080 Founders Edition beträgt der Speichertakt "nur" 19 GT/s, übersetzbar mit 9.500 MHz im Vergleich zu den bisher üblichen 14 GT/s respektive 7.000 MHz. Was am Ende zählt, ist das Produkt aus Interface-Breite und Takt. Hier schleust die RTX 3080 stattliche 760 GByte pro Sekunde von A nach B - fast 70 Prozent mehr als die RTX 2080/2070(S)/2060S, 53 Prozent mehr als die RTX 2080 Super und immerhin 23 Prozent mehr als die RTX 2080 Ti. Die kommende RTX 3090 schiebt sogar 936 GByte/s umher und scheitert damit knapp an der magischen Grenze von 1 TByte/s - das schafft im Endkundenbereich nur AMDs Radeon VII.

 
Zuletzt bearbeitet:
Für 1080p brauchst du über eine 3080 nicht nachdenken.
Du fährst ja auch kein Porsche um in der Speilstraße rumzueiern. Außer zum Posen vor Windelscheißern vieleicht ;)
Da denke ich sogar über eine 3090 nach, ich will auf meinem 240Hz Monitor > 240 FPS bei den 0.1% Lows haben, samt konstant geringer Frametimes.
Und bei diesem Vorhaben bremst mich scheinbar meine aktuelle CPU aus.
 
Da denke ich sogar über eine 3090 nach, ich will auf meinem 240Hz Monitor > 240 FPS bei den 0.1% Lows haben, samt konstant geringer Frametimes.
Und bei diesem Vorhaben bremst mich scheinbar meine aktuelle CPU aus.
Und wenn die CPU am Ende ist tauscht man die Grafikkarte. :unsure:
Und vor allem stellt man die eigenen Anforderungen nich grundsätzlich in Frage, wenn die CPUen die Anforderungen durch die Bank nicht schaffen :unsure:

Kann man machen, ist dann halt semi-clever.
 
  • Danke
Reaktionen: THK
Und wenn die CPU am Ende ist tauscht man die Grafikkarte. :unsure:
Und vor allem stellt man die eigenen Anforderungen nich grundsätzlich in Frage, wenn die CPUen die Anforderungen durch die Bank nicht schaffen :unsure:

Kann man machen, ist dann halt semi-clever.
Wieso sollte ich meine Anforderungen in Frage stellen ? 240 FPS bei den 0.1 % Lows (das Spiel um das es geht hab ich z.B. gar nicht genannt) sind mit der aktuellen GPU-Generation absolut machbar, ob jetzt aber mein 9700K@5GHz und RAM-OC limitiert oder nicht, weiß ich erst nach ausgiebigen, eigenen Tests, da mein Spiel, um das es geht, leider nicht in Igors Testparcours dabei ist. Und da zum Jahreswechsel neue CPUs von beiden Lagern erscheinen, von denen ich glaube, dass sie die RTX 3000 Serie ungezügelt von der Leine lassen können, sehe ich da jetzt auch überhaupt kein Problem darin. Natürlich limitiert mich irgendwann dann wieder eine der beiden Komponenten, aber nach deiner Logik sollte man sich am Besten mit weniger FPS zufrieden geben ? Wtf...
 
Da denke ich sogar über eine 3090 nach, ich will auf meinem 240Hz Monitor > 240 FPS bei den 0.1% Lows haben, samt konstant geringer Frametimes.
Und bei diesem Vorhaben bremst mich scheinbar meine aktuelle CPU aus.
Das kann man natürlich auch nie so verallgemeinern.

Es ist einfach auch immer sehr abhängig von den genutzten Spielen = deinen genutzten Spielen.

Jeder der eine breite Palette an Spielen aktiv nutzt und auch vor allem mal wirklich analysiert (Logging mit CapFrameX als Beispiel etc.) wird sehr schnell merken, dass die Hardware-Hersteller sich viel mehr mit den Entwicklern der Spiele Engines beschäftigen müssten.
Nvidia hat das schon lange erkannt und es bessert sich (sehr) langsam.

Das das ganze mit erheblichen Aufwänden verbunden ist, ganz zu schweigen von erheblichen Kosten, erklärt seit längeren, dass AMD als Beispiel nicht die Rohleistung auf die Straße gebracht hat.
Unabhängig von den anderen Problemen bei AMD (Umstrukturierungen, wenig Spiel bei Geld, Fokus auf die CPU / Konsolen).

Wenn eine Spiele Engine nur in den 1% oder 2% Percintile durch die CPU ausgebremst wird, ist das meist nicht weiter schlimm bzw. werden die meisten gar nicht bemerken.

Aber der Vergleich zu den meist schlechteren Hardwareaustattung der Konsolen zeigt ganz deutlich, wo der Hund oft noch begraben liegt.

Ich finde darauf wird auch bei Reviews viel zu wenig drauf eingegangen bzw. mich persönlich würden Einblicke dazu bei Entwicklern teilweise viel mehr interessieren als manche andere News.

Deswegen fände ich es so wichtig, die Community immer mittesten zu lassen, da die Masse an Spielen und unterschiedlichen Implementierungen der Entwickler es Redaktionen unmöglich machen, da hinter zu kommen. Vor allem, wenn manchmal auch ein gewisser Zeitdruck vorhanden ist.
 
Und wenn die CPU am Ende ist tauscht man die Grafikkarte. :unsure:
Und vor allem stellt man die eigenen Anforderungen nich grundsätzlich in Frage, wenn die CPUen die Anforderungen durch die Bank nicht schaffen :unsure:

Kann man machen, ist dann halt semi-clever.

Im Endeffekt wäre für 1080p der 10900k das Optimum und trotzdem limitiert hier noch die CPU. Trotz allem würde eine 3090 in bestimmten Situationen zusätzlich fps raus kitzeln.
 
Man kann durchwachsene Produkte auch als solche erwarten und dann trotzdem genau diese Kritik äußern.

Kann man äußern sofern die Kritik berechtigt ist, ~50% Performance Aufschlag gegenüber der direkten Vorläufer-Karte, 2GB VRAM mehr zum selben Preis, wann gab es das zuletzt ?
Dazu im Falle der FE ein besserer Kühler und ein 0db Modus.
Dass man bei einem Preis von ~700€ irgendwo noch Kompromisse eingehen muss, die es dann bei der 3090 absehbar nicht mehr geben wird, damit muss man sich halt arrangieren, oder warten bis es eine Variante mit mehr Speicher gibt.
Wirklich berechtigte Kritik verdient der hohe Stromverbrauch und wohl vereinzelt auftretende elektronische Störgeräusche, was es aber auch schon bei den Gens davor gab.
Dem Stromverbrauch kann man mit Undervolting zumindest etwas entgegenwirken, wie Don sehr schön aufgezeigt hat.

"i had a bad day - i expected twice the performance,vram for half of the price" - Powl im falling down Modus. :haha:
 
es ist eben eine übergangskarte! die darf ruhig saufen wie ein loch und sogar laut sein(was sie aber nicht ist) DDR5 steht vor der tür mit ZEN4 und neuen boards.
3900x wird diese zeit mit 3080 überbrücken können, erst 2022 werden die karten neu gemischt..
 
Kann man äußern sofern die Kritik berechtigt ist, ~50% Performance Aufschlag gegenüber der direkten Vorläufer-Karte, 2GB VRAM mehr zum selben Preis, wann gab es das zuletzt ?
Dazu im Falle der FE ein besserer Kühler und ein 0db Modus.
Dass man bei einem Preis von ~700€ irgendwo noch Kompromisse eingehen muss, die es dann bei der 3090 absehbar nicht mehr geben wird, damit muss man sich halt arrangieren, oder warten bis es eine Variante mit mehr Speicher gibt.
Wirklich berechtigte Kritik verdient der hohe Stromverbrauch und wohl vereinzelt auftretende elektronische Störgeräusche, was es aber auch schon bei den Gens davor gab.
Dem Stromverbrauch kann man mit Undervolting zumindest etwas entgegenwirken, wie Don sehr schön aufgezeigt hat.
Eben, sehr hoher Stromverbrauch, Störgeräusche, immer noch weniger VRAM als man 2017 zum gleichen Preis bekam.
Undervolting ist kein Argument, das können alle anderen Karten auch. Die Effizienzsteigerung ggü Turing ist für nen Node Shrink einfach nicht gut genug. Methode Brechstange sorgt halt nie für guten Verbrauch.

Das ist meine Kritik daran, was soll also das affige Zitat? Bleib doch einfach sachlich.

~50% Performance Aufschlag gegenüber der direkten Vorläufer-Karte, 2GB VRAM mehr zum selben Preis, wann gab es das zuletzt ?
Spezifisch dazu: 2016/2017. Pascal, 1080Ti vs 980Ti kommt in den Sinn. War sogar die gleiche Preisklasse. 1080 vs 980 ähnlich. Da warens dann aber sogar +4GB bzw +5GB VRAM.

"i had a bad day - i expected twice the performance,vram for half of the price" - Powl im falling down Modus. :haha:
Spar dir sowas, dann nimmt dich auch jemand ernst.
Beitrag automatisch zusammengeführt:

es ist eben eine übergangskarte!
soll was heißen?
 
@IronAge:
Bis auf die künstliche (und eigentlich nicht zu verstehende Entscheidung dazu aus Konsumersicht!) Beschränkung des VRams ist das m.E. sehr gut kurz zusammenfasst.

Das die Karte ihr volles Potential je nach Spiel / Spiele Engine nicht frei entfalten kann, muss man nicht direkt Nvidia selbst anlasten.
Das wäre zu pauschal und zu einfach gedacht.

Die andern Kritikpunkte haben trotzdem für sich genommen (bis auf das Thema Effizienz = da auch von Samsung abhängig) schon eine Berechtigung.
 
Zuletzt bearbeitet:
Hmm, wenn ich jetzt unten 3 Lüfter saugend im Lian Li verbaue dann würde doch der Luftstrom ungehindert auf die Karte treffen :unsure: Oder sehe ich das falsch ?:rolleyes2:
 
@Powl

Ich nehme Dich seit dem letzten Post schon nicht mehr wirklich ernst, falls das noch nicht aufgefallen sein sollte. :fresse2:

Die GTX1080Ti FE hat Anfangs 819€ gekostet, die guten Customs knapp 1000€, so viel zum Thema gleicher Preis. ;)
 
Zuletzt bearbeitet:
Undervolting ist kein Argument, das können alle anderen Karten auch. Die Effizienzsteigerung ggü Turing ist für nen Node Shrink einfach nicht gut genug. Methode Brechstange sorgt halt nie für guten Verbrauch.

Das nvidia Methode Brechstange aber augepackt hat lässt dafür auf AMD hoffen :d
Die letzten 5% (außer bei Doom) Leistung wurden nochmal mit 40 (12,5%) extra W erkauft..
Bei Turing hat Nvidia das ja nicht für nötig gehalten.
 
In Ashes of the singularity ist der Unterschied zwischen gen3 und gen4 nicht gewaltig.
Wenn RTX IO vielleicht demnächst von Entwicklern genutzt / implementiert werden sollte, könnte das vielleicht mehr ausmachen, als jetzt vorab abzusehen ist.

Aber schön das du Ashes of Singularity erwähnst, denn dieses Spiel kann teilweise in Bezug auf Draw Calls schon einen kleinen Einblick geben.
 
Hmm, wenn ich jetzt unten 3 Lüfter saugend im Lian Li verbaue dann würde doch der Luftstrom ungehindert auf die Karte treffen :unsure: Oder sehe ich das falsch ?:rolleyes2:
Falls du wirklich 3 Lüfter ungehindert (keine anderen PCIe Karten) auf die 3080 er blasen lassen könntest anstatt saugend, könnte die Karte Aufgrund der Konstruktion des Kühlers mehr profitieren.

Kannst du dein aktuelles Kühlkonzept etwas visualieren?
Je nach Gehäuselüfterplätze kann beides gut funktionieren oder auch überhaupt keinen Unterschied darstellen...

Auch ob du ne Wakü nutzt könnte natürlich je nach dem ein ganz anderes Konzept sinnvoll sein.

Auch hier gilt: Einfach probieren... 😉
 
Bis zu welcher Temperatur ist überhaupt der Micron GDDR6X spezifiziert?
Wenn ich die Infrarot Bilder bei Igor richtig interpretiere, müssten die Speichermodule zwischen GPU und Spannungsversorgung (12-Pin Stecker), real so um die 100°C unter Last haben.
 
Bis zu welcher Temperatur ist überhaupt der Micron GDDR6X spezifiziert?
Wenn ich die Infrarot Bilder bei Igor richtig interpretiere, müssten die Speichermodule zwischen GPU und Spannungsversorgung (12-Pin Stecker), real so um die 100°C unter Last haben.

TC = 0°C to +95°C
 
@Powl

Ich nehme Dich seit dem letzten Post schon nicht mehr wirklich ernst, falls das noch nicht aufgefallen sein sollte. :fresse2:

Die GTX1080Ti FE hat Anfangs 819€ gekostet, die guten Customs knapp 1000€, so viel zum Thema gleicher Preis. ;)
Ob irgendwelche Customs bei 1000€ waren ist ziemlich irrelevant, der Einstiegspreis zählt. Es gab genug Modelle - auch Customs - zwischen 700 und 800€ ab Tag 1. Bei der 3080 hier wirds genauso sein.
Aber gut, die Diskussion mit dir ist dann ja sowieso hinfällig. Wofür dann überhaupt hier posten, wenn du eh nur trollst?
 
Wie wärs mit nem klitzekleinem Vergleich? Custom klar kühler und leiser oder ähnlich? Mehr brauchts erst mal kaum :)
 
Ob irgendwelche Customs bei 1000€ waren ist ziemlich irrelevant, der Einstiegspreis zählt. Es gab genug Modelle - auch Customs - zwischen 700 und 800€ ab Tag 1. Bei der 3080 hier wirds genauso sein.
Aber gut, die Diskussion mit dir ist dann ja sowieso hinfällig. Wofür dann überhaupt hier posten, wenn du eh nur trollst?
Ich habe 2017 kurz nach relase für ne custom 1080Ti 689€ bezahlt.
 

Anhänge

  • 1080ti.jpg
    1080ti.jpg
    11,5 KB · Aufrufe: 90
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh