40 Minuten? Bei mir sind es 40 Sekunden... auch wenn ich gestehen muss dass 40 Minuten Igor am Stück für mich schon hart sind....
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
40 Minuten? Bei mir sind es 40 Sekunden... auch wenn ich gestehen muss dass 40 Minuten Igor am Stück für mich schon hart sind....
Ich verstehe nicht warum ihr bei den Benchmarks die Spiele nie voll aufdreht.
Es ist doch irgendwie total Banane ein Spiel wie BF:V nur auf "Hoch" laufen zu lassen...
Es hat einfach nen faden Beigeschmack, wenn mal wieder nur geschönte Benchmarks präsentiert wurden, großmundig (bis zu) doppelte Leistung versprochen wird, davon meistens dann aber nur 70% ankommen (in 4K, je geringer die Auflösung, desto geringer der Vorsprung), und das mit 100W mehr Leistungsaufnahme erkauft ist.1. "Bis zu" - Angaben sind nicht NVidia patentiert. Jeder Kunde sollte das zur Genüge kennen.
2. Manche Games zeigen +100 % und teilweise sogar mehr, nur nicht im Durchschnitt.
3. Selbst wenn es "nur" 60 % sind für 150 Euro weniger MSRP, ist das doch eine verdammt solide Leistung?
Ich verstehe nicht was an 60 % schlecht sein soll, vor allem da diese 60 % die Unterkante zeigen und einige Games deutlich höher liegen.
Du kannst ne 3080 verdammt solide undervolten, wie z.B. Golem.de gezeigt hat, und hast mit 220 Watt immer noch eine dramatische Steigerung zur 2080 und verlierst Anteilig kaum FPS (0,6x Strom wird ca. zu 0,85x Leistung).
Sag ich auch immer, besonders weil die Leute holen sich doch so ne Karte um voll aufzudrehen und nicht um auf hoch zu spielen, aber es wird immer damit erklärt, dass die meisten Leute in hoch spielen und so könnte man das besser vergleichen mit seiner Karte. Ich denke man sollte dann immer hoch und ultra aufzeigen.Ich verstehe nicht warum ihr bei den Benchmarks die Spiele nie voll aufdreht.
Es ist doch irgendwie total Banane ein Spiel wie BF:V nur auf "Hoch" laufen zu lassen...
Perf/Watt tatsächlich so schlecht wie befürchtet.
Vom neuen "Flaggschiff" ist die Rede. Da liegt der Vergleich zum vorherigen Flaggschiff nahe. Und welches war das? Die 2080Ti. In den Graphen auch immer wieder 3080 und 2080Ti beieinander.in der vorstellung der alten gpus sind immer die non ti karten genannt worden und die 3080 auf die 2080
Wie kommst du auf die krumme Logik? Dass die 3070 mitnichten low end ist, wissen wir doch alle.Wir können ja aktuell auch nicht mit einer 1650 vergleichen, weil es kein Vergleichsprodukt bei Ampere gibt bisher. Müssten wir also die 3070 dann mit der 1650 vergleichen, weil sie beide das "Unterende" der Generation darstellen? Das macht natürlich keinen Sinn.
Aktuell ist es ja das Flagship, wenn die 3090 ein Titanersatz sein soll. Nächstes jahr wirds denke ich eh die 3080Ti geben als neues Flagship. Die Hersteller brauchen doch noch Karten um die nächsten Jahre strecken zu können. Wer weiß wann die neue generation auf den Markt kommt, wenn die jetzt schon alles aus der GPU rausquetschen. In die gleiche Strategie passt auch die verkümmerte Vram Erhöhung bei der 3080, so hat man zur Streckung der nächsten Jahre noch was am Start.Vom neuen "Flaggschiff" ist die Rede. Da liegt der Vergleich zum vorherigen Flaggschiff nahe. Und welches war das? Die 2080Ti. In den Graphen auch immer wieder 3080 und 2080Ti beieinander.
+10-20% Effizienz trotz Node Shrink ist halt einfach nichts besonderes. AMD wird in der Luft zerrissen, wenn sie solche Verbesserungen bringen, hier wird gefeiert.Man kann ja stinkig sein, dass so viel Watt aufgenommen werden können, aber zu behaupten, dass die Perf/Watt schlecht ist, ist doch ganz offensichtlich falsch.
Bitte noch mal Korrekturlesen und berichtigen,
Ist sie halt nicht, auch wenn Jensen einem das gern erzählen möchte, damit die 1500€ nicht gar so lachhaft teuer wirken. Da wird der Kunde schön an ein neues höheres Preisgefüge gewöhnt, damit dann ein beschnittener Chip für 800€ als guter Deal bezeichnet wird. Hat man zwar früher das wirkliche Flaggschiff für bekommen, aber das vergisst man ja schnell.Aktuell ist es ja das Flagship, wenn die 3090 ein Titanersatz sein soll.
Vom neuen "Flaggschiff" ist die Rede. Da liegt der Vergleich zum vorherigen Flaggschiff nahe. Und welches war das? Die 2080Ti. In den Graphen auch immer wieder 3080 und 2080Ti beieinander.
Beitrag automatisch zusammengeführt:
Wie kommst du auf die krumme Logik? Dass die 3070 mitnichten low end ist, wissen wir doch alle.
Schritt 1: die 3070 ist nicht lowest. Der Rest entfällt damit eh.Du vergleichst doch jetzt Flagship mit Flagship. Folgerichtig müsste man "lowest gegen lowest" vergleichen genauso. Also 1650 gegen 3070.
Mir ist schon klar, dass das deppert wäre, aber warum ist das anders als die von Dir gezogenen "highest vs highest" Vergleiche? Bei beiden Varianten kommen noch andere Karten nach in einigen Monaten. Die sind dann die richtigen Vergleiche. Aktuell gibt es weder für die 1650 noch für die 2080ti einen fairen und sinnvollen Vergleichspartner bei Ampere.
ich stelle EGAL ob die karte das locker packt oder nicht immer nur das ein was es mir persönlich wert ist.Sag ich auch immer, besonders weil die Leute holen sich doch so ne Karte um voll aufzudrehen und nicht um auf hoch zu spielen, aber es wird immer damit erklärt, dass die meisten Leute in hoch spielen und so könnte man das besser vergleichen mit seiner Karte. Ich denke man sollte dann immer hoch und ultra aufzeigen.
vor allem da es aktuell keine konkurrenz gibt. da kann man schwer sagen dass die Perf/watt verhältnis mies wäre. dazu bräuchte man in der regel ein vergleichsprodukt. nur das gibt es nicht^^Was?
Ja, das ist best case mit Doom, aber welten schlechter sind andere Spiele auch nicht (dazu leider keine Grafik gefunden).
Man kann ja stinkig sein, dass so viel Watt aufgenommen werden können, aber zu behaupten, dass die Perf/Watt schlecht ist, ist doch ganz offensichtlich falsch.
Schritt 1: die 3070 ist nicht lowest. Der Rest entfällt damit eh.
Sie ist absolut betrachtet nicht schlecht, denn sie liefert die beste Effizienz die wir bisher haben. Jedoch ist sie kaum besser als Turing, die meisten Leute haben auf erheblich mehr gehofft. Auch nvidia hat werbewirksam von (bis zu) 90% gesprochen, dann sind die gelieferten 10-15% halt schon irgendwie ernüchternd.Was?
[...]aber zu behaupten, dass die Perf/Watt schlecht ist, ist doch ganz offensichtlich falsch.
Und du willst die 3080 nur loben, egal was andere denken.Und die 3080 ist nicht highest, also entfällt das ganze Argument?
Scheint so, als würdest Du nur stänkern wollen, ohne ein eigentliches Diskussionsziel? :-(
Hoch ist doch meist nur eine Stufe unter sehr hoch oder Ultra.Sag ich auch immer, besonders weil die Leute holen sich doch so ne Karte um voll aufzudrehen und nicht um auf hoch zu spielen, aber es wird immer damit erklärt, dass die meisten Leute in hoch spielen und so könnte man das besser vergleichen mit seiner Karte. Ich denke man sollte dann immer hoch und ultra aufzeigen.
Naja, was nächstes Jahr ist, ist Zukunft und wissen wir nicht. Man muss sich am Jetzt orientieren und da ist die 3090 nun mal die Titan. Sicherlich kann ich jetzt spekulieren was nächstes Jahr passiert. Ich kann nur andere Firmen und Produkten vergleichen und da wird immer gestreckt, verfügbare Technik Jahre später oder sehr langsam auf den Markt gebracht um möglichst viel Geld damit zu verdienen. Es gibt niemanden der sagt, die 10GB sind OK, jeder sagt 12 hätten mind. drinnen sein müssen. Man kann das jetzt akzeptieren oder nicht. Ich finde das auch nicht ok, weil da kann man mitm Stock dran fühlen, dass es so ne marketingtechnische Streck-Aktion ist. Ich werde trotz der 10GB zugreifen, weil ich mir wegen der 3000er Serie "nur" eine 2070s zugelegt habe anstatt der 2080Ti. Aber wer glaubt, mit seiner neu gekauften Karte lange "das Beste" zu besitzen, sollte mittlerweile gelernt haben, dass heutzutage sowas nur ein Jahr Bestand hat.Ist sie halt nicht, auch wenn Jensen einem das gern erzählen möchte, damit die 1500€ nicht gar so lachhaft teuer wirken. Da wird der Kunde schön an ein neues höheres Preisgefüge gewöhnt, damit dann ein beschnittener Chip für 800€ als guter Deal bezeichnet wird. Hat man zwar früher das wirkliche Flaggschiff für bekommen, aber das vergisst man ja schnell.
In nem halben Jahr steht ne 3000€ Titan Ampere an der Tür und dann will man von "3090 Titanersatz" noch nie was gehört haben.
Die gute alte Zeit, als eine 950€ Titan als unerhört teuer galt und man davon ausging, dass die eh fast niemand kauft. Lol.
Ich armer ITX Besitzer habe es mit meinem SFX Netzteil echt nicht leicht ^^
Na sicherlich knallt Ultra rein und bremst aus, aber lies mal hier im Forum quer wie viele ne 2080Ti haben, weil sie einfach alles auf volle Pulle stellen wollen ohne sich Gedanken machen zu müssen, dass es irgendwelche Probleme gibt. Hoch ist halt so ein Zwischending und wenn man schaut, dann haben die meisten Gamer Mid-Range Karte und schrauben bei hohen Auflösungen die Grafik runter. Selbst 1080p ist meine ich noch am meisten verbreitet.Hoch ist doch meist nur eine Stufe unter sehr hoch oder Ultra.
Dons Argument hat schon was. Auf sehr hoch/ultra schlägt sich eine rtx 3060 vs 3080 z.B. in 1440p dann relativ schlechter, weil die Einstellungen unnötig hohe Effekte anschaltet die kaum sichtbaren Mehrwert bieten, die gpu aber stark belasten.
So ist es bis jetzt der Fall gewesen.
Weil es alle von High End machen, wie sieht das fürs Eggo aus, nen altes Flagschiff zu habenWarum bleibst du nicht einfach bei der 280ti so richtig lohnt doch die 3080 von dort gar nicht?
Warum bleibst du nicht einfach bei der 280ti so richtig lohnt doch die 3080 von dort gar nicht?
Warum muss dein Gehäuse denn maximal klein sein mit der fettesten Karte drin? Hol dir doch ein Gehäuse für normale Menschen, und keins für Schlümpfe
Und du willst die 3080 nur loben, egal was andere denken.
Du denkst ich bin dem aufgesessen? Dann hast du wohl keinen meiner Beiträge im Thread dazu gelesen.@Powl
Wenn man nicht so stumpf dem übertriebenen Marketing-Sprech aufgesessen wäre müsste man jetzt nicht en
Hätte nicht gedacht, dass ein 600W NT da nicht reichen könnte
Was?
Anhang anzeigen 531168
Ja, das ist best case mit Doom, aber welten schlechter sind andere Spiele auch nicht (dazu leider keine Grafik gefunden).
Man kann ja stinkig sein, dass so viel Watt aufgenommen werden können, aber zu behaupten, dass die Perf/Watt schlecht ist, ist doch ganz offensichtlich falsch.