AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Jo weil jeder seine Karte so begrenzt wie von Nvidia angegeben, zudem geht dein Link nicht, aber ich weiß welche Folie du meinst.
Du machst dich über AMD lustig, verteidigst aber so einen Bullshit... Respekt.

ps. 1,9X ist immernoch nicht 100% mehr, um die es ging.
Beitrag automatisch zusammengeführt:

Tech Enthusiast tickt ganz vernünftig. Eine Sachlage wie diese erörtern - da ist nichts verkehrt.
Ne das ist zweierlei Maß im Spiel.
Würde man nach dem Wahrscheinlichkeitsprinzip gehen ist die Begründung, warum BigN nur 2080Ti level erreicht einfach Blödsinn.
Ich fand Ampere am Anfang auch total geil, aber die TBP war mir immer ein Dorn im Auge, dann noch die relativ ernüchternden Testergebnisse im Vergleich zu Jensens "Versprechen"...
Im Nachhinein kann man ein Produkt einfach viel besser beurteilen und am Ende ist Ampere weit davon entfernt der "biggest generational leap" zu sein.

Ich sags auch gleich vorne weg, wenn Big Navi nicht liefern kann, wirds halt Ampere, spar ich mir schon nen neuen Bildschirm (hab noch nen etwas älteren Gsync only Monitor).

edit: paar Sachen entfernt die over the top waren, sorry.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jo weil jeder seine Karte so begrenzt wie von Nvidia angegeben, zudem geht dein Link nicht, aber ich weiß welche Folie du meinst.
Du machst dich über AMD lustig, verteidigst aber so einen Bullshit... Respekt.

Hä?
Es wurde doch auch noch eine 3070 angekündigt und diese fällt mit einer TDP von 220W in diesen Bereich. Es werden sehr wahrscheinlich auch noch weitere Modelle wie eine 3060 und co folgen, welche auch in diesem Bereich landen werden.

Außerdem sollte doch jedem klar sein, dass man auf solche optimistischen Angaben von dem Hersteller selbst nicht viel geben sollte. Es mir auch nicht darum diese Angaben zu verteidigen, sondern weise ich dich nur daraufhin, dass die Widerlegung anhand einer 3080 eher suboptimal ist.
 
Das siehst du ein wenig falsch. ;)
Die 2080 (non-Ti) kam ja auch beim Release für 699 UVP raus, wie auch die 3080. Ich gehe mal davon aus dass noch eine 3080ti/super mit 20gb kommt, welche dann den Posten der 2080ti ablösen soll, mit wahrscheinlich dem selben Preis. Die 3090 soll man wohl als das gegenstück zur RTX Titan sehen.

Eine 3080 Ti oder Super mit 20GB und die 3090 würden sich doch kannibalisieren. Performance technisch ist doch ohnehin wenig Platz zwischen der 80er und der 90er, so dass es der 3090 schon schwer fällt überhaupt irgendwie positiv aufzufallen. Die Lücke ist so klein, dass man meinen könnte die jetzige 3080 wäre schon die vorgezogene 3080Ti. Warum auch immer!? :bigok:
Abenteuerlich ist auch bestimmt der Stromverbrauch einer 3080Ti oder Super mit 20GB. :hust:

Ich schätze mal, wenn wirklich die 3080Ti mit 20GB kommt, dann ist die 3090 zeitgleich EOL.
 
Aber Stand jetzt gibt es nur die 3080 und 3090 und es wurde mit 100% Perf/Watt argumentiert, das aber nur dann gegeben ist wenn man die Karte stark einschränkt.

Nvidia hat sich verkalkuliert und muss nun mit der Samsung 8nm (eigentlich 10nm) Node leben, die Kühler und vor allem das PCB sind teurer was die Ersparnis des Die wiede relativiert.
Dazu kommt noch eine Architektur die eigentlich primär für Datacenter entwickelt wurde... GCN Dejavu.
3080 Leistung @ 250W mit etwas OC Potential, dann wäre ich beeindruckt gewesen.

Bin gespannt was an den GA103 Gerüchten dran ist...
 
Aber Stand jetzt gibt es nur die 3080 und 3090 und es wurde mit 100% Perf/Watt argumentiert, das aber nur dann gegeben ist wenn man die Karte stark einschränkt.

Er hatte doch noch folgendes - Beide Hersteller geben das im Sweetspot an, keiner der beiden Hersteller wird ne GPU im Sweetspot verkaufen - hinzugefügt. Ich verstehe ehrlich gesagt nicht, worüber du dich aufregst. 🤷‍♂️
 
Auch die +50% Performance / Watt, sind gerade mal die Hälfte von Amperes +100% Performance / Watt.
Darüber :)
Wir wissen noch garnichts über die Effizienz von RDNA 2 und unter welchen Bedingungen die anliegen.
3080 mit 10GB finde ich etwas uninteressant, außerdem nicht lieferbar.
BigN wird erst noch vorgestellt
Von daher ist zwangsweise eh warten angesagt.
edit: https://videocardz.com/newz/nvidia-geforce-rtx-3080-20gb-to-launch-in-december
Wenn sie die Karte nicht zu teuer gestalten wirds interessant.

Naja egal. lassen wirs dabei, hab mich wohl auch etwas hineingesteigert.
@Tech Enthusiast sorry paar Sachen waren drüber, aber eine Gewisse Doppelmoral ist vorhanden und sowas macht mich Themenunabhängig rasend.

Ich bis morgen 18 Uhr :fresse2:
tumblr_n53b8vCAOg1smcbm7o1_500.gif
 
Zuletzt bearbeitet:
Wehe wenn das bei Nvidia so gewesen wäre, so langsam sollten einige hier wissen wie du tickst...

Ähnlich wie bei Dir.
Da kann man noch so neutral schreiben, Du wirst alles und jedem immer nur die Fanboy-Keule vorwerfen.
Scheint Dein einziges "Argument" zu sein immer und ist schon lange alt geworden.

Auch bei NVidia empfinde ich extrem überzogene Vermutungen und Hochrechnungen für Bullshit. Auch bei Intel, Auch bei Apple, auch bei Samsung und all den anderen.
Manche Vermutungen sind halt realistischer als andere und mehr ist schon nicht dahinter.

Du glabust diesen unsinnigen Marketingmüll immernoch obwohl es Tests widerlegt haben? OK.
2080 verbraucht 215 Watt 100% Performance
3080 verbrauch 320 Watt und ist ~54% schneller (laut Techpowerup)

Du bestätigst da genau meine Worte, oder wofür war das gedacht?
Ich sagte doch, dass beide Im Sweetspot angeben und beide keine GPU im Sweetspot verkaufen,.... wozu dann ein Beispiel mit einem Produktvergleich taugt, erschließt sich mir nicht.
Das Effizienz eine Kurve und keine Gerade ist, wurde auch schon von einigen ausführlich erläutert.
 
Also Tech enthousiast is so neutral wie Jensen persönlich. Also Quasi überneutral. Mich wunderts dass er sich nach der Heiligsprechung von Nvidia vorm Ampere Launch aus dem dortigen Thread verabschiedet hat und nun hier AMD schlecht redet :rolleyes2:
 
Ähnlich wie bei Dir.
Da kann man noch so neutral schreiben, Du wirst alles und jedem immer nur die Fanboy-Keule vorwerfen.
Scheint Dein einziges "Argument" zu sein immer und ist schon lange alt geworden.

Auch bei NVidia empfinde ich extrem überzogene Vermutungen und Hochrechnungen für Bullshit. Auch bei Intel, Auch bei Apple, auch bei Samsung und all den anderen.
Manche Vermutungen sind halt realistischer als andere und mehr ist schon nicht dahinter.

Aber hey, ich muss ja noch obligatorisch in den Raum werfen: "Alles, was Du sagst ist mit AMD Unterwäsche geschrieben!", sonst ist das ja kein für Dich verständlicher Post.
Fanboy hab ich dich schonmal nicht genannt ;)
Aber mir kommt es einfach öfter so vor, als ob du bestimmte Unternehmen positiver bzw. negativer betrachtest als andere.
Weiß nicht, was für dich an bestimmten RDNA 2 Leaks unwahrscheinlicher ist als das Zeug bei Nvidia, aber ist jetzt auch egal, ist ja bald soweit mit der Ankündigung.
Noch als Randinfo, es mag zwar so aussehen, dass ich mich mehr für AMD einsetze, aber mit Fanboyism hat das nichts zu tun, sonst hätte ich nicht noch einen I5 3570 und ne 2070 Super die übergangsweise drinsteckt weil meine 1080Ti gottseidank in der Garantiezeit Ärger gemacht hat.
Aber es wäre schon schön, wenn wir im GPU Segment wieder ordentlichen Wettbewerb haben wie wir es bei den CPUs auch sehen, wobei AMD nicht zu lange Oberwasser haben darf.

Du bestätigst da genau meine Worte, oder wofür war das gedacht?
Ich sagte doch, dass beide Im Sweetspot angeben und beide keine GPU im Sweetspot verkaufen,.... wozu dann ein Beispiel mit einem Produktvergleich taugt, erschließt sich mir nicht.
Das Effizienz eine Kurve und keine Gerade ist, wurde auch schon von einigen ausführlich erläutert.
Ich muss gestehen, ich habe da etwas überreagiert, ich hatte noch deine überschwänglichen Posts bzgl. Ampere im Kopf, dazu noch der Vergleich 50% Perf/Watt von RDNA 2 auf 100% Perf/Watt zu Ampere.
Eine gewisse Tendenz ist aber dennoch erkennbar :P
Hoffentlich stimmst du mir zu, aber Nvidia hat sich bei der Nodeauswahl massiv verzettelt was man jetzt an der effektiven TBP sieht, ansonsten wäre da kaum Mehrperformance rübergekommen.
Ein realistischerer Vergleich zwischen den Generationen wäre eigentlich der beschnittene TU102 (2080ti) vs beschnittener GA102 (3080) und da erkuft sich Nvidia die Leistung hauptsächlich durch den erhöhten Strombedarf.
TU104 vs GA102 sieht zwar besser aus, macht aber mMn. nur aus preislicher Sicht einen Sinn, betrachtet man nur die Architektur und die Fertigungsgröße ist Ampere mMn. weit davon entfernt der "biggest generational leap" zu sein wie ich schon geschrieben habe.

Gutes Nächtle.
:bigok:
 
wenn die neusten Gerüchte stimmen, nämlich das die Versionen mit mehr Speicher von Ampere noch im Dezember vor Weihnachten zumindest vorgestellt werden sollen, ist für mich eigentlich recht klar das Amd mit Rdna2 auf 3080 Level kommen wird, sonst würde Nvidia das eher nicht machen, wenn sie ohnehin mit dem liefern der aktuellen Ausbaustufen hinten und vorne nicht nachkommen (wollen) :hust:


am meisten Sorge macht mir eher die Verfügbarkeit und wann es von RDNA2 gute Customs geben wird...
 
Zuletzt bearbeitet:
Von "biggest generational leap" kann da sicher nicht die rede sein bei den Ampere karten.
Besonders wenn man sieht wie nah an der kotzgrenze diese karten auf den markt gebracht wurden von NV.
Tech Enthusiast solte sich eher mal gedanken darüber machen warum das so ist.
Das lässt denke ich eher darauf schließen das NV genau weis was da kommt mit big navi entweder wesentlich effizienter oder eben nicht nur 2080TI oder 3070 speed.
Sweetspot hin oder her angebliche RDNA 2 Leaks hin oder her ist doch immer das selbe mit den leaks die haben mit logik einfach nichts zu tun.
 
Zuletzt bearbeitet:
...wenn man sieht wie nah an der kotzgrenze diese karten auf den markt gebracht wurden..
Das wird wohl auch in Zukunft so bleiben denke ich. Finde ich übrigens auch gut wenn ich out of the box die maximale Leistung bekommen kann.
Warum soll ich mich bemühen in AB rumzufummeln wenn der der Hersteller mir das schön praktisch ins BIOS tippt.
 
wenn die neusten Gerüchte stimmen, nämlich das die Versionen mit mehr Speicher von Ampere noch im Dezember vor Weihnachten zumindest vorgestellt werden sollen, ist für mich eigentlich recht klar das Amd mit Rdna2 auf 3080 Level kommen wird, sonst würde Nvidia das eher nicht machen, wenn sie ohnehin mit dem liefern der aktuellen Ausbaustufen hinten und vorne nicht nachkommen (wollen) :hust:


am meisten Sorge macht mir eher die Verfügbarkeit und wann es von RDNA2 gute Customs geben wird...


Unabhängig davon dass ich eher dem Hersteller des Speichers glaube wenn der sagt dass es 2 GB erst nächstes Jahr gibt und ich nicht glaube dass Nvidia jetzt noch mal das Design der Karte ändert (wäre ja nötig da dann die Rückseite bestückt werden müsste), wäre das ja ein sehr guter Schachzug (Achtung Ironie) von Nvidia. Während sehr viele auf die ohnehin schon wegen des Speichers und der Verfügbarkeit kritisierte 3080 mit 10 GB warten mal eben eine etwas teurere mit 20 GB auf den Markt zu werfen würde nur eine Sache bedeuten. Die 3080 mit 10 GB würde kaum einer kaufen denn wer 700 Euro für eine Karte ausgibt gibt auch 100 Euro mehr aus. Ganz besonders wenn er dann definitiv Ruhe hat für paar Jahre.
Verärgerung bei vielen Käufern wäre dann auch so ein Ding.

Eine 20 GB Version der 3080, eine TI, Super, Super Plus oder Super Mario wird es dieses Jahr NICHT geben. So viel dürfte feststehen.
Außer die bringen einen Rebrand der 3090 als 3080 20 GB :fresse:
 
Eine 20 GB Version der 3080, eine TI, Super, Super Plus oder Super Mario wird es dieses Jahr NICHT geben. So viel dürfte feststehen.

Eine Ti-Version dürfte sich bei dem Chip so oder so erledigt haben, er hat einfach keine Luft nach oben. Oder man verkauft das Ti-Feature mit der 20 GB VRam-Version. Dieses Jahr wird wohl als "Jahr der Ernüchterung" in die Geschichte eingehen, auch Team Red wird keine Wunder vollbringen können.
 
Finde ich auch nicht so schlimm. Früher musste man die CPUs ja schon übertakten damit die einzigermaßen mithalten, heute ist da ab Werk schon alles optimal und ihren Boost finden die selber. Wer Spaß am Optimieren hat kann ja immer noch selber undervolten, mehr ist gar nicht nötig.

Und ja, für eine Ti ist kaum Platz, außer man nennt die 20 GB "Super" oder "Ti" - Selbst wenn sie mehr Shader hätte wäre die Karte kaum schneller. Das Einzige was man noch machen könnte wäre das Speicherinterface erweitern, was aber unwahrscheinlich ist denn mit 352-Bit wären nur 22 GB möglich und das wäre schon wieder recht nahe an der 3090. Andererseits hat NVIDIA sowas früher schon gebracht. Die Titan X (Pascal) kostete auch eine Menge, bot damals zwar das volle Interface und 12 GB, wurde aber im darauffolgenden Jahr von der 1080 Ti mit 11 GB eingeholt - Deren etwas schnellerer Speicher bot im Endeffekt die gleiche Bandbreite. In der Techpowerup-Datenbank ist sogar eine 1080 Ti mit 10 GB gelistet, offenbar hatte man das also erwägt falls es tatsächlich einen Prototypen dazu gab, sich dann aber für die Variante mit nur 1 GB weniger entschieden. Für die Titan-Käufer blieb als einziger Trost die Tatsache dass sie die Leistung etwas früher hatten.
 
wenn der größte RDNA2 mit 16GB Vram die 308010 GB knackt und halbwegs verfügbar ist, dann halte ich es für sogar für gesetzt das eine 3080 mit 20GB noch heuer kommt, selbst wenn es bis dahin die 2GB Speicherchips noch nicht gibt. die Hersteller bräuchten dafür ja "nur" das PCB der 3090 nehmen und eben mit 20 Speicherchips anstatt der 24, sowie dem 3080 Die bestücken.

und das die 20GB Variante nur 100 Euro mehr kosten wird als die 10GB Version, wird leider nicht passieren, sondern die wird min 1000 Flocken kosten - einzige Ausnahme Amd bleibt mit dem größten Navi und 16GB Vram wirklich unter 800 Euro (was ich auch nicht glaube falls man 3080 Leistung hat ansonsten)

vielleicht fällt ja heute auch die eine oder andere klitzekleine Info auch zu den Grakas bei der Cpu Präsentation...
 
AMD wird es sich nicht leisten können zu hoch mit dem Preis zu gehen. Im Gegensatz zu Nvidia ist die Fanbase ziemlich geschrumpft die letzten Jahre und es müssen Kunden her. Davon das in den Konsolen eine Karte von AMD steckt können die sich nichts kaufen. 99% wissen nichts über die Komponenten die da drin stecken und das wird sich auch nicht großartig ändern.
 
AMD wird es sich nicht leisten können zu hoch mit dem Preis zu gehen. Im Gegensatz zu Nvidia ist die Fanbase ziemlich geschrumpft die letzten Jahre und es müssen Kunden her. Davon das in den Konsolen eine Karte von AMD steckt können die sich nichts kaufen. 99% wissen nichts über die Komponenten die da drin stecken und das wird sich auch nicht großartig ändern.
Müssen die doch nicht wissen, nur kaufen reicht doch für AMD. Und die Eckdaten klingen gut für so ne Konsole.
8/16 CPU, 10,x tflops GPU

Die Kiste ist ja fast auf Höhe meines PC^^
 
In 4 Stunden wissen wir mehr und schon jetzt platzt der AMD chat ;)
 
Welcher AMD Chat? :eek:
 
17 Uhr oder 18 uhr??
 
Man wird nochmal auf den 28.10 hinweisen mit einer neunen Folge von "The Bring UP"
 
AMD wird es sich nicht leisten können zu hoch mit dem Preis zu gehen.

Eher so: AMD kann es sich nicht leisten die Karten zu verschenken/subventionieren, weil die Fanbase so klein ist...
Wer erwartet eine 3090 zum Preis einer 3070 zu bekommen wird sicher enttäuscht werden!

Andererseits wird AMD wohl nicht auf den Nvidia Zug aufspringen und völlig überzogene Preise aufrufen, selbst wenn sie irgendwo besser sein sollten.. (Siehe CPU Markt)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh