Ampere Smalltalk-Thread (Startpost lesen, Handel nur im Marktplatz!, keine Botanfragen!)

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du kannst nichts effizienteres kaufen, weil es nichts effizienteres gibt.
FPS/Watt liegt sowohl für AMD als auch Nvidia bei +-3.2. unabhängig ob es eine 3060 oder 6900xt ist. Siehe Gamestar Benchmarks, auch irgendwo auf den letzten 20 Seiten
genau das ist das problem. es gibt nichts effizienteres, weil NV das so entschieden hat. nicht weil es unmöglich wäre. und dies wird sich fortsetzten mit immer höheren watt zahlen weil es sich eben verkauft.
Bisschen hochgekocht das Thema? Meine 3090 läuft mit UV bei knapp 280Watt. Die Performance ist für meinen persönliche Zwecke und die Energie die dafür verballert wird, wahnsinnig gut.
hätte aber besser sein, können. mir geht es nicht darum, ob die jetzige generation effizient genug, ist sondern, dass wir den weg immer höherer wattzahlen beschreiten. im vergleich dazu, hat sich der verbrauch von cpu nicht im gleichen maße erhöht
 
Ja und? Es wird lächerlich. Kauft die Karten halt nicht, wenn sie euch zu viel Strom verbrauchen... Ist doch dann ein Zeichen an NVidia. Doof nur, wenn das allen anderen Kunden völlig schnuppe ist.
Klar fände ich das auch geiler, wenn die weniger verbrauchen würden, aber ist halt kein Wunschkonzert. Fällt bei mir eh nicht ins Gewicht, dusche ich halt ne Minute kürzer, denn das zieht bei el. Durchlauferhitzer richtig Leistung im Gegensatz zur 3000er Gen.
Und ja, ich nutze Ökostrom, bevor mich jemand als Umweltsau diffamiert.
Davon ab:
Auch der 5900X zieht wesentlich mehr durch als mein alter i5 2500K, aber wenn es mir darauf ankäme, würde nur noch der Lappi laufen (und bei dir im Übrigen auch, @sirwuffi ).
 
Anhang anzeigen 649348

Finde ich natürlich klasse, dass ich die Paketankündigung über vier Stunden nach Zustellung bekommen habe und das Paket entsprechend lange vor verschlossener Haustür stand.

Bei EVGA steht UPS und Processing drin, geklingelt hat natürlich auch niemand. :wall:
Oh oh das klingt ja ganz so als wenn das Paket nie angekommen ist und sie es nochmal los schicken müssen 🥳
 
genau das ist das problem. es gibt nichts effizienteres, weil NV das so entschieden hat. nicht weil es unmöglich wäre. und dies wird sich fortsetzten mit immer höheren watt zahlen weil es sich eben verkauft.
Die haben das alleine entschieden ohne AMD zu fragen? Schon frech.
 
Kann dir die 3080 Zotac Trinity nicht empfehlen, hab die von Saturn hier sogar mit -15% rabatt also für ca. 920€ und ab 75% FAN Speed ist die anders nervig, geht wohl zurück
dann betreibe die doch nicht mit 75% fanspeed. UV und fertig
 
genau das ist das problem. es gibt nichts effizienteres, weil NV das so entschieden hat. nicht weil es unmöglich wäre. und dies wird sich fortsetzten mit immer höheren watt zahlen weil es sich eben verkauft.
Nein. Es gibt nichts effizientere, weil es aktuell technologisch nicht machbar ist!
AMD und Nvidia liegen gleichauf. Wenn einer von beiden ein besseres Produkt hätte bauen können - sie hätten es getan.
Nochmal: Die Effizienz in FPS / Watt ist für die gammelige 3060 genauso gut/schlecht wie bei der 3090. Und bei der 6700XT und der 6900XT.

Oder aber du hast deutlich mehr Durchblick als all die Chipdesigner und Prozessingenieure und Treibergurus, wahrscheinlich bringst du nebenbei auch Intels 10nm Node ans laufen (okay, der Witz ist etwas spät, weil läuft bereits)

hätte aber besser sein, können. mir geht es nicht darum, ob die jetzige generation effizient genug, ist sondern, dass wir den weg immer höherer wattzahlen beschreiten. im vergleich dazu, hat sich der verbrauch von cpu nicht im gleichen maße erhöht
Nochmal:
Das ist ein Scheinargument. Die Produktpolitik und die Namensgebung ist willkür. Nvidia hat sich entschieden die 3080 als Produkt zu bringen. Sie hätten es nicht machen müssen, dann wäre bei der 3070 Ende gewesen. Und bei 220W.

Und dass ne theoretische Ampere auf TSMC 7nm theoretisch hätte besser sein können... Das ist einfach nur Stammtischpalaver.
 
Zuletzt bearbeitet:
Wenn du einen sparsamen NV Chip willst, nimm halt die Mobile Variante. Es kann nicht alle Welt auf TSMC 7nm produzieren, die Kapas sind begrenzt.
Ich möchte weder noch mehr gezahlt haben für meine Karte noch eine noch schlechtere Verfügbarkeit gehabt haben.
Deal with it...
 
Nein. Es gibt nichts effizientere, weil es aktuell technologisch nicht machbar ist!
AMD und Nvidia liegen gleichauf.

Oder aber du hast deutlich mehr Durchblick als all die Chipdesigner und Prozessingenieure und Treibergurus, wahrscheinlich bringst du nebenbei auch Intels 10nm Node ans laufen (okay, der Witz ist etwas spät, weil läuft bereits)
du glaubst doch nicht wirklich, das wird am ende von Chipdesigner und Prozessingenieure und Treibergurus entschieden ? nvidia produziert nicht die bestmögliche karte sondern, die die am meisten profit macht.
 
du glaubst doch nicht wirklich, das wird am ende von Chipdesigner und Prozessingenieure und Treibergurus entschieden ? nvidia produziert nicht die bestmögliche karte sondern, die die am meisten profit macht.
Setz mal den Aluhut ab... Ich glaub es gibt Hitzestau bei deiner grauen Schwungmasse...
 
mein problem ist ja auch nicht mit nvidia, sondern dass es leuten egal ist wenn in 4 jahren die high-end karten dann mit klimaanlage kommen.
Beitrag automatisch zusammengeführt:

Setz mal den Aluhut ab... Ich glaub es gibt Hitzestau bei deiner grauen Schwungmasse...
überzeugendes Argument, wie immer........
 
mein problem ist ja auch nicht mit nvidia, sondern dass es leuten egal ist ist wenn in 4 jahren die high-end karten dann mit klimaanlage kommen.
Dein Problem ist, dass du technische Zusammenhänge nicht verstehst (oder vieleicht verstehst, aber nicht wahrhaben willst) und statt eine ausgereizte Technologie die nicht mehr hergibt hinzunehmen einfach ne Weltverschwörung herbeischwurbelst.
 
Dein Problem ist, dass du technische Zusammenhänge nicht verstehst und statt einer ausgereizten Technologie die nicht mehr hergibt einfach ne Weltverschwörung herbeischwurbelst.
welche Weltverschwörung ? dass unternehmen Profit maximieren und nicht Technologie ? sehr verschwörerisch....
 
du glaubst doch nicht wirklich, das wird am ende von Chipdesigner und Prozessingenieure und Treibergurus entschieden ? nvidia produziert nicht die bestmögliche karte sondern, die die am meisten profit macht.

Es ist sowohl als auch. Aber wer Letzteres verleugnet sollte sich mal mit NVIDIA‘s Geschäftsberichten auseinandersetzen, oder noch besser einfach die 3080 Ti um 1200 erklären.
 
welche Weltverschwörung ? dass unternehmen Profit maximieren und nicht Technologie ? sehr verschwörerisch....
Ja sowas auch, dass Unternehmen Dinge auf den Markt bringen die sie zuverlässig in großer Stückzahl produzieren (lassen) können und nicht das, was sie in Handarbeit in ihren Entwicklungsabteilungen als Einzelstücke zusammenklöppeln. Skandal.

Ich will auch nen I.D.R zum Preis vom ID.3. Oder nen 919 Evo zum Preis eines Carrera. 🤷‍♂️
 
Es ist sowohl als auch. Aber wer Letzteres verleugnet sollte sich mal mit NVIDIA‘s Geschäftsberichten auseinandersetzen, oder noch besser einfach die 3080 Ti um 1200 erklären.
Nun ja, von der Leistung ist sie dichter an der 3090 als an der 3080.
 
hätte aber besser sein, können. mir geht es nicht darum, ob die jetzige generation effizient genug, ist sondern, dass wir den weg immer höherer wattzahlen beschreiten. im vergleich dazu, hat sich der verbrauch von cpu nicht im gleichen maße erhöht
Es wird aber auch immer mehr gefordert von den Konsumenten. Die Erwartung geht doch in Richtung 4k@120FPS. Wenn du in 1080p spielst, kriegst du auch ein modernes 100Watt Produkt das dir ausreichend FPS zaubert. Zudem, wir hatten schon immer Generationen wo Architekturverbesserungen sich in Grenzen gehalten haben. Dazu kommt, die Fertigung mit 8nm Samsung hat das ganze dieses mal nicht unbedingt begünstigt.
Auch bei CPUs haben wir ewig lange auf der Stelle getreten. Was dazu überhaupt nicht Vergleichbar ist. Du kannst die Architektur und die Skalierbarkeit einer Grafikkarte nicht ohne weiteres mit der einer CPU vergleichen. Die pro Kern Leistung bei CPUs hat sich nur unwesentlich verbessert die letzten Jahre. Es wurde primär die Anzahl an Kernen erhöht und durch verbesserte Fertigungstechnologien einen höheren Energie Konsum ausgeglichen. Durch die kürzeren Pipelines hast du zudem indirekt IPC gewinne. Das kriegst du bei Grafikkarten in der Form nicht so einfach hin.

Ich selbst habe ein eigenes Unternehmen und forsche für das Fraunhofer Institut an neuromorpher Hardware. Dazu habe ich u.a. eine unzählige Anzahl an Grafikkarten in Betrieb um zukünftige (mögliche) Rechnerarchitekturen (neuronale Netze) zu simulieren. Aus erster Hand kann ich dir sagen, es gibt weniges was komplizierter ist als solche Architekturen Jahr für Jahr weiter zu optimieren. Wir sind auch an einem Punkt angekommen wo es immer schwieriger wird. Nicht ohne Grund geht AMD bei GPUs den gleichen Weg wie bei CPUs, um auf große monolithische GPUs bald verzichten zu können.
 
Könnt ihr das nicht per PN klären?

Wieso müsst ihr jetzt hier den Thread mit euren Streit zumüllen?
Willst du lieber weitere 1357 Seiten über EVGA Step-Up, Bots, Scalper, verrückte Marktpreise, mimimi alles zu teuer und das NBB Bingo schreiben? :p

Aber ich hab verstanden. Bin raus.

"The stage is yours"
 
Selbstverständlich. Sieh die mal den Verbrauch der GTX 900 Serie an und dann kam auf einmal die 1080 mit 180 Watt daher.

Kein S.a.u hat damals nach dem Stromverbrauch gefragt: https://www.hardwareluxx.de/communi...igh-end-dtr-2012.873755/page-51#post-23035592

Nochmal:
Das ist ein Scheinargument. Die Produktpolitik und die Namensgebung ist willkür. Nvidia hat sich entschieden die 3080 als Produkt zu bringen. Sie hätten es nicht machen müssen, dann wäre bei der 3070 Ende gewesen. Und bei 220W.

Und dass ne theoretische Ampere auf TSMC 7nm theoretisch hätte besser sein können... Das ist einfach nur Stammtischpalaver.

ja das hätten sie, dann hätten wir jetzt noch weniger Grafikarten, die GTX980M war damals aber auch schon besser als eine Desktop GTX980 und mit mehr RAM ausgestattet, hier gehen wir jetzt ja auch wieder hin. Trotzdem müssen die Stückzahlen her und wenn jetzt jeder rumjammert, der jetzt der jetzt endlich ne RTX hat hilft es auch nichts, dass die Samsung Qualtität nunmal so ist, wie sie ist, ist halt so :d das war schon immer so...
 
Dazu kommt, die Fertigung mit 8nm Samsung hat das ganze dieses mal nicht unbedingt begünstigt.
that's all i'm saying.
und nächstes mal wenn Nvidia wieder vor der Entscheidung steht Samsung oder TSMC, werden sie wieder den günstigeren nehmen, weil die Leute es ja trotzdem gekauft haben. Es sei denn sie riskieren die Performance Krone zu verlieren. (Man kann ja noch hoffen).

Bei den schäbigen AMD GPU's und CPU's von früher hat es auch keinen gestört, dass sie saufen wie ein Loch, stand ja AMD drauf.
Wer hat denn z.B. bulldozer gekauft, wenn er sich Intel leisten konnte? Nicht nur weil sie schneller waren, auch weil sie kühler und damit leiser waren.

Außerdem macht es einen Unterschied, ob man von 120 W auf 180W geht oder von 215W auf 300W.
 
that's all i'm saying.
und nächstes mal wenn Nvidia wieder vor der Entscheidung steht Samsung oder TSMC, werden sie wieder den günstigeren nehmen, weil die Leute es ja trotzdem gekauft haben. Es sei denn sie riskieren die Performance Krone zu verlieren. (Man kann ja noch hoffen).


Wer hat denn z.B. bulldozer gekauft, wenn er sich Intel leisten konnte? Nicht nur weil sie schneller waren, auch weil sie kühler und damit leiser waren.

Außerdem macht es einen Unterschied, ob man von 120 W auf 180W geht oder von 215W auf 300W.
Wer, den der Strombedarf interessiert, betreibt die Karten denn Stock? Die ganze Diskussion hier ist doch nicht praxisrelevant. NV hat die Leistung der Karten mit dem Knüppel nach oben geprügelt ungeachtet der Effizienz. Das OC Potenzial ist nicht umsonst minimal im Vergleich zu den Vorgängern.
 
Wer sich über den Stromverbrauch bei einer 1000€ GPU beschwert hat meiner Meinung nach die Relation verloren 😅
 
...NV hat die Leistung der Karten mit dem Knüppel nach oben geprügelt ungeachtet der Effizienz.
Oder anders gesagt: Früher musste NV die Leistung der 80er Klasse-Karten mit 215W hinbekommen, jetzt akzeptieren die Kunden scheinbar auch 300W. Ist ja nicht so, als hätte Nvidia eine RTX 2080 nicht auch mit 300W TDP designen können.
Beitrag automatisch zusammengeführt:

Wer sich über den Stromverbrauch bei einer 1000€ GPU beschwert hat meiner Meinung nach die Relation verloren 😅
es geht hier doch nicht um Kosten:rolleyes2:
 
Oder anders gesagt: Früher musste NV die Leistung der 80er Klasse-Karten mit 215W hinbekommen, jetzt akzeptieren die Kunden scheinbar auch 300W. Ist ja nicht so, als hätte Nvidia eine RTX 2080 nicht auch mit 300W TDP designen können.
Genau das ist der Grund. :rofl:

Und Thermi, die 320w gtx480 hat niemals existiert und wurde auch niemals wie geschnitten Brot verkauft.

Meinungen und Positionen von ähnlicher Qualität kenne ich sonst nur im Zusammenhang mit "Erde ist eine Scheibe".

Nochmal:
Was ne 80er Karte ist, ist willkürlich.
Es ist eine frei gewählte Zahl.
320w 80er Karten gab's vor 15 Jahren.
Deine Argumentation ergibt von vorn bis hinten keinen Sinn.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh