Ampere Smalltalk-Thread (Startpost lesen, Handel nur im Marktplatz!, keine Botanfragen!)

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann sind die Pins jedenfalls kein Indikator mehr.

Nicht uneingeschränkt, bei einer merklichen Abnutzung oder Kratzern auf den Kontakten wär es halt schon ein Indikator.

Endanwender zimmern auch gerne mal die oft sperrigen Karten leicht schräg in den Slot, was den Kontakten mitunter nicht so gut tut.
 
Zuletzt bearbeitet:
Für den Fortschritt von Generation zu Generation in der gleichen Leistungsklasse.
Und die 3070 und 3080 für einen Vergleich innerhalb der Generation, vom mittleren zum großen Chip. Wobei wir von der 3070 zur 3070ti wissen, dass gddr6x deutlich durstiger ist als gddr6.
 
Habe den equippr Service als wirklich extrem zuvorkommend und kompetent erlebt. Die Möglichkeit, dass die Karte so vom Distri kam ist auch einfach real - dem Shop jetzt im Prinzip B3trug vorzuwerfen, und obwohl sie offensichtlich zügig Support leisten, finde ich unangemessen. Der Kollege aus den Postings haut mir persönlich bisschen zu sehr auf die kacke.
 
IMHO Müll, da weder aussagekräftig noch sinnvoll.
Der Punkt dass höher aufgelöste Monitore linear mit der benötigten Rechenpower skalieren, und Rechenpower in der Regel mit Strombedarf skaliert wird vollkommen ignoriert.
Auch dass die 3080 realistisch die erste 4k Grafikkarte ist wird ignoriert. Ebenfalls wird der Aspekt Performance pro Watt komplett ausgelassen. Der Energieerhaltungssatz wird ebenfalls komplett ignoriert.
Stattdessen wird auf willkürlichen Familienbezeichnungen wie den 60ern, 70ern und 80ern rumgeritten.

TLDR: Setzen 6, danke für nichts.
 
IMHO Müll, da weder aussagekräftig noch sinnvoll.
Der Punkt dass höher aufgelöste Monitore linear mit der benötigten Rechenpower skalieren, und Rechenpower in der Regel mit Strombedarf skaliert wird vollkommen ignoriert.
Auch dass die 3080 realistisch die erste 4k Grafikkarte ist wird ignoriert. Ebenfalls wird der Aspekt Performance pro Watt komplett ausgelassen. Der Energieerhaltungssatz wird ebenfalls komplett ignoriert.
Stattdessen wird auf willkürlichen Familienbezeichnungen wie den 60ern, 70ern und 80ern rumgeritten.

TLDR: Setzen 6, danke für nichts.
Dann freuen wir uns auf nen vergleichbaren Artikel, deinerseits.
 
Dann freuen wir uns auf nen vergleichbaren Artikel, deinerseits.
Gamestar z.B. listet die nach Watt pro FPS.

Screenshot 2021-07-11 at 08-18-13 Radeon RX 6700 XT im Test - Benchmarks gegen RTX 3070 und 30...png
 
Sei froh - ich hatte auch kurz das Netzteil und Coil Whine vom Feinsten mit meiner 3090er GPU. Danach Seasonic Prime 1300 geholt und kein Geräusch mehr (mit gleicher GPU).
 
Mir kommen auch nur Seasonic ins Haus. Beste PSU Marke meiner Meinung nach.
 
Ich hab ein BQ Straight Power 11 Platinum und keinerlei Probleme oder geräusche .. Sehr zufrieden damit :)
 
Dann freuen wir uns auf nen vergleichbaren Artikel, deinerseits.
Vergleichbar mies?
Ne danke. Kein Interesse.

Hier hatte ich meine Idee für einen Test formuliert. Da bekommst du halbwegs brauchbare zahlen raus in zweierlei Hinsicht Effizienzsteigerung 2000er vs 3000er Generation und ob der größere Ampere Chip der 3080 überproportional mehr Strom pro Leistung braucht im Vergleich zum kleineren Chip der gleichen Generation.

Ich hab leider keine Auswahl an Grafikkarten und auch kein ausreichend großes Testsystem. Bei mir gäbe es nur CPU Limit und ein zu kleines Netzteil:shot:

Wenn ich allerdings Leihgaben der genannten Grafikkarten bekommen würde ich auf meine Kappe die Kohle in die Hand nehmen und einen 5600x kaufen für mehr CPU Bums, extra für den Test und mein Node 605 komplett auseinandernehmen und als Bench nutzen (Sonst passt die 3080 nicht ins System)

Ich suche also:
2080s
2080ti
3070
3080
3060ti hab ich selbst.
Ein Netzteil das mit der 3080 klarkommt. Müssten ja ein paar große EVGA NT verfügbar sein :asthanos:


Du kannst aber auch einfach in den Gamestar Test schauen den @hans85 gespoilert hat.
Von 1000 auf 2000 hat sich n bisschen was getan, von 2000 auf 3000 fast nix.
3080 ist genauso Effizient wie 3060 und 3070.

 
Zuletzt bearbeitet:
Optimiert vs Optimiert und OC vs OC nehmen sich 2000er und 3000er quasi nichts bei der Effizienz, so zumindest meine Einschätzung anhand der detaillierten TimeSpy Ergebnisse. Lediglich AMD hat "RTX off" einen Effizienzvorsprung von ~20-25% im Timespy.
 
Ohne UV sind imho alle RTX30XX eine Katastrophe was Effizienz angeht.
 
mhh, da steht immer noch 6 verfügbar. aber warenkorb oder so gibts nicht
Ja, hat mich auch schon die ganze Zeit irritiert.
Sei froh - ich hatte auch kurz das Netzteil und Coil Whine vom Feinsten mit meiner 3090er GPU. Danach Seasonic Prime 1300 geholt und kein Geräusch mehr (mit gleicher GPU).
Das Fractal? Interessant. Bei Bewertungen liest du zu dem Netzteil aber auch das Gegenteil. Könnte ein Montagsgerät gewesen sein.
 
Das ist aber ne Meinung, kein Fakt.
Fakt ist, dass die 3000er +- so effizient sind wie die 2000er.
Das Problem ist viele kennen nicht oder verstehen nicht den Unterschied zwischen Verbrauch und Effizienz.
 
Das Problem ist viele kennen nicht oder verstehen nicht den Unterschied zwischen Verbrauch und Effizienz.
Das sind die gleichen Leute die sich beschweren dass ein Ferrari mehr Durst hat als ein Golf :rolleyes:

Und da sind wir wieder beim Energieerhaltungssatz:
Alles was irgendwo rauskommt muss irgendwo rein.
Ob Strom oder Benzin ist egal. Wenn ich Leistung Abrufe muss ich Energie reinstecken.

Dazwischen gibt's dann noch die Effizienz, wie viel Energie kann so umgewandelt werden wie ich will und wie viel Verlust in Form von Wärme habe ich?
(Allein Ne Heizung ist knapp 100% effizient)
 
Anhang anzeigen 648837
Du meint so +- 20%? Steckt man in eine Ampere genau soviel Energie wie in eine Turing, kommen +20% FPS raus.
Nix mit gleicher Effizienz.
Ich find den Test bzw die Darstellung schwierig, da die 3080 krass untervolted wurde (OEM TDP 320W), während die 2080ti leicht OCed wurde (OEM TDP 250-260W).

Dazu kommt, dass die 3080 durch den größeren Chip sehr viel mehr Rohpower hat.

Mir fehlt für den Test eine 3070 dabei, und dann normiert auf 220 oder 250w, bzw. Beide Stock und Normiert in FPS/W. So ist es für mich eher "Lügen mit Statistik".

@Beercules
ich bin nur der Erklärbär.
Prof? Nee, nee lass Mal.
 
Die bekomm ich nicht mehr oder? Bestellt am 06.07.
 

Anhänge

  • 0C9AD75B-B803-4C52-959B-3606EECDAD0D.png
    0C9AD75B-B803-4C52-959B-3606EECDAD0D.png
    102,1 KB · Aufrufe: 242
Hier mal das GPU Factory Tour bei Zotac, das wird aktuell auch nicht großartig anders laufen, GPU-Test so ab 4:30.


Ein faszinierendes Video! Ich weiß nicht wieso, aber ich war sehr überrascht wie viele Schritte da noch manuell sind.
 
Anhang anzeigen 648837
Du meint so +- 20%? Steckt man in eine Ampere genau soviel Energie wie in eine Turing, kommen +20% FPS raus.
Nix mit gleicher Effizienz.

Sehe da auch keinen sinnvollen Effizienz-Vergleich mit der Vorgängergeneration. Stock 3080 vs hochgeschraubte 2080 Ti?
 
Ich find den Test bzw die Darstellung schwierig, da die 3080 krass untervolted wurde (OEM TDP 320W), während die 2080ti eher OCed wurde.

Dazu kommt, dass die 3080 durch den größeren Chip sehr viel mehr Rohpower hat.

Mir fehlt für den Test eine 3070 dabei, und dann normiert auf 220 oder 250w, bzw. Beide Stock und Normiert in FPS/W.
Die 2080TI war bei Turing schon die effizienteste Karte. Die +20Watt aus dem Schaubild sind natürlich als OC zu werten, wodurch die Effizienz wahrscheinlich auch minimal abnimmt. Es werden in dem Bereich aber keine 5% sein.
Am Ende ist es auch egal, wie groß der Chip ist. Du hast das ja mehr oder weniger selbst gesagt, das Verhältnis von Input (Energie) zu Output (FPS) beschreibt die Effizienz. Ob dazwischen jetzt 10000 Shader liegen oder 5000 die man vergleicht ist erstmal egal. An der Gleichung ändert sich nichts.
Um jetzt den Generationsvergleich Ampere vs. Turing am besten zu beantworten, müsstest du die effizienteste Chip-Konfiguration aus Turing vs. die effizienteste Chip-Konfiguration aus Ampere gegenüberstellen und beide im absoluten Sweetspot betreiben. Vermutlich wäre das 3070 bei 150Watt vs. 2080Ti bei knapp 220Watt.
 
müsstest du die effizienteste Chip-Konfiguration aus Turing vs. die effizienteste Chip-Konfiguration aus Ampere gegenüberstellen und beide im absoluten Sweetspot betreiben.
Exakt, so sehe ich das auch. Oder eine Effizienz-Analyse über den gesamten Spannungs-/Verbrauchsbereich (Igor hatte da was Tolles für die 2080 TI vs 1080 Ti - eben jenes um 3070/3080/3090 und 6800/6900 (XT) erweitern wäre super @Igor THG ;) )
1625996175566.png

Ich habe mich bisher an den TimeSpy Resultaten für ~1800 MHz @0.8V orientiert - da sollten die Karten sehr Nahe am Sweetspot arbeiten. Und genau hier tut sich nichts zwischen Ampere-Turing.
 
Dafür dass Ampere 8nm ist und Turing 12nm finde ich Perf/Watt schon gut erbärmlich, aber ich weiss gerade nicht ausm Kopf wie gut Samsung 8nm ist. Ich glaube die sind relativ schlecht und was auch immer Nvidia danach nehmen wird (7nm TSMC oder 5nm oder was auch immer) wird bestimmt einen gigantischen Perf/Watt Sprung machen (müssen).

Ich glaube die 30er Karten, besonders die Modelle ab 3070 Ti brauchen halt auch sehr viel wegen GDDR6X und arbeiten nicht auf peak efficiency und sind ein bisschen überzüchtet wegen der AMD Konkurrenz. Wenn man sich anschaut wo die 6800XT und 6900XT sich anreihen in der standard Rasterization performance dann kann man schon behaupten, dass Nvidia das gut "eingeschätzt" :whistle: hat wo AMD sich positionieren wird mit RDNA2.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh