Haben Ampere-Karten ein Temperaturproblem des GDDR6X-Speichers?

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vega kam übervoltet aus den Fabs und du hast sogar noch Performance gewonnen, wenn du die Spannungen reduziert hast. Das passiert hier bei Ampere nicht (denn obwohl auch Ampere schluckt wie ne Hafendame, ist die Kurve steigend und hat keinen "Knick" wie bei Vega)

Hast du denn schon eine Karte da, oder auf welcher Basis behauptest du das? :rolleyes:

Bei meiner 3090 TUF klappt das super... Undervolten für weniger Power Draw, daher reichen die 370W Power Limit für einen höheren Takt => Höhere Leistung. Ampere ist, soweit ich das bisher beurteilen kann, stark durch das Power Limit eingeschränkt.

Ohne PL würden die meisten (zumindest 3090) Karten wohl bis 2050-2100 MHz gehen und ganz gut skalieren, siehe Romans neuestes Video mit Shunt Mod. Alternativ lassen sich für den Stock Takt von 1800-1900 MHz massiv die Spannungen absenken.
 
Zuletzt bearbeitet:
Hab mir jetzt nicht alles durchgelesen, möchte mich aber mal dazu äußern, wie dämlich imho das Performance/Watt-Argument ist.

Wir sehen es an den Beispielen RX5700(XT) und RTX 2060S/2070/2070S/2080 sowie nun an der 3080.

Die RX 5700 trifft den Sweet-Spot von Navi 10 offenbar wesentlich besser als die XT, weil letztere schon deutlich näher an der Kotzgrenze getaktet ist. Der zusätzliche Takt wird durch überproportional steigende Spannung erkauft, die Karte brauchte AFAIR auf jeden Fall 1x8-Pin+1x6-Pin statt nur 1x8-Pin, wie auf der 5700 oft zu sehen, und bessere Kühler. PCB weiss ich gerade nicht mehr, kann auch etwas günstiger gewesen sein.
Ist die 5700 jetzt die bessere Karte als die XT? Nein, das kann man nicht so sagen. Die XT liefert absolut gesehen mehr Leistung für einen immernoch sehr guten Preis. Wer die Leistung will, wird zur XT greifen.

Noch besser sieht man das anhand der Super-Karten. Die 2060S und 2070S waren im Grunde genommen nichts weiter, als 2070 und 2080 mit ein paar deaktivierten SM und leicht gesteigertem Takt (gegenüber Standard, nicht FE/OC). Sie waren daher deutlich ineffizienter, da das Deaktivieren von SM quasi keine Energie spart und eine 2060S etwa genausoviel verbrauchte wie eine 2070 (sogar leicht mehr), aber ein paar % langsamer oder höchstens gleichschnell war. Die 2070S war 10% schneller als die 2070, aber mit dem Verbrauch einer 2080. Der Kunde hätte die besseren Produkte bekommen, wenn NV einfach 2070 und 2080 im Preis gesenkt hätte. Auch für Nvidia waren die beiden Karten schlechter, da 2060S und 2070S genausoviel kosten dürften wie 2070 und 2080, nun aber zu einem niedrigerem Preis angeboten werden mussten (dank 5700XT übrigens!).
Sind die alten Karten also besser? Nein, definitiv nicht. V.a. die 2070S ging weg wie warme Semmeln, offensichtlich war die gebotene Performance für den Preis ein guter Kompromiß für viele, obwohl sie nur 10% schneller als die gut 100€ günstigere 5700XT war. Die 2060S wollte kaum jemand, obwohl fast gleichschnell und gleichteuer wie die 5700XT, aber eben ein Quäntchen langsamer und teurer. Die 2070 gab es teils auch noch in dem Preisbereich, die war auch ein besserer Deal da mehr OC-Spielraum.

Was will ich damit sagen? Energieverbrauch ist relativ egal, was für den Kunden zählt ist Leistung/€, nicht Leistung/W. Solange der Energiehunger nicht zu technischen Problemen und weiteren Kosten (neues, dickers Netzteil mit mehr 8-Pin-Steckern, laute Kühlung, Aufheizen des ganzen System etc.) führt, sind vielen 50-80W Mehrverbrauch für ein paar % mehr Performance egal. Das sieht man auch gut daran, wieviele ihre Karten und auch CPUs bis an die Grenze OCen, was immer die Effizienz kaputt macht.
Und warum sollte es uns auch kümmern? Man zockt ja nicht jeden Tag in der Woche 12 Stunden. Was sind da bitte 50-100W Mehrverbrauch? Eine Glühbirne weniger, die ein paar Stunden brennt. Bei den Stromkosten merkt man das kaum.

Bei der 3080 und 3090 ist für mich relevanter, dass der Energiehunger so groß ist, dass viele AIB-Karten schon 3x8Pin brauchen und damit mein Netzteil überfordern würden, dass die Karten und v.a. der GDDR6X recht heiß wird, dass es quasi keinen OC-Spielraum gibt, obwohl allesamt monströse Kühler haben und dadurch kaum ohne Stützschiene eingebaut werden sollten und dass es Instabilitäten gibt, auch wenn diese nun nicht mehr unbedingt rein auf Energiebedarf und Hitze zurückzuführbar zu sein scheinen.
Wenn die 3080 bei gleicher TDP nur 15% mehr Performance als die 2080Ti liefert, dann ist das imho bei einer neuen Generation (auch wenn die Version des GA102 auf der 3080 fast 1:1 der des TU102 auf der 2080Ti entspricht, nur mit Ampere-Optimierungen) mit Shrink (der Chip ist 20% kleiner!) nicht besonders toll. Aus Nvidia-Sicht ist es auch nicht besonders toll, für den gleichen Preis wie die 2080S eine Karte mit so aufwändigem Kühler, so teurem PCB und Speicher und einem 15% größeren Chip verkaufen zu müssen, nur um einen ordentlichen Performancezuwachs bieten zu können.

Man sieht leider auch, dass AMD in den letzten Jahren immer schlechter als Nvidia darin war, seine Chips auf den Sweet Spot hin zu optimieren, bzw. auch oft dazu gezwungen wurde, um konkurrenzfähige Leistung zu liefern. 5700(XT), Vega64/56, RTX 590/580/570/480/470 und AFAIR auch R9 390(X)/290(X), die beschnittene Karte war stets effizienter, der Vollausbau erkaufte sich Mehrperformance immer mit überproportional viel Mehrverbrauch. Bei all diesen Modellen konnte man aber auch gut erkennen, dass die fehlenden Shader nur relativ wenig Mehrleistung brachten, gleichzeitig aber auch eine beschnittene Karte bei gleichem Takt und gleicher Spannung die gleiche Energie für weniger Leistung benötigt. Eine 5700 mit XT-Bios schluckt genausoviel wie eine XT, also ~20% mehr, die ist aber immernoch 6% schneller, statt vorher 12%.

Deswegen lache ich schon seit Jahrzenten, wenn jemand meint, er habe durch OC jetzt z.B. eine 2070S@2080 oder so.
 
Zuletzt bearbeitet:
Genau so siehts aus.
Ob eine Karte 200 oder 400 Watt tdp hat ist, zumindest was den Stromverbrauch betrifft relativ egal. Relevant wäre ein neues Netzteil, andere Kühlung des gesamten Systems etc. aber nicht das was auf der Stromrechnung steht.
Irgendwie kann ich mich vielleicht sogar glücklich schätzen dass Amazon die Zotac storniert und mir die Entscheidung abgenommen hat. Unabhängig davon dass ich ab Donnerstag bis einen Tag nach der AMD-Vorstellung sowieso nicht im Land bin will ich sowieso eine FE.
Hoffe die kriegen die Probleme mit dem Speicher und den Kondensatoren in den Griff falls AMD nichts liefert.
 
Hast du denn schon eine Karte da, oder auf welcher Basis behauptest du das? :rolleyes:

Auf der hier:
clock-vs-voltage.png


Ansonsten kannste mir gerne eine rüberschicken und ich guck mir das dann gerne an. :hust:

Bei meiner 3090 TUF klappt das super... Undervolten für weniger Power Draw, daher reichen die 370W Power Limit für einen höherem Takt => Höhere Leistung. Ampere ist, soweit ich das bisher beurteilen kann, stark durch das Power Limit eingeschränkt.

Ohne PL würden die meisten (zumindest 3090) Karten wohl bis 2050-2100 MHz gehen und ganz gut skalieren, siehe Romans neuestes Video mit Shunt Mod. Alternativ lassen sich für dne Stock Takt von 1800-1900 MHz massiv die Spannungen absenken.
Romans Video zeigt auch, dass die Karten eine gewisse Temperaturabhängigkeit zeigen und Igor diskutiert auch den Einfluss der Chipgüte auf potentielle Maximalfrequenzen bzw. Abstürze. Wenn die Default-Kurve global abgesenkt werden kann (Offset), das PT aber limitiert, solltest du den Sweet-Spot bei 370W eigentlich ganz gut einpegeln können.

Vega ging jedoch bis 1.2V und das war nicht wirklich am PL, jedoch hatte diese bei circa 1.15V einen Knick und verlor wieder an Leistung, weil sowohl Leakage exorbitant wurde, als auch der HBM-Speicher schlichtweg überhitzte (war zu mindest bei meinem Sample so). Die Kurve von TPU hört aber bei kurz vor 1.1V auf - und bis dahin skaliert Ampere homogen nach oben. Wo genau ist da also der "Vega-Knick"?
Beitrag automatisch zusammengeführt:

@Tigerfox Das Perf/W Argument kam deswegen auf, weil AMD mit +50% Perf/W für RDNA2 wirbt und deswegen die Leute ihre Extrapolationen der möglichen Leistung darauf basieren. Inzwischen gibt es auch schon mehrere Blättchen im Leaker-Land, welche RDNA2 auf 2.2-2.5GHz sehen, was deutlich über den Fab-Standard der 5700/XT liegt, welche 1800-1900MHz dicht gemacht haben. Da die XT - wie du es schon gut beschrieben hast - an der Kotzgrenze läuft, ist jegliche Steigerung hin zu 2.000MHz oder mehr teuer mit Strom erkauft und irgendwann läuft die Karte voll in die Wand, wo selbst 1.2V und +50% PT nix mehr bringen. Wenn BN jetzt aber >2.2GHz schaffen soll, geht das nur mit einem optimierten Prozess welcher eine höhere Frequenz zulässt - also die Wand nach hinten verschiebt.

Und genaus das "wollen die Kunden" - mehr Leistung bzw mehr Leistung/€ - und um da hinzukommen, brauchst du mehr Perf/W, weil halt irgendwann der Chip dicht macht.
 
Zuletzt bearbeitet:
Ich kann mich auch nocht gut daran erinnern, dass die Erwartungen an Big Navi vor 1-1,5 Jahren, als die ersten Gerüchte über 80CU auftauchten, längst nicht so hoch waren, weil man sich ausgerechnet hat, dass bei einer Verdopplung der Ausführungseinheiten die Leistung sich nicht auch verdoppeln kann, da selbst mit optimierter Fertigung nicht das Energiebudget da ist, um auch noch den Takt zu steigern, sondern dieser eher sinken muss. Deshalb hat ja auch eine 2080Ti immer einen geringeren Takt als eine 2080FE/S gehabt und jetzt die 3090 etwas weniger als die 3080.
 
Ich kann mich auch nocht gut daran erinnern, dass die Erwartungen an Big Navi vor 1-1,5 Jahren, als die ersten Gerüchte über 80CU auftauchten, längst nicht so hoch waren, ...
Erste Gerüchte gingen nicht davon aus, dass eine AMD im vermeintlich gleichen Prozess die Effizienz deutlich wird steigern können. MIttlerweile wissen wir aber, dass AMD plant in Richtung ~50% Perf./Watt zu gehen für RDNA2 vs. RDNA1. Das heißt, Für ~20-30% größer 2080TI wird man ca. 280W benötigen, ausgehend von der 5700XT.
Wie und wo sie das wirklich halten, werden wir sehen. Aber die Wahrscheinlichkeit ist relativ hoch, dass dem so sein wird... Es ist allerdings ne andere Nummer aus einer Technik beliebig nach oben skalieren zu lassen ggü. einer Technik, die man auf ein gewisses Ziel hin ausgerichtet hat. Sprich, wenn sie 50% mehr Perf/Watt ggü. RDNA1 wollen, kann man das sicher schaffen. Was daraus aber nicht automatisch passiert ist eben, dass sie nebst der Effizienzsteigerung auch gleichzeitig die Leistung im Verhältnis überdurchschnittlich steigern. Theoretisch kann es auch sein, man kommt "nur" bei 2080TI bei 250W oder so raus. Und wenn man das dann Richtung 3080/3090 aufdreht, verliert man den Vorteil wieder. Aber genau so könnte es sein, dass sie die 3080 spielend packen bei weniger Verbrauch.
Ampere säuft wie Loch in Games und bringt das Mehr an Power nicht wirklich gut auf die Straße in Games. Ein um 40-50 Watt restriktiveres Powerlimit lässt im Schnitt nur ne Hand voll Leistung liegen. Und andersrum, noch viel mehr Strom da rein zu ballern bringt auch irgendwo quasi fast nichts bei Ampere. Zumindest in Games. Mich dünkt, dass NV da in Limits läuft. Sprich in der GPU irgendwo Limitiert was, was nicht die FP32 Performance ist. Und auch nicht das Powerbudget. Selbst Speicherbandbreite scheint mir kein wirkliches Problem. Das wirkt so bisschen wie beim GK104 damals. Neue Architekturstufe, anders als bisher und die Rohleistung ist zwar da, aber so recht skaliert das nicht.
 
Das ist mir alles klar, trotzdem wundere ich mich, wieso AMDs vollmundige Versprechungen plötzlich so glaubwürdig zu sein scheinen. Allein, dass man schon mit Perf/Watt statt realer Leistungssteigerung wirbt, ist typisch AMD-Marketing, um einen größeren Leistungssprung zu suggerieren. Ich hab jetzt keinen Überblick, von wem welche Aussagen zur Leistung von Big Navi ggü. 2080Ti, 3070 und 3080 stammen, aber eigentlich dachte ich, AMD hätte nach Vega gelobt, den Mund nicht mehr so voll zu nehmen, weil man selbst so unerfüllbare Erwartungen an ein eigentlich ordentliches Produkt schürt und dieses durch die Enttäuschung unnötig diskreditiert.

Eine Karte leicht oberhalb von 2080Ti und 3070(Ti) bzw. zwischen 3070 und 3080 wäre doch völlig ok, da kann man genau wie mit der 5700(XT) seine Preisnische finden, selbst wenn man nur gleichschnell wie die 3070(Ti) ist, so wie die 5700(XT) minimal schneller als die 2060S war und trotzdem wesentlich mehr Käufer gefunden hat.
Da spreche ich allerdings aus der Perspektive von jemandem, der trotz ausreichender Finanzkraft schon die ~500€ für eine 2070S und nun 3070 als ziemlich hoch für ein so kurzlebiges Produkt wie eine Grafikkarte empfindet und lieber weiter bei maximal 300€ wie zu Schüler- und Studentenzeiten einkaufen würde, während ~700€ schon das absolute Ende der Fahnenstange wären. Vierstellig? Niemals. Der Bereich einer 3090, vorher 2080Ti interessiert mich, und imho die Mehrheit, nicht wirklich, was aber in diesem von Enthusiasten-Forum nicht immer sichtbar ist, der Bereich der 3080 auch nur eine Minderheit.

Um es mal anders auszudrücken, niemand würde einen 3er-BMW ausschließen und zur C-Klasse greifen, nur weil ein AMG GT eindeutig das sportlichere Auto als ein M8 ist. Wenn der 3er besser gefällt, dann zählt nur das, nicht, was sich Preisklassen darüber abspielt.
Wenn ich allerdings sehe, wie verhätnismäßig gut die 2080Ti weggeht und wie hoch der Gewinn daran ausfallen dürfte, kann ich mir schon vorstellen, dass es sich für NV lohnt, ein solches unangefochtenes Spitzenmodell zu haben. Ich bezweifle, dass das bei der 3090 genauso wird, selbst wenn AMD kein Konkurrenzprodukt liefern kann.

Was Du mit dem GK104 meinst, ist mir nicht mehr klar, obwohl ich selbst bis vor kurzem eine GTX 670 hatte.
 
Romans Video zeigt auch, dass die Karten eine gewisse Temperaturabhängigkeit zeigen

So wie jede GPU und CPU, insbesondere mit Boost. Ampere verhält sich hier nicht auffällig anders als andere Architekturen oder Chips, noch erwähnt Roman irgendetwas in diese Richtung. Warum also erwähnen?

auch den Einfluss der Chipgüte auf potentielle Maximalfrequenzen bzw. Abstürze

Auch hier: Das gilt so für jeden Chip, egal ob GPU von NV/AMD oder auch CPUs.

Was ich allerdings nicht verstehe: Inwiefern ist das hier relevant und bezieht sich in irgendeiner Weise auf den Inhalt meines Posts bzw. den von mir zitierten Teil deines Posts?

Vega ging jedoch bis 1.2V und das war nicht wirklich am PL, jedoch hatte diese bei circa 1.15V einen Knick und verlor wieder an Leistung, weil sowohl Leakage exorbitant wurde, als auch der HBM-Speicher schlichtweg überhitzte (war zu mindest bei meinem Sample so). Die Kurve von TPU hört aber bei kurz vor 1.1V auf - und bis dahin skaliert Ampere homogen nach oben. Wo genau ist da also der "Vega-Knick"?

Auch hier: Kontext?

Nochmal, deine Aussage war:

Vega kam übervoltet aus den Fabs und du hast sogar noch Performance gewonnen, wenn du die Spannungen reduziert hast. Das passiert hier bei Ampere nicht (denn obwohl auch Ampere schluckt wie ne Hafendame, ist die Kurve steigend und hat keinen "Knick" wie bei Vega)

Das war die von mir zitierte Aussage und die ist schlicht falsch. Ampere kommt mit 1,08V für ~1800-19000 MHz Stock Boost, braucht dafür aber je nach Chip nur zwischen 0,8 - 0,9V mit manuellem Ausloten im Curve Editor + Undervolting. Durch das Reduzieren der Spannung sparst du Temperatur, Power und Ausnutzung des PLs und erhöhst somit die Leistung bei gleichem bzw. sogar mehr Takt.
 
Zuletzt bearbeitet:
@Tigerfox Klar muss man das Marketing mit Salz nehmen - deswegen schrieb ich ja "AMD wirbt damit" und nicht "ist so" - ich denke nicht, dass diese 50% Perf/W an der Wand erreicht werden, sondern im "Sweet Spot" um die "1.1V und leicht drunter" herum. Und selbst da muss man vorsichtig sein, dass nicht die gleiche Grütze wie Nvidias "1.9 Perf/W" Zauberdarstellung gewählt wird. Einziger Indikator ist derzeit nur der Leak der Frequenzen, die sich bei Navi 22 bei 2.500MHz befinden sollen (auch wenn ich das noch nicht wirklich glauben kann). Wir werden sehen:

@ralle_h Nochmal: Wenn ich bei Ampere die Karte tunen kann, in dem ich bei gleicher Frequenz weniger Spannung brauche - und das über den gesamten Bereich, dann ist da kein Knick drin. Das ist das, was du mit deiner Karte machst. Dein Sample ist so gut, dass es undervoltbar ist - über die gesamte Spanne der Kurve. Da ist kein "Knick" drin, sondern ein Offset nach unten. Wenn ich dann vom getunten Offset vergleiche, wie das vs stock läuft, hast du logischerweise weniger Stromverbrauch/mehr Headroom. (Und meine restlichen Anmerkungen beziehen sich darauf - je höher deine Chipgüte ist, desto größer dieser Headroom)

Jetzt guck noch mal an, was ich geschrieben habe: Vega hat im Bereich von 1.15V bis 1.2V (bitte nicht in Beton nageln, das ist auch hier Sampleabhängig) Leistung verloren, weil Leakage und weil der HBM Speicher zu heiß wurde. Ampere zeigt diesen Knick nicht, weils vorher im Power-Limit ist (da kann man dann mal Shunt Mods probieren). Keine Ahnung, ob man überhaupt 1.2V einstellen kann - frißt dann wohl 500+W - was die Luftükühler wohl überfordert und daher wohl nicht evaluierbar ist. Andere Ausdrucksweise: Auch deine optimierte/getunte Kurve ist stetig steigend. Es gibt keinen Umkehrpunkt, weil du vorher im PL bist.

TL;DR: Vega hatte einen nicht linearen Knick, Ampere hat diesen (soweit ich es sehen kann) nicht.
 
Zuletzt bearbeitet:
Mittlerweile wissen wir aber, dass AMD plant in Richtung ~50% Perf./Watt zu gehen für RDNA2 vs. RDNA1.
Seit dem Polaris Release (up to 2.7) glaube ich da vor dem ersten Test nichts mehr, insbesondere da keine verbesserte Fertigung zum Einsatz kommt. Nvidia hat auch sehr werbewirksam "up to 1.9" genannt, was in der Praxis so auch eher nicht der Fall ist. Also ich hoffe sehr dass sie +50% erreichen, aber ich bezweifele es.
 
MIttlerweile wissen wir aber, dass AMD plant in Richtung ~50% Perf./Watt zu gehen für RDNA2 vs. RDNA1.
*Wissen* tun wir gar nichts. Status: Irgendwas wurde geleaked - oder frei erfunden.
 
*Wissen* tun wir gar nichts. Status: Irgendwas wurde geleaked - oder frei erfunden.
Und deshalb sollten wir - wie schon zig mal erwähnt wurde - auf die Benchmakrs/Reviews warten. Da es aber mal wieder Gehype/Weltuntergangsprediger wie zu jedem Launch gibt, muss man da wohl mal wieder etwas Sauerstoff in die Foren pumpem, damit die Leute diesen Panikschiebern nicht aufsitzen. Oder man tut es nicht und lässt die Leute ins offene Messer laufen. Geht auch.
 
Ohne PL würden die meisten (zumindest 3090) Karten wohl bis 2050-2100 MHz gehen und ganz gut skalieren, siehe Romans neuestes Video mit Shunt Mod. Alternativ lassen sich für den Stock Takt von 1800-1900 MHz massiv die Spannungen absenken.

Warum ist das so, sollte das stimmen, damit untergräbt NVIDIA doch seine eigenen Karten? Die Mehrleistung ist selbst dann überschaubar, würde aber mit mehr Taktfreudigkeit so manchem Turingbesitzer einen größeren Wechselanreiz bieten. Will NVIDIA das nicht?
 
Seit dem Polaris Release (up to 2.7) glaube ich da vor dem ersten Test nichts mehr, insbesondere da keine verbesserte Fertigung zum Einsatz kommt. Nvidia hat auch sehr werbewirksam "up to 1.9" genannt, was in der Praxis so auch eher nicht der Fall ist. Also ich hoffe sehr dass sie +50% erreichen, aber ich bezweifele es.
Du solltest die genannten Aussagen auch so verstehen wie sie getätigt wurden und nicht einfach was annehmen was du gern hättest. NVs Perf./Watt Angabe bezieht sich auf ein fixes Leistungsziel - entgegen sonst in Reviews üblichen Angaben ist das eben anders. Aber es ist lange nicht falsch. Zu behaupten es wäre so nicht, zeigt nur dass du die Aussage leider missverstanden hast.
Polaris ist/war auch deutlich effizienter als der Spaß davor, war nur keine Garantie dass es für die Konkurrenz reicht. Was sie liefern, werden wir sehen. Aber man muss nicht vor Start schon den Teufel an die Wand malen - dazu ist später ja noch genug Zeit.

*Wissen* tun wir gar nichts. Status: Irgendwas wurde geleaked - oder frei erfunden.
Nein, die Angabe stammt von AMD. Nix Leak oder frei erfunden. Wäre dem so, würde ich dir gar zu 100% zustimmen. Aber dem ist nicht so. Sie müssen sich an der Angabe messen. Bis dazu gibt's auch wenig Anlass zu glauben dem komme nicht so. Genau genommen kommt man mit GA102 auf ähnliche Werte, wenn man das PT eben um die 40-50W senkt bei der 3080. Das kommt ca. da raus wo ein doppelter Navi10 bei ordentlicher Skalierung raus kommt. Mit Navi10 wurde bewiesen, dass pro Takt auch AMD mithalten kann, wenn auch zeitlich deutlich später. Wieso sollte man hier ohne einen deut an IPC Steigerung auf einmal komplett wegbrechen? Zumal IPC Steigerungen ebenfalls genannt wurden von AMD bei RDNA2. Weiterhin lässt sich an Series X/PS5 indirekt ableiten wohin die Reise bei der Effizienz geht.

Das sind alles keine wasserdichten Fakten - stimmt, aber es sind seeehr glaubwürdige Indizien
 
... Nein, die Angabe stammt von AMD. Nix Leak oder frei erfunden....
Es gibt ja auch schon Benchmarks aus China - das sind aber alles Tests unter einem X-System Rahmenbedingung, kein steriler in Heißkleber gegossener Benchtable, der darauf getuned ist eine so geringe wie mögliche Standardabweichung und minimalst möglichen Overhead zu haben.

In dem Falle sind die Angaben (zwischen 3080 und 3090) sogar noch als verhalten positiv zu bewerten, da vor allem die Treiber auch noch nicht final sind. Wirklich wissen tun wir es aber erst mit echten Benchmarks. Und da kann ich dann halt nur noch mit dem Kopf schütteln, wenn Sätze kommen wie "Wird grad mal an die 3070 reichen".

Das sind Sätze, welche die Kult-Affinität verschleiern sollen, aber offenbaren, dass man gar nicht auf AMD warten will. Warum nicht einfach die Eier in der Hose haben und sagen "Mit egal. Selbst wenn AMD 50% schneller und halb so teuer ist, ich kaufe trotzdem Nvidia." Warum sich hinter solchen strunzdummen Aussagen verstecken?
 
Ich versuch(t)e vergebens den Punkt in deiner Aussage zu finden. Aber irgendwo gibts da keinen außer dass du was offensichtlich nicht verstehst und dir deswegen ein Konstrukt zusammen reimst...

[...]

Aber gut, ich leg mich wieder hin. Weitere Diskussionen bringen hier eh nix, da du irgendwie überhaupt nicht verstehen willst, dass da kein Vertrag irgendwas verhindert... Zumindest mein Eindruck ;)
Habe mir den Wall-of-text mal durchgelesen und verstehe die Unterhaltung nicht?!

Okay, mit Turing war es nun nochmals etwas anders; danke für die Erklärung.

Steve von GN redet vom Verbot zu Ampere zum Zeigen des öffentlichen Teardowns der Karte und andere halt nicht.
Zu den Fakten kannst du dazu die Verlinkung im Beitrag anzuschauen.
Generell habe ich an der Erörterung mit dir auch keine Lust mehr, denn da gibt es nur was zu erörtern (was bereits geschehen ist) aber nichts zu diskutieren. :p
Entweder die eine Seite erzählt die Wahrheit/lügt oder die andere.

Lass mal Holzmann Holzmann sein :d
Gut, Igor kann man mögen oder nicht. Den meisten Menschen fällt es an Zeit um im völlig überladenen Informationszeitalter Informationen zu sammeln und da Wissen zu extrahieren.
Informationszeitalter bringt die Menschen halt zum Trugschluss, dass durch die massig vorhandenen Informationen, man schneller an Wissen kommt und die "Wahrheit" erfährt.

Pustekuchen; nicht immer richtig :haha:
Sieht man wieder an der Corona Geschichte dass durch massig an Daten, Statistiken, Werte, Zusammenhänge kaum jemand durchblickt und es 1000 verschiedene Meinungen gibt anstatt eine.
Kommt dazu noch Zensur und falsche Verbreitung ist die Meinungsverschiedenheit komplett.
Insofern sind ein paar Stars in der Szene für den Durchblick ganz hilfreich ;)
 
Oder du hast einfach nicht verstanden, was Steve gemeint hat ;)

Steve von GN redet vom Verbot zu Ampere zum Zeigen des öffentlichen Teardowns der Karte und andere halt nicht.

Es gab einen Zeitpunkt (vor Ablauf der NDA) an dem man die Karten Unboxen und nur von Außen zeigen durfte, aber nicht mehr (kein Testen, Teardowns usw...). Stand so auch im Unboxing von Andi/Don. Ab Fall der NDA war alles erlaubt. Steve hat auch zu keinem Zeitpunkt was anderes gesagt/gemeint ;)
 
Bin gespannt wie sich Nvidia dazu äußern wird, möglicherweise muss hier auch über einen Rückruf nach gedacht werden. :hust:
Das wird einfach Ausgesessen. Wie bei der 3.5 gb 970.

Die fanboys bekämpfen den shitstorm im Netz und alle anderen interessierts nicht die Bohne.
 
Gerade nochmal geschaut :ROFLMAO:
"Nvidia caught on to our tricks this year, because we never do unboxing-embargos. We typically take the device apart on that day instead."
"But this time nvidia explicity said: No teardowns, no pcb-shots, no disassembly. They said "You can only show the card powered off and assemble, and we, we had our ways around that too, but I decided to play along". Hat er am 16.09.2020 so gesagt.
 
Das stimmt ja auch, aber eben nur bis 16.09.2020 15:00 - ab dann war alles erlaubt, wie schon mehrfach gesagt wurde :wink: Bis dahin durfte man nur auspacken, und den Kühler zeigen, nicht aber PCB und Kühler demontieren ("no teardowns, no pcb-shots, no disassembly").

Die fanboys bekämpfen den shitstorm im Netz und alle anderen interessierts nicht die Bohne.

Es sind eher "Fanboys", die einen Shitstorm um Dinge machen, die gar kein Problem sind.
 
Gerade nochmal geschaut :ROFLMAO:
"Nvidia caught on to our tricks this year, because we never do unboxing-embargos. We typically take the device apart on that day instead."
"But this time nvidia explicity said: No teardowns, no pcb-shots, no disassembly. They said "You can only show the card powered off and assemble, and we, we had our ways around that too, but I decided to play along". Hat er am 16.09.2020 so gesagt.
Ist ja doch auch richtig? Bis zum Fall des NDA... Und da ist eben dein Denkfehler. Du unterschlägst den NDA Fall. Es gibt kein Verbot nach dem Zeitpunkt die Karte nicht zerpflücken zu dürfen. Und das ist auch nicht neu sondern galt schon immer. Der Unterschied ist nur hier, im Gegensatz zu Turing, wo man es eben anfangs zwar versuchte, aber nicht durchsetzte, wurde mit Ampere im Vorfeld verboten bis zum Zeitpunkt x die Dinger zu schlachten und geschlachtet zu zeigen... Was du hierbei auch wieder unterschlägst - das ist im Endeffekt nicht anders als sonst immer üblich. Denn bisher galt bis NDA Fall ein Komplettverbot. Nix mit zeigen, nix mit zerpflücken und auseinander genommen zeigen, keine Infos geben. Selbst das Ablaufdatum der NDA ist/war meist unter NDA. Man durfte sozusagen gar nix über das Produkt sagen. Bei Ampere jetzt hier hat man paar Tage vor NDA Fall erlaubt, die Hardware zu zeigen. Das ist die ganze Magie dahinter. :wink:
 
Neeeeeiiiinnn.
Genau das habe ich nicht geschrieben. Nochmal nachschauen.
Ich habe extra ein Fragezeichen gesetzt für wie lange das Verbot von dem GN redet gilt, und war auch der Ansicht dass es höchstens bis zum Zeitpunkt an dem die Karte offiziell vorgestellt werden und zu kaufen sind, gültig sein wird.
Alles andere wäre, korrekt, total dämmlich und nicht kontrollierbar.
Jo, passt schon so (y)
 
Ist es jetzt eigentlich notwendig, die Backplate abzubauen und WLPads einzubauen, wie Igor sagt? :( Meine FE kommt heute.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh