Haben Ampere-Karten ein Temperaturproblem des GDDR6X-Speichers?

Du hast eine 3080 gekauft und diese direkt für 1500 EUR verkauft? Es gibt echt Leute die dafür 1500 EUR zahlen? Oh man, ich habe hier noch eine 2080S, hast du da einen Kontakt, der mir dafür auch so 1100 EUR geben würde? :d :d
Wenn das echt so ist, dann ist es einfach unfassbar, wie viele dumme Leute es doch gibt. Sorry für die drastischen Worte, aber das ist echt übel.
Ich mache hier nicht einmal dir, als absoluter Geldgeier, die Vorwürfe, sondern viel mehr denen, die so dumm sind, diese Preise auch noch zu bezahlen.


Also 1000 Euro sind definitiv drin. Mit ein paar RTX 3080 kann man sich eine RTX 3090 "cheaten". Deswegen ist die RTX 3090 so wie ich finde akzeptabel. Kostet aktuell nicht viel mit dem "Cheat".

Finde das mehr als fair nach der Abzockerei der RTX 2080 Ti Seller ab dem 01.09. - 17.09. .
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Sache ist doch ganz einfach. Auf AMD warten und gucken, was die bringen oder eben ggf. auf Nivdias größere Speichervarianten warten.
Vielleicht regelt sich das bis dahin ja mit den Temps bei der größeren Speichervariante.
Aktuell würde ich mir auch keine 10gb 3080 holen, wenn die Next Gen Consolen schon 16gb Vram haben.
16 gb gesamt ram.
 
Finde das mehr als fair nach der Abzockerei der RTX 2080 Ti Seller ab dem 01.09. - 17.09. .

Was für ne Abzockerei? Jeder, der ne 2080 Ti für 350€ verkauft hat, ist m.E. absolut selber Schuld. Totaler Panik & Hypetrain.
 
Also 1000 Euro sind definitiv drin. Mit ein paar RTX 3080 kann man sich eine RTX 3090 "cheaten". Deswegen ist die RTX 3090 so wie ich finde akzeptabel. Kostet aktuell nicht viel mit dem "Cheat".

Finde das mehr als fair nach der Abzockerei der RTX 2080 Ti Seller ab dem 01.09. - 17.09. .

Ja, mir ist das auch Wurst was da jeder macht. Ich glaube, wenn ich die Chance hätte, dass ich eine 800 EUR Karte abstaube und diese mit fast 100% Gewinn verscherbeln könnte, ich da auch keine Sekunde drüber nachdenken würde. Mich erstaunt viel mehr, dass es die Dummen gibt, die diese Preise scheinbar auch noch zahlen.

Edit:
In den letzten Tagen und Wochen habe ich 2 Parteien von Dummem "erkannt" ... die Leute, die tatsächlich aufgrund vom Marketing Bla Bla seitens Nvidia ihre 2080 Ti "verschenkt" haben und die, die nun für eine 3080 1000 EUR und mehr zahlen.

Und dann gibts die, die nun lachend mit einer oder gar mehreren 2080 Ti daheim sitzen, für die sie alle samt nicht mehr als 500 je Stück bezahlt haben :d :d :coolblue:
 
@ralle_h

Sie hat dank der Hypetrainpräsentation von Jensen am 01.09. 150 - 200 Euro an Wert verloren. Ich habe meine für ~540 Euro verkauft. War also ziemlich ..... .

@Terr0rSandmann

Dumm war es damals nicht, die für den Preis zu verkaufen. Damals schien es das Richtige zu sein.

Und nun ist es das Richtige, sich RTX 3080 zu sichern, um das Defizit auszubügeln :d.
 
Zuletzt bearbeitet:
Abzockerei wäre eher wenn nvidia die RTX3080 für 1600€ verkaufen würde
Hardware ist nunmal schnelllebig, ich bekomme für meinen Pentium 4 heute auch keine 300€ mehr

Und der Grund für denn preisdrop ist der community selbst geschuldet.
Um so mehr im Umlauf desto tiefer fällt der preis.
 
Ich sehe - ganz neutral - bei Ampere folgendes:
- Die Leistung wurde mit Strom erkauft, die Architektur skaliert praktisch null
- Die Speicherchips laufen so heiß, dass man mittelfristig mit Defekten rechnen könnte (Die >100°C zu ignorieren ist fahrlässig, da wird ja bereits bei Vorgänger-Generationen sehen konnten, dass der thermische Hub langfristig Defekte verursacht. Warum das bei Ampere per Magie nicht passieren soll, hat noch niemand erklären können)
- 800€ ist nicht "günstig"
- Verfügbarkeit praktisch nicht existent
- Auf Grund mangelnder Kommunikation zum PCB-Design und dem Drang einiger Hersteller bei >800€ GPUs noch ein paar Cent zu sparen, crashen einige Partnerkarten ab bestimmten Taktfrequenzen
- DLSS hat in der Nvidia-Demo Artefakte gezeigt
- Es wurde 16k Trainingsdaten vs 2k Nativ Auflösung Gegenübergestellt (und die Leute feiern diese Verarsche auch noch)
- Die Raytracing-Performance liegt auf dem gleichen Niveau wie Turing (Verlustbetrachtung)

Und was lese ich von den Trollen? AMD Argumente! Als wenn AMD diese Karte versaut hat. Das ganze Teil kann man mit einem Wort zusammenfassen: Kindergarten
Jaaaa, genauuu, der forenweit als völlig neutral bekannte Shevchen :fresse: :lol: Wen willst du eigentlich noch verkaspern hier?
Wenn man spricht wie ein AMD Troll, dann wird man halt auch behandelt wie ein AMD Troll. So ist das eben, die Welt ist hart nicht wahr 🤷‍♂️

- Nicht, dass das bei einer High-End Karte in meinen Augen überhaupt relevant wäre, aber Tatsache ist: Ampere IST effizienter als Turing. Wenn man auf die absolute Leistungsmaximierung verzichten will, gibt es sogar viel mehr FPS/Watt.
- Das ist einfach Bullshit. Es gibt keine bekannten Probleme mit älteren Turing Karten! Wenn überhaupt gab es bei ganz neuen Karten häufiger Defekte, aber ob das wirklich statistisch relevant war oder eher nur ein Sturm im Wasserglas, lässt sich mangels empirischer Untersuchungen bis heute nicht sagen. Dinge werden nicht zum Fakt, nur weil man sie gebetsmühlenartig wiederholt. Und nochmal: Die Teile sind spezifiziert um bei 100°C zu arbeiten. So laufen Chips tagtäglich hunderttausendfach in den Notebooks dieser Welt und das ist überhaupt kein Problem. Da sinkt die theoretische Lebenserwartung des Siliziums von mehreren Jahrzehnten halt auf weniger als mehrere Jahrzehnte. Wow, krass.
- Was du persönlich als günstig empfindest, ist hier mal überhaupt nicht relevant. Tatsache ist, die 3080 ist zum Nvidia Preispunkt sogar günstiger als der namentliche Vorgänger und bietet statt dem kleinen 104 Chip diesmal den größeren 102 Chip, somit ist sie ein gutes Angebot, da gibt es überhaupt nichts zu diskutieren. Die 3090 ist unvernünftig, wie andere Karte davor auch schon. Manche möchten sie trotzdem kaufen, nicht jeder muss jeden Euro zweimal umdrehen, so what?
- Offensichtlich übersteigt die Nachfrage massiv das Angebot, dennoch ist es kein "Paperlaunch", es wurden ja Karten geliefert. Allein hier im Forum ist gestern ja doch der ein oder andere glücklich geworden. Nachdem AMDs Boardpartner ihre Karten gerade erst zusammenstricken und AMD dieses Jahr wohl auch kaum noch riesige Stückzahlen aus der 7nm Fertigung bekommen wird, sollte man sich mit der Häme vielleicht auch erstmal zurückhalten - das könnte nach hinten losgehen.
- Nur weil Igor das jetzt mal in den Raum gestellt hat, ist das noch kein Fakt. Hier sind auch Leute im Forum, die gar keine Probleme mit solchen Karten haben. Wenn es stimmt, ist es vielleicht ein Grund die günstigen Modelle zu meiden. Eine Garantie auf 2GHz hat es aber so oder so niemals gegeben, weder von Nvidia noch von den Boardpartnern!
- Den Rest spar ich mir, ich geh jetzt zocken :wink:
 
@ralle_h

Sie hat dank der Hypetrainpräsentation von Jensen am 01.09. 150 - 200 Euro an Wert verloren. Ich habe meine für ~540 Euro verkauft. War also ziemlich ..... .

@Terr0rSandmann

Dumm war es damals nicht, die für den Preis zu verkaufen. Damals schien es das Richtige zu sein.

Und nun ist es das Richtige, sich RTX 3080 zu sichern, um das Defizit auszubügeln :d.

Naja ... "dumm" ist vielleicht das falsche Wort. Aber man sollte niemals Marketing Bla Bla Bla trauen ohne vorher einen realen (und neutralen) Test gesehen zu haben. Und alle die ihre 2080 Ti da so zum Fenster heraus geschleudert haben, werden sich nun wieder etwas ärgern da es - oh Überraschung - doch keine so krass guten Karten sind wie im Marketing zu sehen war.
 
Ehrlich gesagt habe ich sie nicht wegen der Performance gekauft, sondern wegen HDMI 2.1. Ein CX Oled ohne HDMI 2.1 macht keinen Spaß.

Verstehe auch die Leute nicht, die ihre 2080 Ti gegen eine 10 GB RTX 3080 eintauschen wollen/ eingetauscht haben. Ohne adäquaten Monitor (Oled HDMI 2.1 Fernseher oder Samsung HDMI 2.1 Fernseher) ist diese Anschaffung nutzlos.

RTX 2080 Ti OC ist fast genauso schnell wie eine RTX 3080.
 
Lieber ralle_h,

ich beziehe mich hier auf die OFFIZIELLEN Bilder auf Asus.de
Dort hat die TUF die Schrott-Teile und die STRIX die Top-Teile...

Ich habe also das Video komplett geschaut - und ich habe auch Recht was die Bilder angeht (siehe Anhang) - also empfiehlt es sich bevor man für Postings kritisiert die Fakten auch korrekt zu checken...;-)

Ob die Bilder nun den tatsächlichen Karten entspricht kann ich nicht sagen, aber jeder Besitzer kann das ja selbst prüfen. Ich sagte lediglich das es auf den Bilder so ist - und das stimmt auch!

Edit: Und Asus wird, nach dem Video, die Bilder asap austauschen (wenn die TUF wirklich die guten Kondensatoren hat) - wetten?!? ;-)

Du hattest recht, ASUS hat gerade im eigenen Shop die entsprechenden Bilder entfernt ^^
 
Ist ja auch richtig so, da die produzierten Karten meines Wissens nach (und auch Igors Aussage nach) dieses Problem nicht haben.

Bekomme Montag ne brandneue Retail 3090 TUF und werde berichten.
 
Man nehme eine 250W TDP (3070er), prügelt diese auf 320-340W und nennt sie 3080FE :bigok:
Keine Ahnung ob ich den Joke jetzt nicht verstehe, aber dass das schon aufgrund der geringeren Shader nicht möglich ist, ist dir wohl selbst bekannt?

Also auch mit offenem PL und 340W auf der 3070 wird sie nicht die Performance einer 320W 3080 bringen.
 
Jaaaa, genauuu, der forenweit als völlig neutral bekannte Shevchen :fresse: :lol: Wen willst du eigentlich noch verkaspern hier?
So lange du keine Gegenargumente hast, kannste labern was du willst.
Wenn man spricht wie ein AMD Troll, dann wird man halt auch behandelt wie ein AMD Troll. So ist das eben, die Welt ist hart nicht wahr 🤷‍♂️
... sagte der Nvidia Troll.

- Nicht, dass das bei einer High-End Karte in meinen Augen überhaupt relevant wäre, aber Tatsache ist: Ampere IST effizienter als Turing. Wenn man auf die absolute Leistungsmaximierung verzichten will, gibt es sogar viel mehr FPS/Watt.
Konnte man bei Vega auch so einstellen. War trotzdem scheiße.
- Das ist einfach Bullshit. Es gibt keine bekannten Probleme mit älteren Turing Karten! Wenn überhaupt gab es bei ganz neuen Karten häufiger Defekte, aber ob das wirklich statistisch relevant war oder eher nur ein Sturm im Wasserglas, lässt sich mangels empirischer Untersuchungen bis heute nicht sagen. Dinge werden nicht zum Fakt, nur weil man sie gebetsmühlenartig wiederholt. Und nochmal: Die Teile sind spezifiziert um bei 100°C zu arbeiten. So laufen Chips tagtäglich hunderttausendfach in den Notebooks dieser Welt und das ist überhaupt kein Problem. Da sinkt die theoretische Lebenserwartung des Siliziums von mehreren Jahrzehnten halt auf weniger als mehrere Jahrzehnte. Wow, krass.
Die RMA quoten zeigen was anderes.
- Was du persönlich als günstig empfindest, ist hier mal überhaupt nicht relevant. Tatsache ist, die 3080 ist zum Nvidia Preispunkt sogar günstiger als der namentliche Vorgänger und bietet statt dem kleinen 104 Chip diesmal den größeren 102 Chip, somit ist sie ein gutes Angebot, da gibt es überhaupt nichts zu diskutieren. Die 3090 ist unvernünftig, wie andere Karte davor auch schon. Manche möchten sie trotzdem kaufen, nicht jeder muss jeden Euro zweimal umdrehen, so what?
Umfrage bei HUB sagt: Max 500€ für Average Joe. 800€ > 500€
- Offensichtlich übersteigt die Nachfrage massiv das Angebot, dennoch ist es kein "Paperlaunch", es wurden ja Karten geliefert. Allein hier im Forum ist gestern ja doch der ein oder andere glücklich geworden. Nachdem AMDs Boardpartner ihre Karten gerade erst zusammenstricken und AMD dieses Jahr wohl auch kaum noch riesige Stückzahlen aus der 7nm Fertigung bekommen wird, sollte man sich mit der Häme vielleicht auch erstmal zurückhalten - das könnte nach hinten losgehen.
Genau - die 2% die ihre Karte bekommen haben sind jetzt 100%. Paßt.
- Nur weil Igor das jetzt mal in den Raum gestellt hat, ist das noch kein Fakt. Hier sind auch Leute im Forum, die gar keine Probleme mit solchen Karten haben. Wenn es stimmt, ist es vielleicht ein Grund die günstigen Modelle zu meiden. Eine Garantie auf 2GHz hat es aber so oder so niemals gegeben, weder von Nvidia noch von den Boardpartnern!
Es geht ja auch nicht um eine arbitrare Maximalfrequenz, sondern darum, dass die Karten crashen
 
Trotz besseren Wissens lasse ich mich nochmal auf diesen Bullshit ein, ich lerne es wohl nie :rolleyes2:
- Nicht, dass das bei einer High-End Karte in meinen Augen überhaupt relevant wäre, aber Tatsache ist: Ampere IST effizienter als Turing. Wenn man auf die absolute Leistungsmaximierung verzichten will, gibt es sogar viel mehr FPS/Watt.
Konnte man bei Vega auch so einstellen. War trotzdem scheiße.

Von einstellen (d.h. undervolting) sprach niemand, selbst wenn, das ändert nichts an der miserablen Effizienz von Vega. Mit was für Einstellungen willst du bei einer Vega die Effizienz erreichen, die Ampere out of the Box liefert? Ampere ist z.B. 136% effizienter als Vega, mit undervolting beider Karten noch deutlich mehr als 136%.

Und wenn es dir um die isolierte Betrachtung der Leistungsaufnahme gehen sollte (was in dieser Diskussion völlig irrelevant sein sollte), dann sollte man AMDler vielleicht darauf hinweisen dass bald eine 220 W 3070 kommt, und danach eine 3060 mit noch weniger Watt...

Aber die Resonanz auf diesen Post kann ich mir schon ausmalen, diese Sichtweise können wohl nur AMDler nachvollziehen.
 
Ja, mir ist das auch Wurst was da jeder macht. Ich glaube, wenn ich die Chance hätte, dass ich eine 800 EUR Karte abstaube und diese mit fast 100% Gewinn verscherbeln könnte, ich da auch keine Sekunde drüber nachdenken würde. Mich erstaunt viel mehr, dass es die Dummen gibt, die diese Preise scheinbar auch noch zahlen.

Edit:
In den letzten Tagen und Wochen habe ich 2 Parteien von Dummem "erkannt" ... die Leute, die tatsächlich aufgrund vom Marketing Bla Bla seitens Nvidia ihre 2080 Ti "verschenkt" haben und die, die nun für eine 3080 1000 EUR und mehr zahlen.

Und dann gibts die, die nun lachend mit einer oder gar mehreren 2080 Ti daheim sitzen, für die sie alle samt nicht mehr als 500 je Stück bezahlt haben :d :d :coolblue:

Meine 2080 Ti (die ich seit heute habe) würde ich jetzt mit Gewinn verkaufen können. Werde ich aber nicht tun. Bin ja kein Abzocker, sondern nur ein Zocker... Die FPS gegenüber der 1080 Ti / 5700 XT sind ein Traum, eventuell wird sogar RTX mit verringertem DXR laufen. Und wenn nicht, läuft immer noch alles auf Ultra. BF1 mit fast 100 FPS... Fast 2 GHz nur mit dem Werkstakt. Und das Beste, es bleibt bei 70° und um die 2000 RPM - Also ist sogar noch "Luft" für ein paar Optimierungen. Auf AMD wird nur gewechselt wenn sich das wirklich lohnen sollte, also vom VRAM und Mehrleistung. Die 3080 lohnt sich kaum, wenn dann eine 3090 aber die ist einfach viel zu teuer.
 
- Nur weil Igor das jetzt mal in den Raum gestellt hat, ist das noch kein Fakt. Hier sind auch Leute im Forum, die gar keine Probleme mit solchen Karten haben. Wenn es stimmt, ist es vielleicht ein Grund die günstigen Modelle zu meiden. Eine Garantie auf 2GHz hat es aber so oder so niemals gegeben, weder von Nvidia noch von den Boardpartnern!
- Den Rest spar ich mir, ich geh jetzt zocken :wink:

Das Problem ist, dass die Karten ohne Zutun der User auf die 2.0GHz boosten und dann abschmieren. Wenn die Karten die Frequenz nicht abkönnen, müssen die Hersteller vermeiden, dass diese erreicht wird. Machen sie das nicht und die Karten stürzen ab ist es einfach ein fehler der entweder die Bauteile, das Bios der Karten, den Treiber oder eine Kombination aus den Dreien betrifft.

Cunhell
 
- Offensichtlich übersteigt die Nachfrage massiv das Angebot, dennoch ist es kein "Paperlaunch", es wurden ja Karten geliefert. Allein hier im Forum ist gestern ja doch der ein oder andere glücklich geworden. Nachdem AMDs Boardpartner ihre Karten gerade erst zusammenstricken und AMD dieses Jahr wohl auch kaum noch riesige Stückzahlen aus der 7nm Fertigung bekommen wird, sollte man sich mit der Häme vielleicht auch erstmal zurückhalten - das könnte nach hinten losgehen.

Sorry, aber wer der Meinung ist, dass das von Nvidia kein Paperlaunch war, bei dem lohnt es nicht einmal mehr die Posts zu lesen ... wie grün kann eine Brille sein?
 
Das Problem meiner Meinung nach ist nicht die Speicherchiptemperatur selber, die RAMs könnten auch 150°C heiß werden und würden laufen... bei meinen Versuchen hier beim reparieren hatte der Speicher beim Testen direkt kurz nach dem verlötet noch zwischen 140 und 160°C - und lief fehlerfrei im Speichertest (GDDR6) .
Nein das ist nicht direkt das Problem. Viel eher das unter hobbybastlern gehasste Bleifreie lot, weil man weiß dass es deutlich schlechter als Bleihaltiges Lot ist. Bleifreies Lot bricht wenns ständig heiß und kalt wird, weils so schon recht porös ist. Das wird da eher zum Problem werden schätze ich.
Bei den Rtx20xx Karten gab's Anfang schlechte Micron Chips, das stimmt. Erst Micron Chips nach der 48.KW 2018 waren ok, also ab Datecode 8YA77 oder 8ZA77 oder halt alles ab 9 oder sowas - die waren fehlerfrei. Speicher wie 8AA77, oder 8SA77 oder 8XA77 als Beispiel sind die anfälligen. Micron hatte damals noch Probleme mit den Magnesium Partikeln in den inneren Layern... Aber das ist ein anderes Thema. Damals wurde der innere Chipdefekt durch Hitze begünstigt, aber nicht nur deswegen sind damals reihenweise rtx 2080ti abgeraucht (es gab auch 2060, 2070 und 2080 mit ebenfalls Speicherfehlern, wo das PC-Gehäuse nicht sogut belüftet wurde und dadurch die kleinen Karten auch recht heiß liefen) bei den großen Karten war es auch bis heute immer noch das hohe Gewicht was auch für Ausfälle der Speicher sorgte, weil es da die kleineren Lötpads als bei gddr5 - aus dem Speicher raus gerissen hat... Da hatte ich auch schonmal Bilder gezeigt wie das ausschaut wenn es ganze Lötpads raus gerissen hat nur weil die Karte so massiv durch hing wenn sie normal horizontal verbaut wurde ohne abgestürzt zu werden. Oder es sind eben einfach nur Lötkugel gebrochen - weil das Bleifreie Zeug eben bei weitem nicht mehr so elastisch ist wie Bleihaltiges... Aber naja dank RoHS Verordnung ging eben mit der Haltbarkeit ab der Geforce 7000er Generation erstmal steil Berg abwärts. Klar heute sind die Bleifreien Lötkugeln schon besser, aber leider eben immernoch nicht sogut wie damals die Blei-haltigen...
 
Zuletzt bearbeitet:
Von einstellen (d.h. undervolting) sprach niemand, selbst wenn, das ändert nichts an der miserablen Effizienz von Vega. Mit was für Einstellungen willst du bei einer Vega die Effizienz erreichen, die Ampere out of the Box liefert? Ampere ist z.B. 136% effizienter als Vega, mit undervolting beider Karten noch deutlich mehr als 136%.
Die Vega Architektur ist definitv nicht ineffizient. Oder schon vergessen was in den APUs von AMD steckt und bei 30W? (Schätzwert) abliefert. Genauso wie Vega56 und 64 extrem effizient laufen bei >1V und ~170W. Da stecken sie jede 1070 in die Tasche. Nur leider sind die Karten ab Werk einfach Mist, die Architektur allerdings nicht.
Und willst du wirklich die Effizienz einer 3 Jahre alten Architektur mit einer eben vorgestellten, neuen Generation vergleichen?
 
Und willst du wirklich die Effizienz einer 3 Jahre alten Architektur mit einer eben vorgestellten, neuen Generation vergleichen?
Nicht ich wollte das, sondern Shevchen sprach von Vega als es um die Effizienz von Turing ging. Das wollte ich lediglich richtig stellen.

Aber dann vergleich sie mit einer 4 Jahre alten Pascal GPU (stock oder undervolted, wie du willst) und du wirst eine weitere Bestätigung meiner Aussage erhalten. Aber nimm bitte einen Durchschnitt aller getesteten Spiele (wie z.B: bei Computerbase) und nicht irgend nen Mantle Best Case o.ä.

Pascal (1070, 1080) machen meist 1800 Mhz bei ~0,8V, ich denke da willst du gar keinen Undervolting Vergleich haben, denn @stock sieht Vega vermutlich mehr Land als unter UV.
 
Zuletzt bearbeitet:
Achso, sorry, hab ich überlesen. Ist klar, dass Vega kein Land sieht gegen Ampere.

@stock sind die Vega hald einfach unterirdisch, keine Ahnung was AMD da geritten hat...
In den Apus/Mobils liefern die Vega ja ordentlich ab.

Aber soll hier ja um Speicher und Temperaturen gehen:btt2::wink:
 
Der frühe Vogel fängt den Wurm... in der GPU. Lieber was abwarten, wie bei den Konsolen. Tests muss der Kunde erstmal machen, Bugs & Probleme müssen erstmal noch gefunden werden.
 
@stock sind die Vega hald einfach unterirdisch, keine Ahnung was AMD da geritten hat...
Nvidia sind das ebenfalls, sie werden weit außerhalb des Sweetspots ausgeliefert, sie sind so gesehen deutlich weniger auf Effizienz getrimmt als Polaris und ich nehme mal an ebenso weniger optimiert als Vega. Daher kann ich so solche Aussagen nicht mehr hören. Nicht AMDs Spannungs-/Taktwahl ist das Problem, sondern das Produkt als solches, egal wie man es dreht und wendet, Pascal war im Schnitt erheblich effizienter.

Hier ein wenig Lektüre:
 
Oder es sind eben einfach nur Lötkugel gebrochen - weil das Bleifreie Zeug eben bei weitem nicht mehr so elastisch ist wie Bleihaltiges... Aber naja dank RoHS Verordnung ging eben mit der Haltbarkeit ab der Geforce 7000er Generation erstmal steil Berg abwärts. Klar heute sind die Bleifreien Lötkugeln schon besser, aber leider eben immernoch nicht sogut wie damals die Blei-haltigen...

Für BGA ICs auf Grafikkarten gibt es halt mitunter das volle Programm aus thermischer, elektrischer und physischer Beanspruchung.
Dazu waren/sind die bleifreien Lote oft auch korrosionsanfällig,.
Ich habe schon vor ~14 Jahren die ersten DDR2 Module/Laptop GPUs mit bleilosem Lot im Backoffen "gekittet".
Nebenbei waren das auch überwiegend Module mit Micron ICs. :haha:
Die schönen Crucial Values PC2-5300/6400 mit Micron D9GKX wurden auch gerne hoch getaktet und sind dann schon mal ausgefallen. :heul:

Allerdings dient es halt dem Schutz der Gesundheit der Menschen in der Produktion, das Blei raus zu lassen, und die muss auch Priorität haben.
 
Sorry, aber wer der Meinung ist, dass das von Nvidia kein Paperlaunch war, bei dem lohnt es nicht einmal mehr die Posts zu lesen ... wie grün kann eine Brille sein?
Naja wenn man deine Postings in jedem Thread ließt meint man du hast dir in die Windel gemacht, weil du "angeblich" deine Karte nicht bekommen hast. Predigst aber gleichzeitig man solle nicht auf das "Marketing" vertrauen 🤪.

In der Tat kann keiner genau sagen wie viel Stückstahlen tatsächlich zum Launch bereit standen, eine enorme Nachfrage besteht bei der GeForce speziell nach so langer Zeit zwischen einer Serie sicherlich, deutlich mehr als bei den Radeons welche auch nie wirklich gut verfügbar sind am Tag 1 :unsure:.
Nichtdestotrotz natürlich nicht besonders erfreulich den Produktionszeitraum zu verkürzen, das wird aber sicher seine Gründe gehabt haben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh