Grafikkarten Kultur, Tod ?

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist doch das gleiche wie bei den CPU, die neuen CPU´s liefer rel. wenig Mehrleistung gegenüber meinem alten i7 920 @ 4ghz. Er ist spürbar aber nach fast 5 Jahren nicht krass genug wie es jetzt vom P3 500mhz auf P4 2ghz innerhalb von 9 Monaten war. Sitzt man sich jetzt mal an nen P4 mit 2ghz kann man ned mal mer vernünftig surfen ^^

Naja, man hat immer noch kleiner Produziert und dadurch mehr Transistoren auf so nen Chip gebracht und dadurch mehr Leistung geholt. Dann noch ein wenig an der Architektur geschraubt und die Dinger wurden schneller. Jetzt sind wir einfach an einer Stelle angelangt, an der man entweder eine komplett andere Idee braucht um Spiele noch besser mit mehr Effekten und noch Realitätsnaher darstellen kann. Ich denke die Entwicklung wird sehr langsam werden oder sogar stagnieren, da kein Geld zum Entwickeln da sein wird.
 
Mal wieder ne "zeitliche Zusammenfassung" von Nighteye die wie so oft ziemlich an der Realität vorbei geht...

Zum einen, weil es in der Vergangenheit genau so Stagnation gab, die dann irgendwann mal mit ner neueren Gen. aufgeholt wurde... Bspw. klar an den Mittelklassekarten zu erkennen. G84 aka 8600GT(S) / RV630 aka HD2600XT war so ein Fall. Auch der G92 mit all seinen Anlegern. Oder die HD4870 / 5770 / 6770. Da gibt's noch ganz paar mehr Beispiele.

Zum zweiten verdrängt Nighteye vollkommen dass sich die Hersteller spätestens seit den 28nm Produkten entschieden haben, HighEnd nun gestaffelt zu bringen. Erst ne aufgeborte "Mittelklasse" GPU schneller als HighEnd der vorherigen Gen. dann ca. ein Jahr später den TopDog. Der absolute Sprung zwischen den GPUs ist zwar kleiner aber pro Generation nahezu unverändert. Auch an der Zeitschiene hat sich sooo extrem viel nicht getan...

Und zum letzten vergisst er einfach mal komplett die Energieeffizienz. Bei 300W ist nach wie vor Ende für PCIe, wenn man nach gängigen Standards baut. Diese Schwelle haben wir seit Fermi erreicht. Trotzdem ist GK110 ca. 3x so schnell pro Watt. Ähnliche Steigerung haben nur wenige GPUs vorher geschafft...

PS: Nighteye, spring nicht wieder zwischen den Klassen für deine Argumente, sondern bleib in einer Klasse für den Vergleich. Sonst macht so eine Argumentation wie ich schon mal ansprach Null Sinn...
 
Zuletzt bearbeitet:
Oder die HD4870 / 5770 / 6770. Da gibt's noch ganz paar mehr Beispiele.

das macht deinen ganzen post relativ

vergleichst nicht die selben kategorien.

HD4770 vs HD5770 vs HD6770 sind die konkurenten. nicht HD4870 mit HD5770 vergleichen !

ich mach dir ein beispiel.

fx5800 vs gf6800 ultra
fx5600 ultra vs gf6600gt

gf6800 ultra vs gf7800gtx
gf gf6600gt vs gf7600gt

gf7800gtx vs gf8800gtx
gf7600gt vs 8600gts

danach kannte ich mich bei geforce nicht mehr aus weil ich auf ATi umgestiegen bin.

HD4870 vs HD5870
HD4770 vs HD5770

danach ging die entwicklung langsamer vorran, und bis heute noch immer langsamer.

mittlerweile haben wir ja 3 x die gleiche generation im neuen namen.
 
Doch mache ich, denn die HD4870 war/ist nie HighEnd gewesen... Denn zu der Zeit hat AMD schlicht kein HighEnd gehabt :wink:
Die HD4870 ist wie auch die HD5770 eine Stufe unter HighEnd. Wenn man so will, Performanceklasse... HighEnd war seinerzeit die GTX 280 respektive GTX 285. Die HD4870 spielte "nur" auf dem Niveau der GTX 260 und war knapp 25% langsamer... Die 512MB Version einige Zeit nach Release verlor sogar massiv mehr Boden...

PS: genau diese Tabellen meine ich.
Was ist jetzt anders?
Vergleiche GTX 580 vs. 290/290X/780/780TI bzw. Titan/TitanBE. -> das ist die gleiche Leistungssteigerung in einem ähnlichen Zeitrahmen wie in den Vergangenen Generationen auch. Bestenfalls ging es schneller im Bereich Geforce 2 und drunter... Hier und da mal ne Ausnahme, die mehr Performance drauf haute (R300 bei ATI mit der 9700/9800er Reihe). Selbst die so hoch gelobte 8800GTX seinerzeit brachte es auch nur auf um die ~60% mehr als ne X1900XTX/X1950XTX, die davor HighEnd war.
Geh eine Klasse drunter, HD7970/GTX680/770 und vergleiche mit der vorherigen Performanceklasse. -> GTX 460/560/560TI/HD6870 passt auch.
Da wird absolut nix langsamer... Zumindest nichts, was man irgendwo auf den ersten Blick erkennen kann... Und die Leistungsaufnahme ist immernoch nicht Thema bei dir :wink:

danach ging die entwicklung langsamer vorran, und bis heute noch immer langsamer.

mittlerweile haben wir ja 3 x die gleiche generation im neuen namen.

Du solltest dich langsam mal entscheiden... Oben sprichst du von ab 2011 ging die Entwicklung langsamer vorran. Jetzt kommst du mit Karten aus 2003 bis 2006. Was denn nun?
Auch eine GF7xxx dort zu erwähnen für den Vergleich, dann noch auf der, bis dahin war es schnell Seite, zeigt, das du irgendwie dort geschlafen haben musst.
http://www.computerbase.de/2005-06/test-nvidia-geforce-7800-gtx-sli/14/
guck dir die "Mehrleistung" der 7800 GTX auf ne 6800Ultra an und staune wie poplig das war...
CB misst 21-52% mehr Performance zu Release. Im Mittel irgendwo um die 30%. Mit viel AA gewinnt G70/G71 Boden gegenüber dem Vorgänger... -> das ist das, was ne HD7970/680er auf ne 580er drauf legten. Nicht mehr und nicht weniger...
 
Zuletzt bearbeitet:
du machst jetzt genau den fehler den man nicht machen sollte.

cherry picking zwischen den herstellern. du guckst wer grad schneller war und ziehst dann den vergleich. mein vergleich ist objektiver da er sich auf seine eigenen produkte bezieht, also die wahren vorgänger !
 
das macht deinen ganzen post relativ

vergleichst nicht die selben kategorien.

Genau. Bei jeder neuen Generation sind die Karten von der Leistung eine Stufe runtergerutscht (5770<5870, 6770<6870<6970), liefern aber im direkt Vergleich ähnliche Leistung.

Was ich auch noch sehr interessant finde, ist eher, wie viel Leistung bekommt man pro Euro. Und was das angeht, wird's halt immer langsamer. Ich kauf mir immer etwa alle 2 Jahre eine neue Karte ~200 Euro. Und vergleicht man hier die Mehrleistung, so wurde das über die Jahre immer weniger.
 
Zuletzt bearbeitet:
du machst jetzt genau den fehler den man nicht machen sollte.

cherry picking zwischen den herstellern. du guckst wer grad schneller war und ziehst dann den vergleich. mein vergleich ist objektiver da er sich auf seine eigenen produkte bezieht, also die wahren vorgänger !

Wenn man zwangsweise immer bei einem Hersteller kauft dann mag das sein aber ich habe jede neue generation da gekauft wo ich mehr für mein geld gekriegt habe und daher kann man auch so vergleichen.
 
Genau. Bei jeder neuen Generation sind die Karten von der Leistung eine Stufe runtergerutscht (5770<5870, 6770<6870<6970), liefern aber im direkt Vergleich ähnliche Leistung.

wobei ich anmerken will das wir nicht mehr bei der HD6000 generation als vergleich nutzen sollten, da die HD6000 generation schon stark von der verlangsamung des fortschritts betroffen ist.

schon die HD5000 generation war davon betroffen, danach wurde es immer schlimmer.

es wurde seit der HD4000 generation immer extremer und führte letzendlich dazu das wir seit der HD6970 aus dem jahre 2011 bis heute kaum was neues haben. 4 jahre 28nm sprechen ja schon für sich.

daher sollten wir eher so die zeiten von 1996 bis 2008 vergleichen. der fortschritt ging damals sehr sehr viel schneller im vergleich zu den letzten jahren.

- - - Updated - - -

Wenn man zwangsweise immer bei einem Hersteller kauft dann mag das sein aber ich habe jede neue generation da gekauft wo ich mehr für mein geld gekriegt habe und daher kann man auch so vergleichen.

das ist aber out of kontext da es um die technologische entwicklung geht. wenn nvidia mal schneller als ati war, sollte man die nvidia karten auch mit ihrer eigenen vorgänger generation vergleichen und wird merken, hoppla auch hier ist der fortschritt langsamer als noch vor 5 jahren. verstehst du ?
 
du machst jetzt genau den fehler den man nicht machen sollte.

cherry picking zwischen den herstellern. du guckst wer grad schneller war und ziehst dann den vergleich. mein vergleich ist objektiver da er sich auf seine eigenen produkte bezieht, also die wahren vorgänger !

Nix cherry picking... Es ist völlig irrelevant, wer der direkte Vorgänger aus eigenem Haus ist... Was für die Masse der Käuferschicht zählt ist objektive Betrachtungsweise. Und da ist es vollkommen wurscht, ob die direkte Vorgängerkarte aus eigenem Haus HighEnd war oder nur Performanceklasse. Man vergleicht gegen das, was auf dem Markt vorher in der jeweiligen Klasse anzutreffen war!

Das ist wie, wenn du im CPU Bereich AMD CPUs nur gegen ihre eigenen Vorgänger stellst. Das machts nicht besser, wenn die Konkurenz meilenweit vorraus läuft.
Zum Glück haben wir im GPU Bereich sowas aktuell nicht. Stand hier und heute ist AMD und NV in etwa gleich stark/schnell. AMD erkauft sich das nur durch etwas mehr Leistungsaufnahme. Unterm Strich aber ähnlich...
Es ist immer ein Hin und Her zwischen den beiden. Mal ist der eine schneller (G80 bis Fermi), mal der andere (R300 bis R580). Zwischendrin gibts mal Außreißer nach oben wie die HD5870, die eine gefühlte Ewigkeit vor der Konkurenz auf dem Markt war und "HighEnd" quasi für diese Zeit anführte, bis die Konkurenz diese Schwelle weiter nach oben legte (GTX 480)
 
4 jahre 28nm sprechen ja schon für sich.

Wobei das natürlich auch seine Gründe hat. Schaut man sich die Transistorstrucktur auf Atomebene an, sieht man schnell, dass es nicht mehr viel kleiner geht. Eine Verringerung der Stuckturgrößen bringt eben einige Nachteile mit sich. Mal angefangen mit der zu Beginn geringeren Ausbeute. Auch die Verlustleistungsdichte bringt allerhand Probleme mit sich. Pipelining und Parallelprocessing haben das ein wenig herausgezögert.
 
Zuletzt bearbeitet:
Ich finde, dass der gesamte PC Markt rückläufig ist. Es geht immer mehr in Richtung mobiler Systeme. Den meißten reicht heute ein pad,notebook usw um zu surfen. Paar Mini Games zum zocken. Kaum einer will sich wirklich noch ein PC Monster in die Bude stellen. Als PC'ler wird man immer mehr zum Exoten. Es endet so wie es begann....irgendwann sind wir wieder Exoten wie damals als die Leute die ersten PC's sahen und sagen was ist das denn....was machst du da..... was willste damit....
 
Moment mal. Seit der HD4000er generation stark verlangsamt ? Hab ich das falsch im Kopf oder gab es nicht einen riesen Boost hin zu hd5000 und besonders die 5870 war der preisleistungskiller und leistungsmäßig über "jahre" sehr gut aufgestellt.

Edit: ok Fdsonne hat es auch shcon erwähnt. Hatte doch selber ne 5850 und weiß was die konnte.

Interessanter als diese Leistungsgerede finde ich eher die preispolitik. Wenn ich noch daran denke das die 7950gx damals knappe 450-500€ gekostet haben und heute mal eben für die zweitschnellste Karte schon so viel verlangt wird und die spitzenmodelle an der 1000€ marke kratzen oder sogar als dualausführung darüber liegen.
Auch die Mittelklasse ist teurer geworden wenn auch nciht ganz so extrem.
 
Zuletzt bearbeitet:
Moment mal. Seit der HD4000er generation stark verlangsamt ?

nein. der fortschritt pro zeit hat sich verlangsamt. bitte alles lesen !

die abstände für den fortschritt wurden größer. das ging aus meinem satz den du zitiert hast nicht allein hervor. erst im kontext all meiner postings versteht man ihn richtig.
 
Ich kann euch empfehlen, das erste Kapitel im ersten Semester Digitaltechnik mal durch zugehen, dann wird schnell klar, warum der Markt so stagniert. Neue Innovationen müssen her, damit dem Moor'schen Gesetz Folge geleistet werden kann.
 
Nix cherry picking... Es ist völlig irrelevant, wer der direkte Vorgänger aus eigenem Haus ist... Was für die Masse der Käuferschicht zählt ist objektive Betrachtungsweise. Und da ist es vollkommen wurscht, ob die direkte Vorgängerkarte aus eigenem Haus HighEnd war oder nur Performanceklasse. Man vergleicht gegen das, was auf dem Markt vorher in der jeweiligen Klasse anzutreffen war!

wie gesagt vergleiche ich nicht so.

wenn ich über die deutsche panzer geschichte und ihrer fortschritte rede, beziehe ich ja nicht auf einmal amerikanische panzer oder japanische panzer mit ein.

wenn 2 verschiedene parteien selbstständig forschen, und nicht zusammenarbeiten, wie es bei ATI und NV der fall war, dann begutachte ich jede fraktion für sich um ihren eigenen fortschritt zu betrachten.

und bei beiden herstellern sieht man, das sie immer mehr probleme bekommen haben den fortschritt auf der selben geschwindigkeit fortzuführen, wie vor 10 jahren.
 
Ich geh da mit fdsonne mit, besonders der Leistung pro Watt Bezug und die PCIE Limitierung sind gute Argumente. Dahingehend sind schon Fortschritte erzielt worden, die Reise wird auch wahrscheinlich auch erstmal da hin gehen da irgendwann schlicht Schluß ist mit shrinken. Ein ganz neuer Ansatz muss her, nicht nur auf Seiten der Hardware, sondern auch der Software.
 
es wurde seit der HD4000 generation immer extremer und führte letzendlich dazu das wir seit der HD6970 aus dem jahre 2011 bis heute kaum was neues haben. 4 jahre 28nm sprechen ja schon für sich.

Wieder falsch... Ich kann dich echt nur empfehlen, beschaff dir doch bitte erstmal die richtigen Informationen...
Die erste 28nm GPU auf dem Markt war die HD7970, diese ist im Dez. 2011 released wurden. Kaufbar ab Jan. 2012!
Wir haben also jetzt hier und heute nichtmal ganz 2 Jahre und 3 Monate 28nm!

Und Trotzdem haben wir seit dem HighEnd der 40nm Generation, nämlich der 580 (Ende 2010) eine fast Verdopplung der Performance bei gleicher Leistungsaufnahme, eher sogar minimal weniger.
Und das innerhalb von etwas über 2 Jahren! (Titan - Feb. 2013). Mit immer wieder kleinen Leistungssteigerungen nach oben (780TI/TitanBE) in den darauffolgenden Monaten.

Jetzt ist Ende mit 28nm, (viel) mehr ist nicht zu holen... Also warten wir auf 20nm oder 16nm oder was auch immer. Dann geht es weiter. Aller vorraussicht nach noch dieses Jahr (wenn man NV glauben schenken will)

Wobei das natürlich auch seine Gründe hat. Schaut man sich die Transistorstrucktur auf Atomebene an, sieht man schnell, dass es nicht mehr viel kleiner geht. Eine Verringerung der Stuckturgrößen bringt eben einige Nachteile mit sich. Mal angefangen mit der zu Beginn geringeren Ausbeute. Auch die Verlustleistungsdichte bringt allerhand Probleme mit sich. Pipelining und Parallelprocessing haben das ein wenig herausgezögert.

Das... Und zum anderen vergisst Nighteye föllig die Leistungsaufnahme. Wenn ich am Limit der TDP Klassen agiere, kann ich nicht mehr Leistung durch mehr Leistungsaufnahme generieren.
Die Vergangenheit zeigt das ziemlich eindrucksvoll. Wärend ne 9800Pro noch mit so nem mickrigen spielzeug Lüfterchen in 40mm und 1 Slotbauweise bei billigem Alublech auskam, haben wir heute Karten, die unterm Deckel fast vollständig mit Kühlkörpern bedeckt sind. Um eben möglichst das Energiebudget vollständig ausschöpfen zu können.
Seit Fermi sind wir aber bei 300W. Wo also vor Fermi noch mehr Leistung durch simple Erhöhung der Leistungsaufnahme machbar ist, ist das heute einfach nicht mehr...
Nighteye hat dahingehend zwar recht, das die absolute Zeit länger wird. Aber der Fortschritt, nämlich Leistung pro Watt steigt rapide an und wird nicht langsamer. Eher sogar im Gegenteil. Da er aber diesem Umstand immer unter den Tisch kehrt um zu philosophieren, wie toll der Fortschritt der Vergangeheit doch war, ist seine Argumentation im Ganzen einfach mal nicht haltbar ;)
 
Fdsonne behauptet es gibt fortschritte in sachen leistung pro watt. das habe ich ja nie bestritten !

darum gings auch nie in dem thema ! damals gab es genau so fortschritt was leistung pro watt angeht !
 
Ja nur jetzt wird halt verstärkt der fokus auf leistung pro watt gelegt und nicht mehr auf die reine leistung da wir mittlweile eine leistungsklasse erreicht haben die für jegliche halbwegs normale anforderung ausreicht.
Diese Leistung muss jedoch auch mobil verfügbar sein weil der Markt also die Nutzer genau das fordern und wollen. Der reine Computergamer markt ist so dermaßen klein im Vergleich zu dem gerade größten Wachstumsmarkt, dem Mobile Gaming das man komplett am markt vorbei entwickeln würde wenn man das machen würde was du möchtest.

Guck dir Firmen an wie die entwickler von Candy Crush oder die Masse an Free to Play spielen die aktuell alles überfluten. In diesen liegt das große Geld und die Masse spielt eben solche Spiele. Dafür benötigt man eben keine besonders krasse leistung sondern eine gute Grundleistungsfähigkeit ähnlich wie sie AMD aktuell mit ihren APU`s am Markt anbietet. Dazu muss man auch auf Notebooks und Tablets die Leistungs bereitstellen um solche Spiele ohne murren flüssig und mit trotzdem guter Akkulaufzeit darzustellen. Das sind die aktuellen Dinge die der Markt fordert.
Der Highend Markt ist nur reiner Marketingträger und bedienung einer kleinen Gruppe die aber keinen unglaublich großen finanziellen Anteil am Umsatz ausmacht, vorallem da dieses Segment seit jahren weiter schrumpft.
 
Zuletzt bearbeitet:
wie gesagt vergleiche ich nicht so.

wenn ich über die deutsche panzer geschichte und ihrer fortschritte rede, beziehe ich ja nicht auf einmal amerikanische panzer oder japanische panzer mit ein.

Das merke ich schon ;)
Und versuche dir begreiflich zu machen, das deine Vergleiche nicht zielführend sind :fresse:

Auch das Beispiel mit den Panzern ist arg unsinnig. Mir wäre neu, das der Deutsche, Ammi oder Russe seinerzeit die Wahl hatte, bei welcher Panzerfabrik er eincheckt um mit diesen Produkten in seinen Krieg zu fahren...
Vergleicht man das ganze rückblickend von Heute aus, lassen sich aber durchaus Sachen feststellen, wo der Russenpanzer besser war, oder der deutsche usw. Nur hast du damals eben keine Wahl gehabt. Diese fehlende Wahl macht das Beispiel hinfällig für die hierige Diskusion :wink:
 
Ja nur jetzt wird halt verstärkt der fokus auf leistung pro watt gelegt und nicht mehr auf die reine leistung da wir mittlweile eine leistungsklasse erreicht haben die für jegliche halbwegs normale anforderung ausreicht.

warum muss ich dabei an das zitat denken :d

""640 kB sollten eigentlich genug für jeden sein.""
 
warum muss ich dabei an das zitat denken :d

""640 kB sollten eigentlich genug für jeden sein.""

Das Zitat ist zwar gut jedoch stammt es aus einer Zeit in der man sich nichtmal ansatzweise vorstellen konnte wie schnell sich der Computermarkt entwickeln würde und das dieser innerhalb weniger Jahre das ganze Leben durchziehen würde und ohne diese die Welt nicht mehr funktionieren würde.

Außerdem gab es auch zitate die besagten das sich der Ottomotor niemals gegen den Pferdewagen durchsetzen würde. Und was ist passiert ? Ja wir wissen es alle. Aber auch hier stagniert seit Jahren die Leistungssteigerung. Im extremen Bereich werden nur noch kleine Fortschritte gemacht und im Consumermarkt geht der Trend wie bei allen gesättigten Märkten hin zu optimierung der Technik.
 
Zuletzt bearbeitet:
Doch, der werte Herr Moore hat das schon 1965 erkannt :) Mal abgesehen von den Auswirkungen auf das Alltagsleben, so hat er zumindest den Trend erkannt.
 
Zuletzt bearbeitet:
ich will damit darauf hinaus, das wir nie genug leistung haben :d

die tatsache das wir jetzt auf leistung pro watt entwickeln müssen, weil wir die leistung nicht mehr steigern können ist traurig.
 
Fdsonne behauptet es gibt fortschritte in sachen leistung pro watt. das habe ich ja nie bestritten !

darum gings auch nie in dem thema ! damals gab es genau so fortschritt was leistung pro watt angeht !

Auch hier hast du was nicht verstanden...
Du hast doch behauptet, der Fortschritt hat sich verlangsamt. Und das stimmt schlicht nicht! Zumindest nicht mit der Vehemenz, wie du es behauptest... Es geht in einer anderen Bahn weiter... Nämlich weil man nicht mehr Leistung durch Erhöhung der Leistungsaufnahme generieren kann. Also muss man anders den Fortschritt bereit stellen. 3x mehr Performance pro Watt von Kepler auf Fermi sprechen doch Bände...
Schau dir die Vergangenheit an. 8800GTX -> 130W, GTX 280/285 -> 230W, GTX 480/580 -> 300-320W.
Was macht die Leistung? Verdoppelt sich ca. pro Schritt. Mal was mehr, mal was weniger. Der reine Fortschritt ist also sogar noch gestiegen... Zumindest mit Kepler. Angeblich wird Maxwell nicht ganz so viel drauf legen... ca. 70% bei gleicher Leistungsaufnahme!
 
Wie kommst du darauf das wir die Leistung nicht mehr steigern können ?

Die Hersteller erhöhen derzeit nur die Leistung, senken die Fertigungsgröße, verkleinern die Chipfläche (bzw halten sich an ein gesetztes oberes limit) und erhöhen die Leistung/Watt. Such dir ein oder 2 Sachen davon aus und verzichte darauf, dann hast du deine theoretisch mögliche steigerung.

Wäre jedoch völlig am Markt vorbei und eben deshalb machen die Hersteller das aktuell auch nicht.
 
Zuletzt bearbeitet:
ich will damit darauf hinaus, das wir nie genug leistung haben :d

die tatsache das wir jetzt auf leistung pro watt entwickeln müssen, weil wir die leistung nicht mehr steigern können ist traurig.

Mhhh
so langsam machts kein Spaß mehr...
Sollte doch nicht so schwer sein zu erkennen, das das heutige Limit von 300W pro PCIe Karte kein echtes Limit ist. Aber es ist ein gängiger Standard, an den man sich hält, wenn man Standardgerechte Hardware baut. :(
Ganz ehrlich, mir sind effizientere Karten lieber, als 3x mehr Performance bei 450W zur vorgänger Generation. Warum? Weil irgendwie der Spaß auch kühlbar sein muss.

Hast du schonmal ne 300W GPU im PC gehabt? Oder ein SLI/CF aus zweien (oder mehr) davon?
Ich denke nicht... Sonst würdest du das ziemlich sicher sogar anders sehen...

Zumal ich das Argument nichtmal ganz nachvollziehen kann. Keine Lust jetzt zu suchen, was du für ne Karte stecken hast. Aber es ist sicher keine 290X geschweige denn 780TI/Titan oder ähnliches.
Sich über den Fortschritt auszulassen, wärend man selbst irgendwo in der Mitte oder Vergangenheit rumschwimmt, macht die Sache nicht unbedingt besser ;) Denn der Fortschritt ist auch nur dann wirklich toll für einen selbst, wenn man die Produkte selbst auch nutzt. Nur vom Angucken oder Lesen von Reviews/Zeitungen hat man nämlich nix ;) Wer hunger hat, guckt sich doch auch keine Kochsendung an, oder?

Wäre jedoch völlig am Markt vorbei und eben deshalb machen die Hersteller das aktuell auch nicht.

So schauts aus... Ich kann nur hoffen, das nicht irgend jemand auf die Idee kommt (NV hatte das meine ich mal im Plan) die PCIe Spezifikationen dahingehend anzupassen. Da waren mal was von bis 450W auf dem Schirm...

Unterm Strich hat das sogar was gutes ;)
Die Hersteller sind gezwungen sich was neues einfallen zu lassen. Und unter Druck arbeitet man idR effekiver als wenn man keine Not hat.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh