Grafikkarten Kultur, Tod ?

Man füge eine FirePro W9100 in die Folie ein.😜 Ich sag nur 1:2 SP DP. Was hat AMD bloß alles in diesen Chip gequetscht. Vielleicht kommt ja noch ein Turbo Eiscreme Portionierer.😄

Gesendet mit der LG-D802
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na spätestens nach der Grafik sollte es jeder hier verstanden haben. "Hoffentlich" :fresse2:
 
Nö, in der Grafik fehlt ja AMD, also ist sie wertlos und definitiv falsch :rolleyes: :fresse:

Mal im Ernst:
Eine Auflistung mit AMD und NV sowie für SP und DP und die Speicherbandbreite wäre echt interessant ;)
 
Man füge eine FirePro W9100 in die Folie ein. Ich sag nur 1:2 SP DP. Was hat AMD bloß alles in diesen Chip gequetscht. Vielleicht kommt ja noch ein Turbo Eiscreme Portionierer.

Was soll die W9100 da in der Folie reißen?
Verstehe nicht worauf du hinaus willst...
Und vor allem, was interessiert im Gamerbereich die DP Performance? -> NULL!!

Die W9100 respektive 290X ist auch nicht schneller als ne 780TI/Titan BE, was die SP Performance angeht. Sprich man würde dort mit nem roten Punkt genau nichts verändern am gezeigten Bild :wink:
Zudem ist immernoch unklar, wie schnell die W9100 genau wird. Vor allem, was DP angeht. Die Angaben sind dort nämlich in den News nicht ganz dem roten Faden nach. -> größer 5 TFlop/sec SP, größer 2 TFlop/sec und SP/DP Verhältnis von 2:1 passt von den Zahlen einfach nicht. Sinnvoller wäre größer 2,5 TFlop/sec DP -> hat man aber nicht gebracht. Warum? Abwarten was wirklich kommt ;)


@fdsonne: Zeig mir mal Benches mit diesen 50% Vorsprung der 750Ti auf eine 6870.

Hab ich doch oben erwähnt... Review von CB zur 650TI (dort ist die HD6870 mit drin)
Und Review der 750TI (dort ist die 650TI mit drin)
Beides zusammen macht rechnerisch alleine schon knapp 50%. Fehlende Optimierungen, Boostspielereien usw. usf. außen vor.

Nach den Benches von CB sieht es so aus, als würde die HD6870 in DX11 Titel massiv Federn lassen -> weswegen der Vorsprung von ~30% auf teils über 50% ansteigt :wink:
Was auch nicht ganz abwägig ist, denn die Tesselationleistung der AMD Karten ist seinerzeit noch etwas schlechter gewesen. Und Barts war auch nie wirklich oberste Leistungsklasse...

PS: die ht4u.net Werte sind mit "Vorsicht" zu genießen. Denn die fixen die die Taktraten der GPUs, was nicht primär zielführend ist. Gerade bei der 750TI nicht, denn diese ist laut Tests selbst mit dem mickrigen Ref. Layout + Kühlung nicht temperaturgebremst ;) Sondern rennt eher ins Powerlimit.
Bspw. misst CB nach 30min Aufwärmen der Karte immernoch Taktraten von ~1150. Laut den Messungen von ht4u.net mit gefixten Taktraten sind das ~5% mehr Performance zum Basisboost. Die Palit Storm X Dual soll es angeblich sogar auf 1250-1320 schaffen. Dauerhaft, versteht sich. Damit wäre mal locker schon 10% über der Basis und aus den 33% zur 650TI werden schon rechnerische 46% allein. :wink:

Wie so oft ist das aber alles nur ein Ansatz, dahingehend gebe ich dir durchaus recht. Andere Szenen und andere Games liefern andere Werte.
Denn man nutzt ja zum Vergleich mit den großen Modellen auch die gleichen Settings wie die großen Modelle. So hast du bei FullHD + 4xMSAA/16xAF Titel dabei, die weit unter 25 FPS agieren mit so einer 750TI... -> das tut sich real niemand an, er wird also die Settings reduzieren. Nur sowas findet man in keinerlei Reviews. :(
 
Zuletzt bearbeitet:
Weil es in der Folie um SP vrs. DP geht.

Oder warum glaubst du verschwindet die Titan auf der rechten Folie.Vielleicht weil die 780Ti nicht mehr so gut aussehen würde. hiding.gif

Zu Hawaii:1000Mhz bei SP, 950Mhz bei DP. Übrigens braucht Nvidia für die gleichen DP Werte eine Titan Z.(2xGK110) :rolleyes:
 
Wenn die Grafik einem eines zeigt, dann: Wer ein ausgewogenes Verhältnis zwischen CPU und GPU erpicht ist, der setzt auf Hardware von 2003! :fresse2:
 
FDsonne betreibt aber ganz schön unfaire methoden um auf seine angeblichen 50% zu kommen.
ich vergleiche bewusst mit älteren spielen, denn ich habe so etwas wie er nicht nötig.

wie gesagt hat die HD6870 2011 120-130 (schwankend) gekostet. mir egal ob du das nicht bestätigen kannst, denn ich habe meine für das geld bei mindfactory bekommen damals.
warum du versantkosten erwähnst, ist mir auch schleierhaft und macht auf mich den eindruck als willst du deinen standpunkt um jeden preis verteidigen.
versant kosten rechnest du bei meiner karte mit, aber bei deinen nicht oder wie ?

kommen wir zu den fakten.

du sagtest, heute 3 jahre später, bekomme ich für meine 120-130 euro grafik karten welche, 10% oder 20% oder sogar 50% schneller sind.

hier meine antwort darauf.


Beispiel:


April 2007 kam die 8600gts.
September 2004 kam die 6600GT.

Preise zu Release:

Geforce 8600GTS ab 200 Dollar also etwa 150 Euro
Geforce 6600GT ab 230 Euro aufwärts

Anmerkung:

Geforce 8600GTS DX10 Fähig
Geforce 6600GT DX 9 Fähig.

daher den DX9 vergleich genommen wo die 6600GT drauf optimiert wurde.

Leistungsvergleich:

8600GTS brachte in doom 3, etwas über 121 fps in 1280x1024 laut cb
6600GT brachte in doom 3, 63 fps in 1280x1024 laut cb

8600GTS 1280x1024 4xAA/16xAF: 57 fps
6600GT 1280x1024 4xAA/16xAF: 28 fps

bei höheren settings sieht es noch schlechter für die 6600GT aus.


8600GTS 1600x1200 4xAA/16xAF: 45 fps
6600GT 1600x1200 4xAA/16xAF: 19 fps

Fazit: Mindestens 100% mehrleistung.
von DX10 garnicht erst zu sprechen (kann sie ja nicht).

das war jetzt sogar ein vergleich zu gunsten der 6600GT, und dennoch ist ihr abstand viel gewaltiger als heute.
 
Zuletzt bearbeitet:
Also ist es unfair für einen Vergleich aktuelle Spieletitel zu nutzen?
Sorry Nighteye aber das war ganz dezent ein Eigentor... Wenn du auf ältere Spiele stehst und nur alte Spiele für neue Hardware zum Vergleichen willst, dann lass dich auch nicht über irgendeinen angeblich nicht gebrachten Fortschritt aus!


Und nein, ich habe hier gar nix nötig. Sondern ich merke abermals an, das du hier massivst geschönte Werte bringst. Denn du suchst dir genau einen Zeitpunkt für deine Vergleiche, der dir passt. Nur gibts minimum genau so viele gegenteilige Beispiele.
Warum erwähne ich das? Ja ganz klar, weil es auffallend ist, wie du dir die Argumente zurecht biegst. Das ganze dann noch gepaart mit inhaltlichen Fehlern noch und nöcher und wir haben ne Nighteye Zeiteinschätzung :fresse:
Mal vergleichst du ne Radeon 9600 mit ner HD2600 irgendwas und willst uns das als dein Beleg für den tollen Fortschritt der Vergangenheit aufzeigen. Jetzt, nachdem ich dir sagte, das da über vier Jahre zwischen liegen, kommst du mit ner 6600GT gegen ne 8600GTS. Mal ganz davon ab, gehts immernoch um Releasepreise, die so gar keinen interessieren für so nen Vergleich.

Warum gerade 2 Jahre und 8 Monate?
Warum nicht 3 Jahre? Oder nur 2,5?
Warum gerade NV und nicht ATI aus der Zeit? Stehst doch sonst nicht auf NV...
In beiden Fällen hättest du ganz andere Werte... Und das ist genau so ein Problem bei deinen Vergleichen wo du hinbiegst wie es gerade passt.

PS: die 8600 GTS ist bei ~200€ gestartet. Kostete einen Monat später aber immernoch minimum 175€. Also nix mit deiner Dollar zu Euro Rechnung.


Ich kann dir nur empfehlen das ganze nicht derart zu zerhackstückeln. Sondern das große und ganze zu betrachten. Macht sich rückwirkend einfach mal deutlich besser. Da fällt dann nämlich auf, das die kleinen G8x Ableger bei NV nicht die Bringer waren. Und entsprechend auch günstig angeboten werden mussten. Es fällt ebenso auf, das es auch durchaus mal sehr positiv gute Mittelklasse Karten gab. (460/560er Reihe, die 7600GT usw.)
Das gleiche lässt sich auch auf AMD/ATI ausweiten. Aber nicht, wenn du immernoch krampfhaft versuchst dir da irgendwas hinzubiegen...
 
@Nighteye: Wie fdsonne auf seine 50% kommt erschließt sich mir auch nicht. Kenne ihn aber schon länger und weiß dass er Schwierigkeiten hat von seinem Standpunkt abzuweichen respektive Eingeständnisse zu machen.
 
Naja Nighteye würde ich jetzt aber auch nicht, als einfachen Diskussionspartner bezeichnen... :d
 
Also ist es unfair für einen Vergleich aktuelle Spieletitel zu nutzen?

ältere grafik karten sehen bei neueren spielen meistens schlechter aus. ich habe ein beispiel zu gunsten der alten karte verwendet, wo die neue dennoch 100% schneller war. bei neueren titeln wäre der fortschritt dann über 100% gewesen. nur mal so um dir zu zeigen wie viel krasser der fortschritt damals war. 100-150% jeh nach titel in meinem beispiel bei 3 jahren. 0-50% jeh nach titel bei deinem beispiel nach 3 jahren. Klarer Sieg für die vergangenheit.

ich merke abermals an, das du hier massivst geschönte Werte bringst.

wie du dir die Argumente zurecht biegst.

genau umgekehrt.


die 8600 GTS ist bei ~200€ gestartet. Kostete einen Monat später aber immernoch minimum 175€.

du argumentierst ja, das die 8600GTS noch günstiger war. das macht es ja sogar noch mehr zu gunsten meiner argumentation !

denn jetzt kann niemand sagen, ich müsste mit einer GF6800 vergleichen.






Warum gerade 2 Jahre und 8 Monate?

um den gegenbeispiel einen vorteil für dich zu verschaffen ;) hätte ich eine noch größere zeitspanne genommen, sähe es ja noch besser für meine argumentation aus. dennoch wurde die um 100% geschlagen.

Warum gerade NV und nicht ATI aus der Zeit? Stehst doch sonst nicht auf NV...
In beiden Fällen hättest du ganz andere Werte... Und das ist genau so ein Problem bei deinen Vergleichen wo du hinbiegst wie es gerade passt.

ahja ich würde mir also wieder alles hinbiegen.

dann schau ich mir mal ein ATI beispiel an ;)

X700Pro Release Okt. 2004
HD2600XT Release28. Jun. 2007

X700pro Release Preis 150 euro (199 Dollar)
X2600XT Release Preis 100 Euro (Real waren es 2 wochen danach 90 euro)

Doom 3 benchs:

X700pro 1280x1024: 35 fps
X700pro 1600x1200: 24 fps

X2600XT 1280x1024: 82 fps
X2600XT 1600x1200: 60 fps

also auch bei ATI, Spiel, Satz Sieg auf ganzer Länge. wieder über 100% leistungs gewinn bei älteren spielen zu gunsten der alten karten. bei neueren spielen wären es wie eben erwähnt noch mehr als 100% gewesen.

langsam denke ich aber, ich gebs auf mit dir ;) du lässt dich wirklich nicht durch fakten belehren.

@Nighteye: Wie fdsonne auf seine 50% kommt erschließt sich mir auch nicht. Kenne ihn aber schon länger und weiß dass er Schwierigkeiten hat von seinem Standpunkt abzuweichen respektive Eingeständnisse zu machen.

merkt man :d

Naja Nighteye würde ich jetzt aber auch nicht, als einfachen Diskussionspartner bezeichnen... :d

das stimmt, aber immerhin sehe ich auch mal fehler ein :d dauert nur manchmal :d
 
@Nighteye: Wie fdsonne auf seine 50% kommt erschließt sich mir auch nicht. Kenne ihn aber schon länger und weiß dass er Schwierigkeiten hat von seinem Standpunkt abzuweichen respektive Eingeständnisse zu machen.

Wenn du mir nen trivialen Grund gibst, von dem Standpunkt abzuweichen habe ich auch kein Problem damit.
Ich zähle hier simpel zwei Zahlen zusammen, die nicht von mir stammen, sondern von CB. Und dort steht, 650TI vs. HD6870 im Releaseartikel ersterer Karte ca. Gleichstand (DX9 Vorteil für die AMD, DX11 Vorteil für die NV) und es steht ebenso bei CB im Releaseartikel der 750TI (vs. 650TI) ein Vorsprung von ca. 33% für erstere.
Zähle beide Zahlen zusammen (~15% Vorteil in DX11 der 650TI auf die HD6870) + ~33% Vorteil der 750TI auf die 650TI und du bist bei knappen 50%.

Von diesem Argument weiche ich genau dann ab, wenn du mir darlegen kannst, warum die Werte bei CB offenbar falsch sein sollen. Mit dem Argument "NEVER" ist eine 750TI 50% schneller als eine HD6870 ist das nicht getan. Bring Werte und wir können drüber sprechen. Und nein, die ht4u.net Werte zählen da nicht, da fixed Clocks, was nicht praxisrelevant ist. Allein schon nicht, da die 750TI je nach Modell deutlich über den gemessenen Werten boostet und diese Taktraten auch unter Dauerlast hält!

ältere grafik karten sehen bei neueren spielen meistens schlechter aus. ich habe ein beispiel zu gunsten der alten karte verwendet, wo die neue dennoch 100% schneller war. bei neueren titeln wäre der fortschritt dann über 100% gewesen. nur mal so um dir zu zeigen wie viel krasser der fortschritt damals war. 100-150% jeh nach titel in meinem beispiel bei 3 jahren. 0-50% jeh nach titel bei deinem beispiel nach 3 jahren.
Nochmal, du hast nicht verstanden worauf ich hinaus will. Du hast dir genau einen Optimalfall gesucht. Nämlich weil du explizit auf das letzte Modell gegangen bist als Vergleichspartner. Du suchst dir also gezielt genau zwei Vergleichspartner für deine Argumentation die gerade mal gut passen. Das gilt übrigens auch für den AMD/ATI Vergleich. Warum gerade die DX10 Karten als Vergleichspartner? Warum nicht eine Generation vorher? Zieh einen Monat von deiner Zeit ab und du hast keine DX10 Karten für einen Vergleich und musst mit dem auskommen, was es da gab. Da würden dann nämlich für die Leistung einer 8600GTS (dein Beispiel) eine X1950Pro von ATI stehen. Nur hat diese mal schlappe 170-200€ gekostet und liegt damit fast doppelt über deinem gesteckten Vergleichsbudget. -> du hättest für den Vergleich also ein Regal niedriger greifen müssen. Mit entsprechend weniger Leistung. Und genau hier setzt die Kritik an wo du es dir hinbiegst. Du nimmst nicht nüchtern das was am Markt vorhanden ist, sondern suchst dir gezielt genau zwei für dich passende Paarungen.

Warum erwähne ich das nochmal? Weil die Diskusion oben damit anfing, dass es laut deiner Meinung heute kein Produkt gibt, was dir schneckt um deine HD6870 zu ersetzen. Eben weil die Leistung zu gering ist... Du versuchst nun den Zeitraum zu fassen um Vergleiche in der Vergangenheit zu ziehen. Nutzt aber völlig andere Bedingungen. Nämlich indem du bspw. die Karten mit Releasepreisen vergleichst, indem du die Karten direkt bei Release (Datum der beiden Vergleichspartner) nimmst usw.
und die Energieeffizienz ist auch noch nicht genannt :fresse:
Um die deine Aktuelle Situation einzufangen müsstest du in der Vergangenheit nach dem Preisverfall von Karten suchen. Beispielsweise diese 6600GT von oben nach sagen wir ca. einem Jahr nach Release -> gegen eine Karte stellen, die dann von mir aus 2, 2,5 oder 3 Jahre danach kaufbar war und nicht teurer sein darf! -> ob das dann dort die aktuellste Generation ist/wäre oder nicht, würde nichtmal die Rolle spielen, da du ja zeigen willst, was in der Vergangenheit kaufbar war.

du argumentierst ja, das die 8600GTS noch günstiger war. das macht es ja sogar noch mehr zu gunsten meiner argumentation !
Korrigier mich wenn ich falsch liege, aber du sprachst von 150€, ich von 175€... Wo ist das bitte günstiger?
 
Zuletzt bearbeitet:
Ich bin ebenfalls Sammler. Kann die Argumentation vom Startpost durchaus nachvollziehen. Von 1999-2001 hat sich die Leistung der Topmodelle (ATi Rage Fury Maxx auf GF3 Ti 500) um über 500% gesteigert. Das waren gerade mal zwei bis zweieinhalb Jahre. Heute haben wir zwei Jahre absolute Stagnation - niemand kann mir erzählen, dass die 7970 nicht mehr aktuell ist. Klar haben wir noch neue leistungsstärkere Chips, aber das ist für mich keine Innovation. Dabei gehts nur um die Topmodelle (R9 290X, 780/Ti/Tan bzw. 750Ti). Von Maxwell mal abgesehen sind das einfach nur aufgeblähte übergroße 28nm Chips mit riesiger Chipfläche. Der Fertigungsprozess ist schon lange derselbe.

Im Moment macht das Grafikkarten-Kaufen keinen Spaß. Einerseits denken sich die Hersteller in der Tat coole Features aus, die mir als Power-User auch durchaus entgegenkommen (Matrix, Lightnings etc). Das gabs zu GF 6000er Zeiten noch nicht. Die Designs gefallen mir eigentlich ganz gut. Das Problem ist: 28nm Prozess wird komplett ausgereizt, was zu großen und sehr teuren Chips führt. Ich meine, Titan Z für 3000$, ehrlich?! Wo sind die Zeiten hin, als es Highend-Karten für 400€ gab?
Ich hab allerdings die Hoffnung, dass der Sprung auf 20nm wieder einiges bringen wird.
 
Die Chips in 20nm werden schon Aufgrund des Shrinks teurer, meine ich, und die Titan Z richtet sich auch weit weniger an Spieler, als das hier viele meinen. ;)
 
Du hast dir genau einen Optimalfall gesucht.

jetzt geht das wieder los... soll ich dir noch ein 3tes beispiel bringen ?

9600Pro von November 2004. kostenpunkt 1 jahr nach Release im November 2005 80 euro.

nun vergleiche ich mal mit einer ATI karte, 3 jahre nach November 2005, für 80 euro und bin mir sicher das ich auf 100% leistungssteigerung kommen werde ;)

Radeon HD 4670 launch September 2008. gabs von anfang an bei alternate für 66 euro. also ich könnte sogar eine stärkere grafik karte zum vergleich nehmen. aber die reicht locker denke ich.

schauen wir uns mal die doom 3 benches an.

die radeon 9600 pro liefert nichtmal 25 fps auf medium qualität 1024x768
die HD4670 liefert weit über 120 fps bei prey (welches leicht höhere anforderungen hat) auf High quality 1280x1024


Warum nicht eine Generation vorher?

bei allem respekt. aber wo bleibt dein logisches denken ???

um dir höflicherweise zu antworten.

weil es dann nur noch ein 2 jahres vergleich wäre, und nicht ein 3 jahres vergleich.

du aber misst bei mir mit einem 3 jahres vergleich. das wäre schlicht unfair.

da du bei mir mit einem 3 jahres vergleich misst, mache ich dies ebenfalls. ich war sogar so nett und bin unter die 3 jahre gegangen, und jetzt meckerst du auch noch :(


Korrigier mich wenn ich falsch liege, aber du sprachst von 150€, ich von 175€... Wo ist das bitte günstiger?

Nutzt aber völlig andere Bedingungen. Nämlich indem du bspw. die Karten mit Releasepreisen vergleichst, indem du die Karten direkt bei Release (Datum der beiden Vergleichspartner) nimmst usw.

Um die deine Aktuelle Situation einzufangen müsstest du in der Vergangenheit nach dem Preisverfall von Karten suchen. Beispielsweise diese 6600GT von oben nach sagen wir ca. einem Jahr nach Release -> gegen eine Karte stellen, die dann von mir aus 2, 2,5 oder 3 Jahre danach kaufbar war und nicht teurer sein darf! -> ob das dann dort die aktuellste Generation ist/wäre oder nicht, würde nichtmal die Rolle spielen, da du ja zeigen willst, was in der Vergangenheit kaufbar war.

die 6600GT kostete 1 jahr nach release 150 euro.
die 8600GTS gabs 1 monat nach release für 150.

die R700 Pro kostete 1 jahr nach release 90 euro
die HD2600XT 1 monat nach release 90 euro

passt doch der vergleich


du vergleichst ja eine 140 euro karte mit meiner 120 euro karte von vor 3 jahren. daher habe ich dich gebeten, eine schwächere karte zum vergleich zu nehmen als deine 140 euro karte.
aber selbst wenn ich dir diesen 20 euro bonus gewähre, gewinnen die alten karten den vergleich ja haushoch.
 
@Mick: Ist mir schon klar, der GK110 kommt ja eh aus dem Server-Bereich und wurde eigentlich nicht für den Endkunden geplant.
Und klar, erstmal werden die Chips teurer, aber wenn sich die Fertigung entsprechend etabliert hat, stehen definitiv geringere Materialkosten auf der Haben-Seite.
Momentan haben wir die zwei Seiten der Medaille: Natürlich ist es wünschenswert, dass Nvidia den GK110 für die Endverbraucher verfügbar macht, als dass wir hier immer noch mit GTX680 als Highend-Modell sitzen würden. Aber ich hoffe dann doch sehr, dass sich die 20nm-Karten wieder unter 500€ bewegen werden ;)
 
Man muss aber auch bedenken, das die Chip´s vor 8 Jahren noch nicht so komplex waren wie die jetzt. Und irgendwann kann man auch nicht mehr Leistung aus einem Chip heraus holen. Ich weis im moment nicht was die Geforce 8800 Ultra so an Strom verbrauchte, aber ob das an eine GTX 780 Ti ran kommen würde waage ich zu bezweifeln.

Jedenfalls hatte man damals weit größere Fertigungsgrößen, und ich denke auch das es dazumals noch nicht so viel kostete, und nicht so große Probleme bereitete, eine neue Architektur zu kreieren. Immerhin haben ja ein paar Hersteller Probleme mit der 20nm Chip Fertigung. Die Preise für die Top Modelle bewegten sich zumindest bei Intel immer schon bei 800€ - 1.000€.

Alles in allem kann man sagen das der Fokus auf Effizenz liegt, und nicht mehr auf Leistung. Wen Leistung mit Wasser gekühlt werden muss, macht´s doch keinen Spaß mehr für die Hersteller.
 
@fdsonne: Im Gegensatz zu dir habe ich wenigstens eine Quelle gepostet. Das Argument dass diese nicht "zählt" wegen "fixed clocks" is mal ziemlich arm. Verlinke mir mal einen direkten Benchmark zum Vergleich der 6870 mit der 750Ti seitens Computerbase.

Nehmen wir 1080p @ 4xAA + 16xAF. Keine Übertaktung beiderseits. Boostclock der 750Ti natürlich ausgenommen. DX9+DX10+DX11 Titel altogether hoffentlich. Da SEHR viele Games immer noch kein DX10/DX11 nutzen/unterstützen.

Ich bin gespannt.

EDIT: Gerade nochmal geguckt: http://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/5/

Is von CB. Wenn man mal die 260X nimmt die in etwa auf Höhe der 6870 agiert hat die 750Ti gerade mal 10% Vorsprung im Schnitt. Nix mit 50%. Würdest du von 15% sprechen würde ich noch sagen OK, aber iwie hat sich in deinem Kopf die ein oder andere Relation verschoben. Hast du vielleicht selber eine 750Ti ? Aber ich denke es ist das selbe Problem das ich schon angesprochen habe und das bei dir schon seit Anbeginn deiner Mitgliedschaft im Luxx-Forum besteht und wegen welchem du auch ständig Diskussionen führst mit allen möglichen Usern hier: Du stellst eine Behauptung auf ohne gescheit zu recherchieren/Bescheid zu wissen und weichst einfach nicht von ihr ab und redest rum und nochmal rum und immer mehr und immer weiter anstatt mal zu sagen: OK, ihr habt Recht, das passt so nicht was ich gesagt habe. (Teste das mal, das befreit, wirst sehen... außerdem zeugt es von Charakterstärke !) BTW: Ewig viel Text (deine Posts haben fast immer mindestens 15 Zeilen) oder ewig viel Winke-Smileys und Petzaugen Smileys ändern daran gar nix !
 
Zuletzt bearbeitet:
nun vergleiche ich mal mit einer ATI karte, 3 jahre nach November 2005, für 80 euro und bin mir sicher das ich auf 100% leistungssteigerung kommen werde ;)

Gegenbeispiel: GTX 260 - Ende Mai 2010 vs. GTX 660 (non TI) Ende Juni 2013
für letztere ist das ca. 1 Jahr nach Release... -> kostet dort ~160€
Für erstere sind das 3 Jahre in die Vergangenheit bei ebenso ~160€.

Leistung? Verdoppelt!

Was sagt uns das nun? -> deine Beispiele taugen immernoch nicht. :wink:
Und das obwohl die 260er aus der Zeit stammt, wo die Performanceklasse wenig später nur mit 130€ aufschlug... Und gegen eine Karte antritt, wo die Performanceklasse sogar 350€ kostet. Also sogar noch der ungünstigste Fall für den Standpunkt, das es weiterhin Fortschritt gibt.

da du bei mir mit einem 3 jahres vergleich misst, mache ich dies ebenfalls. ich war sogar so nett und bin unter die 3 jahre gegangen, und jetzt meckerst du auch noch :(

Du hast es immernoch nicht verstanden... Es ging nicht um die absolute Zeitspanne, sondern um die Tatsache, das du dir zwei passende Objekte raussuchst und dann die Zeitspanne auf genau diese Objekte hinbiegst. Und das beschönigt eben die Werte. Siehe mein Beispiel von oben... Sowas gibts heute auch.
Bringe ich in meinem Beispiel jetzt noch den Verbrauch, steht ~200-210W für die 260er vs. 115W für die 660 non TI. -> was nochmal fast ne Effizienzverdopplung ist. Macht also schon 3,56-fachen Fortschritt!

du vergleichst ja eine 140 euro karte mit meiner 120 euro karte von vor 3 jahren. daher habe ich dich gebeten, eine schwächere karte zum vergleich zu nehmen als deine 140 euro karte.
aber selbst wenn ich dir diesen 20 euro bonus gewähre, gewinnen die alten karten den vergleich ja haushoch.

Siehe oben, nö...
Mal ganz davon ab, die 750TI gibts ab 117€...
PS: klemm dich nicht so an deinen angeblichen 120€ fest... Mir wurscht ob du das Teil für den Preis bekommen hast. Die Regel war der Preis nicht. In keinem (deutschen) Review, war der in der von dir angesagten Zeit auf unter 130€ gefallen. Oder ich bin einfach mal blind... Mal ganz davon ab, du wolltest uns erst 100€ verkaufen... Erst auf Nachboren sinds nun 120. Wer weis was da echt stand :fresse: -> von 100 auf 120 sind mal ebenso 20%, die du unterschlagen wolltest. :wink: Was ich damit sagen will, wer sucht, der findet auch heute genau so Schnäppchen. Sei es irgendwelche nur wenige Stunden/Tage geltenden Sonderangebote oder sonstwas... -> wenn deine Karte also ein Sonderangebot war, wäre es nur angemessen das A) nicht zu unterschlagen oder B) wenigstens mit gleichem Maßstab da ranzugehen. Aber EBEN NICHT diesen Sonderpreis zu nehmen um dahingehend zu argumentieren, das der Fortschritt ausbleibt.

@fdsonne: Im Gegensatz zu dir habe ich wenigstens eine Quelle gepostet. Das Argument dass diese nicht "zählt" wegen "fixed clocks" is mal ziemlich arm. Verlinke mir mal einen direkten Benchmark zum Vergleich der 6870 mit der 750Ti seitens Computerbase.

Sag mal, was willst du eigentlich von mir?
Ich habe nun schon DREI!! mal erklärt, woher die Werte stammen. Es steht ebenso DREI! mal da, aus welchen Reviews. Die Werte findest du selbst wenn du gewillt wärest zu suchen.
Den Rest kannst du dir getrost schenken...

Wenn die Werte nicht passen, was auch immer sein kann bei CB, dann sag, was du daran auszusetzen hast. Aber fang nicht an mir irgendwas zu unterstellen über Sachen, wofür ich nichts kann.
Mein Argument ist DREI! mal aufgezeigt worden und ist lückenlos nachvollziehbar. Lies die Beiträge oder lass es sein...

PS: "DX9+DX10+DX11 Titel altogether hoffentlich." war nie die Rede... Was soll das also jetzt? Ich hatte ebenso erwähnt, das es in DX9 weniger Abstand ist. Ebenso wie das es in steigenden Settings mehr werden kann. Genau so wie, das in einigen Tests die Werte aufgrund des Vergleichs derart niedrig sind, dass man genau abgewegen sollte, ob man diese in den Test mit einbezieht...
Es macht eher den Eindruck, als willst du nicht vom Standpunkt runter, das es eben nicht "nur" 15% sind. Sondern auch mehr sein können... Da bringen auch keine Aussagen etwas, von wegen, die und die Karte liegt auf dem Niveau. Bring Fakten oder lass es...
Wo und Wann und Wieviel es sein können, steht oben... 3x aber ich wiederhole mich.
 
Zuletzt bearbeitet:
Zwei Karten mit identischer Leistung:

2012: HD7870 (280 Euro)
2014: R9 270 (140 Euro)

Ergo: die Leistung pro Euro hat sich in diesem Beispiel binnen zwei Jahren verdoppelt. Und wer immer noch 280 Euro ausgeben möchte, kann zur R9 280X greifen und kriegt damit deutlich mehr Leistung als 2012 zum gleichen Preis.

Ich finde den Fortschritt toll.
 
Zuletzt bearbeitet:
Nö, ich hab jetzt schon zwei Quellen gebracht die deine Aussage widerlegen. Bums aus Nikolaus. Von dir hab ich nicht einen Link gesehen. Wenn ich ihn übersehen habe poste in welchem Beitrag dieser zu finden war. Dann guck ich nach. Alles andere ist (wie immer von dir) heiße Luft !

Weiterhin geht es bei der Perf. einer Graka ja um den Schnitt, nicht um "Ausreißer" in einem oder zwei Games. Nur weil eine 5870 damals in Crysis1 10% schneller war als eine GTX480 machte dies die 5870 nicht zu der generell schnelleren Karte. So viel zu "können auch mehr als 15% sein".

PS: Ich suche doch nicht noch für dich Quellen für den Quatsch den du behauptest.... das musste schon selbst machen... wenns diese überhaupt gibt. Was ich mir "schenken kann" lass mal meine Sache sein, so lange ich nicht gegen Forumsregeln verstoße hast du mir nicht vorzuschreiben was ich poste und was nicht. Klar ?

Das Einzige was ich zugeben muss ist dass ich bei CB keinen Vergleich zur 6870 direkt finde (bei ht4u fand ich den ja, aber da zählts ja nicht wegen den "fixed clocks" :lol: ). Auf der anderen Seite lieferst du auch keinen.
 
PS: klemm dich nicht so an deinen angeblichen 120€ fest... Mir wurscht ob du das Teil für den Preis bekommen hast.

Mal ganz davon ab, du wolltest uns erst 100€ verkaufen... Erst auf Nachboren sinds nun 120. Wer weis was da echt stand :fresse: -> von 100 auf 120 sind mal ebenso 20%, die du unterschlagen wolltest. :wink:

ich klemm mich garnicht fest. wie gesagt hätte ich sogar den vergleich mit 140 euro karten gegönnt ;)

ich habe auch nie behauptet das meine karte 100 euro gekostet hat. da hast du anscheinend was falsch interpretiert.


Gegenbeispiel
Du hast es immernoch nicht verstanden... Es ging nicht um die absolute Zeitspanne, sondern um die Tatsache, das du dir zwei passende Objekte raussuchst und dann die Zeitspanne auf genau diese Objekte hinbiegst. Und das beschönigt eben die Werte.

das ist eine unterstellung. ich habe einfach nach alten mid range karten geguckt. zuerst 6600GT. das war dir dann nicht objektiv genug. dann X700Pro. war dir auch nicht objektiv genug. dann 9600Pro. war dir auch nicht objektiv genug. wie viele beispiele soll ich noch bringen ? soll ich als nächstes mal mit einer geforce 4 ti 4200 oder FX5600 Ultra ankommen ? ich spar mir die arbeit weil du dann eh wieder sagst ich biege mir alles zurecht...

Gegenbeispiel: GTX 260 - Ende Mai 2010 vs. GTX 660 (non TI) Ende Juni 2013
für letztere ist das ca. 1 Jahr nach Release... -> kostet dort ~160€
Für erstere sind das 3 Jahre in die Vergangenheit bei ebenso ~160€.

Leistung? Verdoppelt!

was soll daran ein gegenbeispiel sein ?

dein beispiel ist älter als mein beispiel, und somit nur eine bestätigung.
abgesehen davon, sind 100% mehrleistung noch schwach im vergleich zu meinen beispielen. 100% war ja minimum bei meinen beispielen. oft waren es noch mehr mehrleistung (bis zu 200%)

- - - Updated - - -

@TARDIS
was wird Nighteye nicht gern hören wollen :fresse:

ne das stimmt nicht. ich habe ja nie bestritten das es bei den größeren modellen keine guten fortschritte gibt. sondern die low und mid range segment fortschritte bemängelt.

sein vergleich trifft nicht für mich zu weil es sich nicht um mid range vergleiche handelt. wenn man karten vergleicht die vor 2 jahren 150 euro gekostet haben, gibts heute keine 100% mehrleistung.
 
sein vergleich trifft nicht für mich zu weil es sich nicht um mid range vergleiche handelt. wenn man karten vergleicht die vor 2 jahren 150 euro gekostet haben, gibts heute keine 100% mehrleistung.

Wo sollen denn solche Steigerungsraten dauerhaft herkommen? Selbst wenn man nur 100% verlangen würde... kennst du nicht die Geschichte vom Schachbrett und den Weizenkörnern?

- - - Updated - - -

sein vergleich trifft nicht für mich zu weil es sich nicht um mid range vergleiche handelt. wenn man karten vergleicht die vor 2 jahren 150 euro gekostet haben, gibts heute keine 100% mehrleistung.

Aber wenn man eine Karte, die vor zwei Jahren 110 Euro gekostet hat (HD7770) mit einer heutigen 140 Euro Karte vergleicht (R9 270), dann hat man tatsächlich über 100% Mehrleistung. Das habe ich selbst nachgemessen.
 
Zwei Karten mit identischer Leistung:

2012: HD7870 (280 Euro)
2014: R9 270 (140 Euro)

Ergo: die Leistung pro Euro hat sich in diesem Beispiel binnen zwei Jahren verdoppelt.

2003 FX5600 Ultra für 200€
2005 7600 GT für 185€

FX5600 Ultra Doom 3 1024x768 16 fps
FX5600 Ultra Doom 3 1280x1024 5 fps

7600 GT Doom 3 1024x768 (wurde nicht getestet aber über 150 fps)
7600 GT Doom 3 1280x1024 100 fps

leistung Pro euro hat sich so krass erhöht das ich es nicht mehr ausrechnen will :fresse:


Ich finde den Fortschritt toll.

dann bist du ungebildet

- - - Updated - - -

Aber wenn man eine Karte, die vor zwei Jahren 110 Euro gekostet hat (HD7770) mit einer heutigen 140 Euro Karte vergleicht (R9 270), dann hat man tatsächlich über 100% Mehrleistung. Das habe ich selbst nachgemessen.

ja super. total fair 30 euro zu missachten ;)

vergleich doch mal eine karte mit einer HD6870 die im jahr 2011 120-130 euro gekostet hat. dann wirst du sehen wie naiv du bist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh