[Kaufberatung] Grafikkarte Mafia 2

Danke für die Info! Die PhysX Karten sind ja relativ günstig in der Bucht, 15-30€. Haben die Treibermäßig Nachteile? Hab noch im Kopf, das Nvidia den Support dafür eingestellt hat.

Das würd mich auch interessieren. Für <50€, sofern sie mit aktuellen Treibern ganz normal arbeitet, wäre es ne Überlegung wert! :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man sollte aber nicht vergessen,eine nV Karte als PhysX sollte im richtigen Verhältnis zu normalen GPU stehen

Was für ein Verhältniss?

Das kannst du nicht ins Verhältniss stellen je nachdem was und wieviel berechnet wird an Physik ist die zusätzliche 9800er/460er was auch immer mal ausreichend oder eben nicht
 
Zuletzt bearbeitet:
Mit einem Wort zuviel des Guten!!!

Natürlich kann ich jede heute erhältliche Highendkarte mit Millionen physikalisch berechneter Partikel in die Knie zwingen(siehe Super Sonic Sleed Demo) wenn ich das beabsichtige aber braucht es das überhaupt damit sich ein realistischer Physikeffekt in aktuellen Games einstellt?

Ganz klar nein!

Ein Regler in den Optionsmenüs von Mafia der je nach Rechenpower die Anzahl der physikalisch berechneten Partikel begrenzt bzw dazuschaltet wäre hier idealerweiße angebracht gewesen und sicherlich auch realisierbar

Das sehe ich genau so. Ich bin froh das ich kein SLI System mehr habe und nun soll ich mir ne 2. GPU reinhängen, nur für Rauch und Splitter?!:eek:
Also wenn Nvidia das Feature schon als so toll bewirbt, sollte es auch der breiten Masse zugänglicher sein.

Erinnert aber irgendwie an die Zeiten, wo Bumpmapping noch in den Kinderschuhen steckte. Da ragten plötzlich kleine Erhebungen an Wänden meterweit heraus. Nur um zu zeigen: "Schaut her, wir können ein neues Feature übertrieben einsetzen!"
Manchmal ist weniger wirklich mehr....
 
Was für ein Verhältniss?

Das kannst du nicht ins Verhältniss stellen je nachdem was und wieviel berechnet wird an Physik ist die zusätzliche 9800er/460er was auch immer mal ausreichend oder eben nicht

Stamd mal bei PCGH oder so...das z.B. bei einer 285GTX sollte es schon eine 9800GTX sein,da egeal wieviel berechnet wird,die Haupt GPU irgendwie Daten zur PhysX GPU liefert,deswegen haben die damals empfohlen ab 285GTX mindestens eine 9800GTX...gabs auch mal Tests zu mit ner 295GTX und die als PhysX nutzen,oder 9800GT oder 9800GTX,mit der 9800GTX waren fast 5-10 Frames mehr drin,als mit ner 9800GT oder was die genommen haben!
 
Zum Thema Ageia PhysX gebraucht kaufen:

Hab mich mal umgeschaut und es wurde tatsächlich der Support von Seiten NVidias eingestellt. Heißt selbst Leute mit Geforce Karten können die Ageia nicht mehr nutzen.
Es gibt zwar ne Driver/PhysX Modifikation, jedoch funktioniert die nur bis PhysX System Software 9.09.0814.
Für alle ATI Nutzer gibt es momentan noch aktuelle Modifikationen um ne Geforce als zusätzlichen PhysX Beschleuniger zu nutzen:
Hybrid PhysX Mod


Gruß, Spulface
 
Wenn man sich das überlegt, da haben Leute diese PhysiX Karte gekauft seinerzeit, und nach der Übernahme von NVidia wird der Support eingestellt. Ist sowas überhaupt erlaubt? Find ich echt nicht okay. Haben ja damals über 100€ gekostet die Teile. Bin aber froh dass ich da fern geblieben bin.
 
Zum Thema Ageia PhysX gebraucht kaufen:

Hab mich mal umgeschaut und es wurde tatsächlich der Support von Seiten NVidias eingestellt. Heißt selbst Leute mit Geforce Karten können die Ageia nicht mehr nutzen.
Es gibt zwar ne Driver/PhysX Modifikation, jedoch funktioniert die nur bis PhysX System Software 9.09.0814.
Für alle ATI Nutzer gibt es momentan noch aktuelle Modifikationen um ne Geforce als zusätzlichen PhysX Beschleuniger zu nutzen:
Hybrid PhysX Mod


Gruß, Spulface

Jop. Aber 50W extra für PhysX ist heavy, die kleine Ageia find ich eleganter.


Die Nvidia PhysX Software tut nicht? Laut Beschreibung werden Ageia PhysX Prozessoren und Nvidia ab Serie 8 unterstüzt.
Nvidia PhysX System Software Download - ComputerBase
Auf der HP von Nvidia wird zwar 8.0irgendwas empfohlen für Ageias, aber das muss ja nix heißen.
Also dürfte ein Parallelbetrieb wir mit einer zusätzlichen Graka funktionieren (Nvidia + ATI Treiber). Sprich Ageia wird schon noch unterstützt, nur halt primär in Kombination mit einer Nvidia-Karte, alles andere muss gemoddet werden, sprich dauert länger bis funktionierende Treiber verfügbar sind?


Was stimmt den nun? 20€ investieren für nix will ich auch nicht
 
Mit einem Wort zuviel des Guten!!!

Natürlich kann ich jede heute erhältliche Highendkarte mit Millionen physikalisch berechneter Partikel in die Knie zwingen(siehe Super Sonic Sleed Demo) wenn ich das beabsichtige aber braucht es das überhaupt damit sich ein realistischer Physikeffekt in aktuellen Games einstellt?

Neja man will doch seitens der Hersteller was zeigen... Würde das auch ne kleine GPU bewältigen können stellt sich mir ernsthaft der Sinn der ganzen GPU PhysX Sache.

Unterm Strich zeigt das ganze eigenltich nur, wie ineffizient NVs aktueller Lösungsansatz hier arbeitet...

Man sollte aber nicht vergessen,eine nV Karte als PhysX sollte im richtigen Verhältnis zu normalen GPU stehen.Wenn die Haupt GPU z.B. eine 480GTX ist,als PhysX Karte aber nur eine 9600GT zum Einsatz kommt,stimmt das Verhältnis nicht mehr,die 9600GT bremst die 480GTX aus.Man sollte also lieber etwas wie die 9800GTX,260GTX als Zusatzkarte werkeln lassen!

Wie will man das Pauschalisieren?
Ein paar Games brauchen massive PhysX Power, weil die Effekte sehr aufwändig sind, andere brauchen sehr wenig PhysX Power. Das ist komplett unabhängig von der Grafikberechnung ansich.
 
Danke für die Info! Die PhysX Karten sind ja relativ günstig in der Bucht, 15-30€. Haben die Treibermäßig Nachteile? Hab noch im Kopf, das Nvidia den Support dafür eingestellt hat.
Wer sich nur wegen PhysX extra ne GTX260 oÄ in den Rechner knallt, hat echt n Problem :d Da steht der Gewinn in keinem Verhältnis zum Verbrauch.

Der Support ist wohl offiziell eingestellt, aber man kann wohl das letzte aktuellen PhysX Paket installieren, was die Ageia Karte unterstützt und dann die aktuelle NV PhysX Software Version drüber bügeln.

Stamd mal bei PCGH oder so...das z.B. bei einer 285GTX sollte es schon eine 9800GTX sein,da egeal wieviel berechnet wird,die Haupt GPU irgendwie Daten zur PhysX GPU liefert,deswegen haben die damals empfohlen ab 285GTX mindestens eine 9800GTX...gabs auch mal Tests zu mit ner 295GTX und die als PhysX nutzen,oder 9800GT oder 9800GTX,mit der 9800GTX waren fast 5-10 Frames mehr drin,als mit ner 9800GT oder was die genommen haben!

Das sagt aber gar nix über ein Verhältniss aus...
Denn wenn PhysX durch die Leistung der Grafikkarte limitiert wird, gibt es logischerweise ein Framelimit bei besagten Stellen. Andererseits kannst du aber genau so die Karte für die normale Berechnung erhöhen und hast an den stellen, wo PhysX grad nicht greift eine deutliche Mehrleistung, sofern nix anderes limitiert.

Und schlussendlich hängt wie schongesagt sowieso alles von der Software ab. Wenn die PhysX Rechnerei komplexer wird, muss es auch ne schnellere Karte sein damit man das bewältigen kann.
 
Neja man will doch seitens der Hersteller was zeigen... Würde das auch ne kleine GPU bewältigen können stellt sich mir ernsthaft der Sinn der ganzen GPU PhysX Sache.

Unterm Strich zeigt das ganze eigenltich nur, wie ineffizient NVs aktueller Lösungsansatz hier arbeitet...

Man will Seitens der Hersteller des Spiels aber doch auch so viele Käuferschichten wie irgend möglich ansprechen auch mit PhysX Option.

So denke ich mir das zumindestens;)

Deshalb wäre eine Option im Spiel selber die die Physik Effekte auf ein Minimum,Mittelmaß bzw Full enable stellt doch der optimale und ebenfalls auch durchführbare Weg gewesen.

Warum man das nicht so gelöst hat ob auf Druck von Nvidia oder einfach nicht nachgedacht steht da auf einem anderen Blatt;)

Unterm Strich zeigt das ganze eigenltich nur, wie ineffizient NVs aktueller Lösungsansatz hier arbeitet...

Eine "Multifunktionsgrafikkarte" jetzt mit einer nur auf die Physikberechnung hin ausgelegten Karte wie der von Ageia zu vergleichen ist denke ich auch ein Bisschen fehl am Platze;)

Sicherlich können spezialisierte Chips und darauf ausgelegte Treiber hier immer bessere Werte erziehlen

Das zeigt sich doch auch im Raytracingbereich
 
Man will Seitens der Hersteller des Spiels aber doch auch so viele Käuferschichten wie irgend möglich ansprechen auch mit PhysX Option.

So denke ich mir das zumindestens;)

Deshalb wäre eine Option im Spiel selber die die Physik Effekte auf ein Minimum,Mittelmaß bzw Full enable stellt doch der optimale und ebenfalls auch durchführbare Weg gewesen.

Warum man das nicht so gelöst hat ob auf Druck von Nvidia oder einfach nicht nachgedacht steht da auf einem anderen Blatt;)

Es kostet halt Programmieraufwand derartiges zu ermöglichen. Wenn man bedenkt, das man mit PhysX per GPU quasi sowieso nur die hälte aller Käufer anspricht, könnte man meinen, es lohnt einfach nicht...


Eine "Multifunktionsgrafikkarte" jetzt mit einer nur auf die Physikberechnung hin ausgelegten Karte wie der von Ageia zu vergleichen ist denke ich auch ein Bisschen fehl am Platze;)

Sicherlich können spezialisierte Chips und darauf ausgelegte Treiber hier immer bessere Werte erziehlen

Das zeigt sich doch auch im Raytracingbereich

Nö warum sollte es?
Ich sehe die PhysX PPU von Ageia und sehe im Vergleich dazu eine NV Grafikkarte. Beide machen das selbe, aber ich stelle fest, das NV im Vergleich extrem ineffizienter arbeitet.

Unabhängig davon ob das nun spezialisiert ist oder nicht. Fakt ist, NV bietet das Feature an, also kann man auch vergleichen.


In meinen Augen wäre NV den besseren Weg gefahren, wenn man PhysX anderweitig realisiert hätte, also quasi über eine dedizierte Karte oder von mir aus auch über einen dedizierten Chip auf der Grafikkarte oder ähnlichem.

Das was man jetzt macht ist einfach die GPU mit Sachen zu überladen, für die sie nicht gemacht wurde. Das geht solange gut, wie die GPUs noch genügend Luft nach oben haben. Aber wenn man mal bedenkt wie viele potentielle Käufer von Games überhaupt Karten ala Fermi/Evergreen haben, kommt man schnell zu dem Schluss, das die Grafikkarte quasi so schon voll am Limit laufen und jedes bisschen Physikberechnung zusätzlich die FPS massiv in den Keller drücken würde, weil einfach Shaderpower flöten geht.


EDIT:
man muss sich nur mal vor Augen führen, die Ageia Karte ist in 130nm gefertigt und hat gerade mal 125Mio Transistoren und 128MB dedizierten Speicher...
Sowas könnte man spielend mit aktuellem 40/45nm Prozessen fertigen. Selbst wenn man da 500Mio Transistoren verbaut und als Speicher 256/512MB GDDR5 Speicher nimmt bei 128Bit SI oder gar nur 64Bit SI. Leistungsmäßig dürfte man damit die 4-5 fache PhysX Power erreichen als eine 9600GT. Das ist mehr als eine 480GTX alleine schaffen würde...

Das Problem an Ageias Erstlösung war einfach der Preis am Anfang und die fehlende Unterstüztung in Games (welche ja selbst jetzt nicht wirklich drastisch besser geworden ist)
 
Zuletzt bearbeitet:
In meinen Augen wäre NV den besseren Weg gefahren, wenn man PhysX anderweitig realisiert hätte, also quasi über eine dedizierte Karte oder von mir aus auch über einen dedizierten Chip auf der Grafikkarte oder ähnlichem.

)

Ersteres wäre sicherlich ebenso gescheitert wie die damalige Ageia Karte.

Nur weil sich jetzt User zusätzlich herumliegende Grafikkarten für die PhysX Berechnung einbauen heißt das aber noch lange nicht das sie auch bereit wären für eine zusätzliche spezialisierte Karte zu bezahlen.

Der Mensch mag es doch eher kompakt zusammengefügt

Deshalb ist zweite Überlegung sogar eine recht gute wenn Nvidia (nur jetzt mal theoretischer Weiße) es schaffen würde die Produktions/Entwicklungskosten dementsprechend gering zu halten,das selbst diese komplexere Karte immer noch in Konkurenz treten könnte mit dem Mitbewerber ATI auch mit diesem Zusatzfeature PhysX
 
Zuletzt bearbeitet:
Jop. Aber 50W extra für PhysX ist heavy, die kleine Ageia find ich eleganter.


Die Nvidia PhysX Software tut nicht? Laut Beschreibung werden Ageia PhysX Prozessoren und Nvidia ab Serie 8 unterstüzt.
Nvidia PhysX System Software Download - ComputerBase
Auf der HP von Nvidia wird zwar 8.0irgendwas empfohlen für Ageias, aber das muss ja nix heißen.
Also dürfte ein Parallelbetrieb wir mit einer zusätzlichen Graka funktionieren (Nvidia + ATI Treiber). Sprich Ageia wird schon noch unterstützt, nur halt primär in Kombination mit einer Nvidia-Karte, alles andere muss gemoddet werden, sprich dauert länger bis funktionierende Treiber verfügbar sind?


Was stimmt den nun? 20€ investieren für nix will ich auch nicht

Also im FAQ vom Hybrid Mod steht: "Apparently Ageia PPU support was dropped altogether since 9.09.30 - even for Nvidia GPU users."

Man kann wohl die System Software installieren, aber in wie fern das ganze dann noch bei Mafia 2 mit Unterstützung der Ageia Karte funktioniert ist denke ich nicht so offensichtlich.
Für 20€ wärs vielleicht nen Versuch wert, aber im schlimmsten Fall kann die Karte für die Zukunft echt unnütz sein..


*edit*

Dazu noch die Anleitung: (kann sein das dass auch nur für ATI Nutzer gilt)

PhysX System Software 9.09.30 mod v1.0 for Ageia PPU
Follow instructions in readme file, but i ask you to draw attention to the 2nd note about PhysX panel. We ran into many problems while trying to make it to work, and my final guessed solution (which will save your time if it works) is not included in the readme. So i ask anyone interested to test it:
1. Install PhysX SS 8.09.04.
2. Install PhysX SS 9.09.30.
3. Download the included archive (PhysX_9.09.0814_original_AgCP) and extract everything to your System32 (SysWOW64 for x64 users) folder.
(this archive contains only original files from 9.09.0814 installation, which is the latest known version with included PhysX panel for Ageia PPU)

This may work better than other tricks. If not - you (and the community) will have to find a better way.

Es hängt also offensichtlich an der System Software, welche nur durch einen Mix mit der älteren System Software (mit Ageia Support) noch zum laufen bewegt werden kann. Ob das mit der momentan aktuellen Software geht steht da irgendwie nicht..
 
Zuletzt bearbeitet:
Also im FAQ vom Hybrid Mod steht: "Apparently Ageia PPU support was dropped altogether since 9.09.30 - even for Nvidia GPU users."

Man kann wohl die System Software installieren, aber in wie fern das ganze dann noch bei Mafia 2 mit Unterstützung der Ageia Karte funktioniert ist denke ich nicht so offensichtlich.
Für 20€ wärs vielleicht nen Versuch wert, aber im schlimmsten Fall kann die Karte für die Zukunft echt unnütz sein..

Dem Spiel ist es egal, ob PhysX nun auf der GPU oder auf der Ageia Karte realisiert wird, es sieht nur die ihm vordefinierte Schnittstelle. Auf welcher Einheit der Programmcode nun gerechnet wird, ist dem Spiel also egal...

Das einzige was NV machen kann und wohl früher oder später auch wird, ist eben den Support der PhysX Software für die Ageia Karte zu unterlassen. Angefangen hat man ja damit schon, indem es keine Treiber mehr für die Karte gibt. Im Moment läuft das ganze aber noch mit oben genannten Trick...

Ob sich irgendwann dann mal Modder finden, die die Ageia Karte lauffähig machen, steht aber in den Sternen. Irgendwann wird auch die Ageia Karte mal zu alt sein...
 
Das ganze Konzept ansich regt mich auf. Für eine kleine Zusatzfunktion muss man einen fetten zusätzlichen Stromverbraucher einbauen. Damals haben noch alle über die Ageia Karten gelacht, wie unnütz die doch seien. Und nun macht NVidia dasselbe, nur leider mit dem Unterschied dass keine kleine, stromsparende Zusatzkarte im System steckt, sondern eine vollwertige Grafikkarte. Und NVidia's Strategie geht voll auf, jetzt kaufen auch die Leute zwei Karten von denen, die kein SLI brauchen/wollen.

Eigentlich sollte der Trend ja insgesamt zu sparsameren, aber gleichzeitig stärkeren Systemen gehen, so ist es ja in anderen Bereichen auch (Autoindustrie etc). Nur im Gamer PC Bereich verbraucht ein PC bald soviel Strom wie vor zehn Jahren alle PCs in einem 10 stöckigen Wohnhaus.
 
Eigentlich sollte der Trend ja insgesamt zu sparsameren, aber gleichzeitig stärkeren Systemen gehen, so ist es ja in anderen Bereichen auch (Autoindustrie etc). Nur im Gamer PC Bereich verbraucht ein PC bald soviel Strom wie vor zehn Jahren alle PCs in einem 10 stöckigen Wohnhaus.

Die Effizienz steigt mit jeder neuen Generation, nur schreien die Leute ja quasi immer nach mehr Leistung, die muss auch irgendwo her kommen... Entweder man will doppelte Leistung zum Vorgänger oder man will stromsparende Hardware. Beides geht nunmal nicht.

Gemessen daran, wie stark der Leistungszuwachs heutiger Systeme im Vergleich zur Hardware von vor 10-15 Jahren ist, ist der Stromverbrauchszuwachs ein Witz.
 
Passt zur der Diskussion

---------- Beitrag hinzugefügt um 19:20 ---------- Vorheriger Beitrag war um 19:18 ----------

Gemessen daran, wie stark der Leistungszuwachs heutiger Systeme im Vergleich zur Hardware von vor 10-15 Jahren ist, ist der Stromverbrauchszuwachs ein Witz.

Man sollte ihn aber auch nicht aus den Augen verlieren zumindestens was sinnvoll genutzte home PCs angeht sollte der Energieaufwand eher sinken als noch weiter ansteigen;)

Ich rede dabei ausschliesslich nicht von irgendwelchen Enthusiastensystemen die am Tag vielleicht mal 1-2 Stunden zum Benchen laufen:xmas:
 
Zuletzt bearbeitet:
Die Effizienz steigt mit jeder neuen Generation, nur schreien die Leute ja quasi immer nach mehr Leistung, die muss auch irgendwo her kommen... Entweder man will doppelte Leistung zum Vorgänger oder man will stromsparende Hardware. Beides geht nunmal nicht.

Gemessen daran, wie stark der Leistungszuwachs heutiger Systeme im Vergleich zur Hardware von vor 10-15 Jahren ist, ist der Stromverbrauchszuwachs ein Witz.

So einfach kann man sich das nun leider auch wieder nicht machen. Die Stromspartechniken sind eher ein Witz, so sieht es aus. Eigentlich müssten onboard Grafikkarten und ein System, die 3D Karten im 2D Betrieb komplett abzuschalten überall Standard sein. Oder alle Speicherbausteine bis auf die, die gebraucht werden.

Und letztendlich Dinge wie eine vollwertige Grafikkarte als reine PPU zu benutzen ist grotesk vom Standpunkt des Stromverbrauches aus. Dann soll wenigstens die PhysiX Karte komplett ausgeschaltet bleiben, solange sie nicht gebraucht wird.
 
So einfach kann man sich das nun leider auch wieder nicht machen. Die Stromspartechniken sind eher ein Witz, so sieht es aus. Eigentlich müssten onboard Grafikkarten und ein System, die 3D Karten im 2D Betrieb komplett abzuschalten überall Standard sein. Oder alle Speicherbausteine bis auf die, die gebraucht werden.

Und letztendlich Dinge wie eine vollwertige Grafikkarte als reine PPU zu benutzen ist grotesk vom Standpunkt des Stromverbrauches aus. Dann soll wenigstens die PhysiX Karte komplett ausgeschaltet bleiben, solange sie nicht gebraucht wird.

Hast recht mich nervt das auch schon seit jahren .....
Aber vielleicht wird man in 1-2jahren ,wenn alle neuen cpus eine gpu inside haben, wieder einen reinen 3dbeschleuniger ala 3dfx voodoo kaufen können der sich nur bei grafiklastigen anwendungen einschaltet und sich sonst im tiefschlaf mit 1-2watt begnügt .
Somit könnte man wirklich was für die umwelt tun und gleichzeitig die freigewordenen ressourcen auf der gpu nutzen .

Da die meisten von uns am tag 80-90% der zeit in 2d unterwegs sind ,kann so ein beschleuniger unter last von mir aus auch 500watt verbrate.



P.S Der ati + nvidia gpu physx mod funktioniert übrigens bestens .
Nur das mich bis jetz keine techdemo oder game demo mit aktivierter gpu physx vom hocker gehauen hat .
Beispiel die demo batman arkham asylum ; Also für einwenig putz den man aber auch nur an bestimmten stellen abschlagen kann, etwas unschärfeeffekt und ein paar rauchschwaden brauchte man früher noch keine spezielle hardware.

Ganz wertfei über sinn oder unsinn von gpu physx.
Ich verstehe nvidia´s strategie dahinter nicht, user die keine nvidia master karte haben von vornherein auszuschliessen .
Jede verkaufte karte bedeutet kapital für nvidia und gleichzeitig pusht man sein physx.
 
Zuletzt bearbeitet:
So einfach kann man sich das nun leider auch wieder nicht machen. Die Stromspartechniken sind eher ein Witz, so sieht es aus. Eigentlich müssten onboard Grafikkarten und ein System, die 3D Karten im 2D Betrieb komplett abzuschalten überall Standard sein. Oder alle Speicherbausteine bis auf die, die gebraucht werden.

Aber sicher kann man sich das so einfach machen... Denn der Knackpunkt ist nicht der absolute Stromverbrauch ansich, sondern das Verhältnis Stromverbrauch/Leistung.
Wenn man sich ansieht, bei welcher Leistung Systeme von vor 10-15 Jahren gearbeitet haben und welchen Stromverbrauch diese verbuchten im Vergleich zu den heutigen Systemen und dessen Stromverbrauch ist das eine enorme Effizienzsteigerung.

Und wie schon oben gesagt, die Leute wollen nicht unbedingt nur Stromsparen, die wollen in erster Linie deutlich mehr Leistung... Und diese muss irgendwo her kommen. Und heutige HighEnd GPUs kommen beispielsweise auch schon recht Stromsparend im idle aus. Was will man mehr?
Das bisschen was man als Endkunde an Strom sparen könnte, bei komplett deaktivierter GPU über die paar Monate gerechnet, wo die Grafikkarte im Einsatz ist, deckt bei weitem nicht den Mehrpreis, den man für die Entwicklung derartiger Lösungen hinlegen müsste und den die Boards mit OnBoard IGP usw. kosten würden...
 
Das was man jetzt macht ist einfach die GPU mit Sachen zu überladen, für die sie nicht gemacht wurde. Das geht solange gut, wie die GPUs noch genügend Luft nach oben haben. Aber wenn man mal bedenkt wie viele potentielle Käufer von Games überhaupt Karten ala Fermi/Evergreen haben, kommt man schnell zu dem Schluss, das die Grafikkarte quasi so schon voll am Limit laufen und jedes bisschen Physikberechnung zusätzlich die FPS massiv in den Keller drücken würde, weil einfach Shaderpower flöten geht.

Grundsätzlich gebe ich dir Recht. Aber wenn man jetzt vom Beispiel Mafia 2 ausgeht, soll ja angeblich eine 8800GT zum Spielen ohne Physx aureichen. Damit hätte ja bereits eine GPU aus der 200er serie (GTX wohlgemerkt) einige Reserven. Erst recht aber eine GTX 480.
Ich konnte zumindest damals Sacred 2, alles auf high, mit Physx spielen (GTX 260).

Das mit der dedizierten Karte finde ich übrigens auch eine gute Idee. Wahrscheinlich würde aber auch schon ein neuer Physx Treiber reichen, der speziell auf die 2. GPU angepasst wurde, um sie effizienter zu nutzen.
 
Grundsätzlich gebe ich dir Recht. Aber wenn man jetzt vom Beispiel Mafia 2 ausgeht, soll ja angeblich eine 8800GT zum Spielen ohne Physx aureichen. Damit hätte ja bereits eine GPU aus der 200er serie (GTX wohlgemerkt) einige Reserven. Erst recht aber eine GTX 480.
Ich konnte zumindest damals Sacred 2, alles auf high, mit Physx spielen (GTX 260).

Da magst du schon recht haben, aber warten wir das mal ab, ich denke nicht das eine 8800GT ausreichend sein wird um volle Details zu fahren bei heutigen Standard Auflösungen. Ich denke mindestens 260GTX ist da angesagt. Ohne PhysX Spielerei.
 

Puh, geradeso die 1min mit verschiedenen PhysX Titeln vollbekommen :d
Man könnte fast denken, man bekommt in jedem Spiel diese Effekte. Schon etwas irreführend..

Es ist einfach dreißt, das selbst wenn man eine Leistungsstarke vielleicht sogar die Leistungsstärkste Karte auf dem Markt von nVidia hat und trotzdem das viel und breit umworbende, PhysX nicht in vollem Maß nutzen kann.

Ich hoffe einfach das nVidia von den Kunden dafür bestraft wird, mehr als hoffen kann man leider eh nicht..
 
Aber sicher kann man sich das so einfach machen... Denn der Knackpunkt ist nicht der absolute Stromverbrauch ansich, sondern das Verhältnis Stromverbrauch/Leistung.
Wenn man sich ansieht, bei welcher Leistung Systeme von vor 10-15 Jahren gearbeitet haben und welchen Stromverbrauch diese verbuchten im Vergleich zu den heutigen Systemen und dessen Stromverbrauch ist das eine enorme Effizienzsteigerung.

[...]
Das bisschen was man als Endkunde an Strom sparen könnte, bei komplett deaktivierter GPU über die paar Monate gerechnet, wo die Grafikkarte im Einsatz ist, deckt bei weitem nicht den Mehrpreis, den man für die Entwicklung derartiger Lösungen hinlegen müsste und den die Boards mit OnBoard IGP usw. kosten würden...

So gering ist der Unterschied nicht. Meine Freundin hat allein in ihrer 75m² Wohnung eine Stromrechnung von 30€ gehabt. Wir sind nun zusammengezogen und seit dem liegt die Umlage bei 42€. Nun, der Kühlschrank, das Licht und der Fernseher sind auch nicht häufiger an, das warme Wasser wird mit Gas geheizt, also fällt der Großteil des Mehrverbrauches auf den Computer, sie hatte vorher nur einen Laptop den sie nie benutzt hat. Und mein war bisher eine i7 860/5770 Combo. Wenn nun die GTX460 und eine PhysiX Karte hineinkommen wird es noch schlimmer.

Man kann es sich natürlich schön reden in dem man die Gleichung heutige Computer haben x-mal mehr Leistung als die vor zehn Jahren, brauchen aber nur x% mehr Strom aufstellt. Nur wenn das alle so machen würden, dann würden wir uns heute bei einem 150PS Auto auch über einen Verbrauch von 12 Litern freuen. So läuft das nicht.

Wenn man sich überlegt wann eigentlich erst die Effizienzzertifizierung bei Netzteilen, oder das Runtertakten im 2D Modus bei Grafikkarten in Mode gekommen ist, dann sieht man wie weit die PC (High End) Industrie anderen hinterherhinkt.

Der einzige Trost ist hier, dass das High End Gamer Segment nur einen winzigen Bruchteil des PC Marktes ausmacht. Zum Glück.
 
Zuletzt bearbeitet:
Man kann es sich natürlich schön reden in dem man die Gleichung heutige Computer haben x-mal mehr Leistung als die vor zehn Jahren, brauchen aber nur x% mehr Strom aufstellt. Nur wenn das alle so machen würden, dann würden wir uns heute bei einem 150PS Auto auch über einen Verbrauch von 12 Litern freuen. So läuft das nicht.

Meiner hat 170 PS und verbraucht 9 Liter.:bigok:


BTT
Ich denke, abwarten wird eh helfen. Immerhin haben Entwickler und Nvidia noch ca. 1 Monat Zeit, um etwas zu optimieren. Und vielleicht wird es dann doch gar nicht so schlimm, wie prophezeit.
Oder es wird per Patch die Performace verbessert bzw. Einstellungen à la low-medium-high für Physx nachgereicht.
 
So gering ist der Unterschied nicht. Meine Freundin hat allein in ihrer 75m² Wohnung eine Stromrechnung von 30€ gehabt. Wir sind nun zusammengezogen und seit dem liegt die Umlage bei 42€. Nun, der Kühlschrank, das Licht und der Fernseher sind auch nicht häufiger an, das warme Wasser wird mit Gas geheizt, also fällt der Großteil des Mehrverbrauches auf den Computer, sie hatte vorher nur einen Laptop den sie nie benutzt hat. Und mein war bisher eine i7 860/5770 Combo. Wenn nun die GTX460 und eine PhysiX Karte hineinkommen wird es noch schlimmer.
Das kommt sicher nicht nur vom PC.

Ich fang mal an zu rechnen. Nehmen wir 25Cent pro kW/h.
12€ macht also 48kW/h welche du/ihr mehr verbraucht habt.

Heist also ihr habt 48h lang 1kW mehr verbraucht als sonst.
Rechnet man das jetzt runter, der PC braucht im idle unter 100W und unter durchschnittsgaming Last vllt 170W, so kann man ein Gerät mit 170W Verbrauch gute 282h betreiben um 48kW/h zu verbrauchen.

282h im Monat heist 9,4h pro Tag...

Ganz ehrlich das kommt nicht nur vom PC, sicher nicht... Oder du solltest vllt mehr Zeit mit deiner Freundin am Tag verbringen anstatt am PC zu sitzen ;)

Man kann es sich natürlich schön reden in dem man die Gleichung heutige Computer haben x-mal mehr Leistung als die vor zehn Jahren, brauchen aber nur x% mehr Strom aufstellt. Nur wenn das alle so machen würden, dann würden wir uns heute bei einem 150PS Auto auch über einen Verbrauch von 12 Litern freuen. So läuft das nicht.

Doch genau so läuft das...
Du vergisst bei deinem Autovergleich die Tatsache, das sich die Leistung heutiger Autos über die letzten 10-15 Jahre sogut wie nicht gesteigert hat.
Wo vor 10-15 Jahren 75-90PS Standard waren, sind es heute vllt 120-150.

Schau dir an wie Leistungsstark die PCs vor 10-15 Jahren waren... Da ist nicht nur eine Steigerung von 100% zu verzeichnen im Gegensatz zu heute.

Es gibt in keinem anderen technischen Bereich eine derart hohe Effizienzsteigerung wie im PC Bereich. Soviel kann man wohl aus dem Hut sagen...
Wenn dich der Stromverbrauch stört, kauf halt kleine Stromsparende Systeme, begnüge dich mit OnBoard Grafik und gut ist. So hast du einen Stromverbrauch von fast nix. Aber auch keine sonderlich große Leistung.
Um beim Autovergleich zu bleiben, wer unter 4l/100km fahren will, nimmt auch keine 300PS Kiste... Da muss man abstriche machen.
 
Ich hoffe einfach das nVidia von den Kunden dafür bestraft wird, mehr als hoffen kann man leider eh nicht..
das spiel is doch noch nicht mal draussen!

ausserdem kannst du sicherlich mit moderaten einstellungen auch mit ner 460 ordentlich spielen. denk mal kurz nach, was kann nvidia dafür, wenn der spieleentwickler einfach zuviel effekte ins spiel baut mit höchsten einstellungen.

oder hat man sich als crysis kam über die grakahersteller beschwert, dass das game mit allem auf max nicht ordentlich läuft? selbst mit heutiger hardware läufts nicht mit 100fps im schnitt.

was ich bis jetzt gesehen habe, reichen mittlere einstellungen bei mafia2 locker aus um es grafisch schön und von der leistung ordentlich spielen zu können. aber das wird man wohl sehen müssen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh