Haswell iGPU doppelt so schnell wie Ivy Bridge HD4000

Und genau da liegt der Gedanken-Fehler, völlig identische Menschen gibt es nur in der Theorie. in der Theorie stimmt deine These wahrscheinlich auch komplett, nur bringt das für die Praxis rein gar nichts.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ach wie sinnlos. wer sich mit zu geringen fps über 50avg versucht rauszureden ist ein schlechter zocker und hat einfach nur nicht genug skill! fürs obere viertel reicht skill alleine völlig aus, sogar vsync hindert nicht.
(meine Meinung, beziehe mich auf niemand persönlich)

Gesendet von meinem GT-I9001 mit der Hardwareluxx App
 
ach wie sinnlos. wer sich mit zu geringen fps über 50avg versucht rauszureden ist ein schlechter zocker und hat einfach nur nicht genug skill! fürs obere viertel reicht skill alleine völlig aus, sogar vsync hindert nicht.
(meine Meinung, beziehe mich auf niemand persönlich)

Gesendet von meinem GT-I9001 mit der Hardwareluxx App

Hier geht's nicht um Skill, sondern besseres Spielempfinden mit mehr Fps.
 
Hier geht's nicht um Skill, sondern besseres Spielempfinden mit mehr Fps.

wie man an deinem Beispiel sah... -.-
gegen was schönes für die Augen habe ich überhaupt nichts, aber bisher hieß es hier nur "Nicht/schlecht spielbar" und dass pros auch nur mit 200fps können.

Gesendet von meinem GT-I9001 mit der Hardwareluxx App
 
Bunghole Beavis schrieb:
Spiele auf einer APU in Full HD: unter 30 Fps grausam, ab 40 Fps werden Games spielbar, bei Shootern ists ab etwa 65-70 Fps "ok"

- Zitat ist auf meine persönliche Meinung bezogen.
- Du wirst auch nicht verneinen, dass bei identischen Skills, die bessere Hardware Vorteile bringt.

Was ich interessant finde:

Artikel schrieb:
Mit hohen Qualitätseinstellungen und in Full-HD Auflösung (jedoch ohne AA) lief der Benchmark auf beiden Systemen sauber und flüssig. Dennoch konnte das System mit NVIDIA-Grafik einen besseren Eindruck hinterlassen.

Entweder stimmt sauber und flüssig nicht oder die Bildqualität ist bei Nvidia bei gleichen Einstellungen optisch einiges besser. Vermutlich hat Intel hier einwenig getrickst über Treiber oder Setup, um "ähnliche" Performance zu erreichen.
 
Zuletzt bearbeitet:
- Du wirst auch nicht verneinen, dass bei identischen Skills, die bessere Hardware Vorteile bringt.

Das ist richtig, nur halte ich den Vorteil für so gering, dass er wirklich nur relevant ist, wenn man immer #1 unter den sehr guten sein muss.
Vor meinem System jetzt habe ich auf 'ner richtig ollen Gurke zocken müssen (Athlon64 3200+ Single Core, nV 7600), da waren 40 FPS verdammt viel, aber mein Skill hat sich beim Umstieg auf dann mal ordentliche Hardware (i5-2400, 6950) nicht verändert. Vielleicht gibt's hier im Forum den ein oder anderen, der Pro-Level-Skills hat, aber so oft wie man hier liest "bah, unter 4000FPS kann man einfach nur verlieren!!!!!einself", klingt's viel zu oft nach billiger Ausrede und das klang hier in manchen Posts auch wieder durch.


@jrs77: Alles Quatsch. ;)
FPS != Hz. Die haben relativ wenig miteinander zu tun. Nur auf Konsolen klappt die Theorie einigermaßen, weil die FPS konstant und gut getimed sind. Vsync bremst die GPU auch nicht aus, dafür ist Framerate-Target bei Kepler bspw. da. Vsync schneidet nur überflüssiges ab, was aber trotzdem berechnet wird.
 
Zuletzt bearbeitet:
Nur, dass sich die Hz nicht ändern können, die FPS aber in den seltensten Fällen am PC konstant bleiben.
 
Naja, abhängig davon wie oft man was spielt, macht eine starke iGPU schon Sinn.
Zockt man Grafikboliden nur selten und meist was einfachers, spart das enorm Strom.
Spielt man aber generell alles auf der dGPU reicht eine kleine integrierte für Aero/WebGL/etc
 
Schick mir mal die Quelle, bzw. ein Wikipedia Link. Meine Meinung ist immernoch, dass es ab 60fps egal ist, wie viel Frames man mehr hat, weil man eben bei 80fps oder 100fps den Unterschied nicht mehr ausmachen kann.
 
Zuletzt bearbeitet:
Ich muss mal die alte Bücher durchblättern, aber soweit ich mich noch erinnern kann, können Menschen (natürlich von Alter abhängig) bei starken Kontraständerungen mehr als 200 “FPS“ wahrnehmen. Als Beispiel haben die Autoren folgendes geprüft, wenn ein Mensch in einer dunklen Zimmer sitzt mit einem Fenster, welches auf der gegenüberliegenden Seite von der Blitzquelle liegt, kann der Mensch den Blitzschlag trotzdem noch wahrnehmen, obwohl die Quelle nicht direkt sichtbar ist und der Vorgang weniger als 1/200 Sek. dauert. Stand noch mehr drinnen, aber es dauert viel zu lange mit dem Handy das ganze hier zu tippen!

Freilich kann ein 60Hz LCD-Monitor mehr als 60 FPS darstellen, dann hast du aber Tearing zu kämpfen. Mir waren die 75 FPS mit Vsync in CS:S vor 6 Jahren auch viel zu wenig, ohne Vsync hatte ich aber ständig 2 bis 3 Streifen im Spiel, bis ich dann fps_max von 300 etwas runtergeregelt hab.
 
Ein Gerät mit 60Hz kann eben nicht mehr als 60 Bilder pro Sekunde darstellen, das ist ja der Witz. 1 Hz = 1/s -> 60 Hz = 60/s Das ist ein unumstössliche physikalische Gegebenheit. Man stelle es sich ganz simpel vor: Ein Monitor mit 60Hz macht 60 mal pro Sekunde die Blende auf und wieder zu, völlig egal wieviele Signale er pro Sekunde "gefüttert" bekommt.

Es geht hier nicht um das Wahrnehmungsvermögen des Menschen, sondern um simple Technik und Physik innerhalb eines Monitors.

Dann poste doch mal einen Link zu deiner Aussage (übrigens biste noch nicht mal auf Turael sein Beitrag diesbezüglich eingegangen) und mach hier nicht ein auf Einstein.
 
Zuletzt bearbeitet:
jrs77 informier dich bitte über Tearing. Klar kann ein 60HZ Monitor nicht mehr als 60 ganze Bilder darstellen, aber wenn eine Grafikkarte mehr schickt, dann werden halt zwei (oder auch mehr) nicht ganze Bilder dargestellt.
 
Sie sollten bei Haswel in die kleineren bzw. günstigeren CPU´s auch die volle Grafikeinheit freischalten. Denn da ist de Einsatzzweck. gelegenheitsspieler kaufen sich keinen i5 / i7 mit freiem Multiplikator. Im gegenzug kenn ich keinen der eine der genannten CPU´s besitzt und die GPU einheit nutzt... Also baut in die günstigen i3´s und i5´s eine ordentliche GPU ein ^^ die werden dort deutlich öfters genutzt als in so einem i7 3770K ^^

Fileserver brauchen aber keine schnelle GPU.
Ich kann mich noch an eine ältere Stellungnahme von Google erinnern, wo sie ihre Serverfarmen beschrieben haben.
Die haben keine Server-CPUs wie Xeons eingesetzt, sondern Celerons und laut deren Aussage reichte deren Leistung aus.
Vermutlich weiß Intel, dass die Celerons sehr viel mehr in Fileservern ihren Dienst tun als bei Spielern und deswegen reicht da auch die kleinste GPU.
Der Marktanteil der Spieler ist sowieso sehr klein im Vergleich zu den Büro-Computern.
Da Intel mit Sicherheit genaue Marktanalysen macht wissen die auch, wie sie ihre Gewinnmargen optimieren können und deswegen setzen die eben für jedes Marktsegment das für Intel optimale CPU-GPU-Gespann ein.
Wenn Intel in jedem Marktsegment immer nur das Beste vom Besten zur Verfügung stellen würde, dann wäre das zwar für Kunden besser, aber nicht für Intels Gewinn.
Aus technischer Sicht könnte Intel das zwar machen, aber die wären doch blöd, wenn sie sich dadurch die Einnahmen halbieren würden.
 
Aber die K Prozessoren finden keine Verwendung bei den Office-PCs statt. Deswegen kann doch Intel die iGPU bei diesen Modellen ruhig weglassen oder beschneiden und dafür den Preis auf Niveau von Prozessoren ohne K senken.
 
@Bolko: Wenn Intel soviel mehr Celereons/Pentiums als Core ix verkauft, würde sich dann nicht ein/zwei weitere DIEs lohnen, die deren Produktion noch günstiger machen? Wenn ich das z.B: richtig sehe, dann kann der kleinste Ivy-DIE mit 2 Kernen, HD2500 und 3MB Cache den Turbo, AES-NI und VT-d nur für den i5-3470T sowie den Xeon E3-1220L v2 (die mobilen i5 haben zwar auch Turbo, aber auch immer die HD4000, somit wird immer der größere Dualcore-DIE mit 4MB Cahce verwendet, sogar für die mobilen i3!). Ansonsten dient der kleinste Die allen Desktop-i3, allen Pentiums und Celerons (die ja größtenteils jetzt erst angekündigt wurden), wobei bei letzteren meist noch HT, viele Features der IGP und noch mehr Chace wegfallen.
 
@jrs77 lese den Punkt 4 und 5 nochmal durch. Den ersten Absatz nach CS 1.6 Bild habe ich im #78 beschrieben. Läuft die GraKa stabil mit 180 FPS, dann zeigt ein 60 Hz Monitor (wenn Vsync aus ist) immer 3 Bilder gleichzeitig (oben 1, mittig 2, unten 3). Ich behaupte doch nicht, dass dieser 3 ganze Bilder darstellt, sonst wäre es ein 180 Hz Monitor. Die Hz-Zahl kann aber auch falsch erkannt werden. Deshalb empfiehlt es sich, diese im Treiber oder im Monitorstatus nachzuchecken. Habe vor kurzem erst erkannt, dass der Monitor bei CS:GO immer von 120 Hz auf 60 Hz wechselt! Hatte immer Tearing, obwohl ich nur 100-130 FPS hatte. Habe dann Vsync aktiviert und das Tearing war immer noch da, net_graph zeigte dabei die korrekten 120 FPS und beim Scrollen zeigte nVidia 120 Hz im Desktop. Habe dann mit CS:S getestet - kein Tearing, Monitorstatus zeigt auch FullHD@120Hz, aber wenn CS:GO gestartet wird, dann ändert der Monitor auf 60Hz und zeigt das auch im Status an. Bisjetzt wurde es noch nicht behoben.
Übrigens aufgrund des Frame-Drops schalten die CSler meistens den Vsync aus und limitieren die FPS-Zahl lieber über Game-Engine, weil FPS auch eine zweite Bedeutung in CS hat (Frags Per Second). Aber das Problem wurde teilweise über addaptives Vsync behoben.
 
Ja, deswegen hat man einen Grund für den Kauf eines Monitors mit mehr als 60 Hz. Habe mir noch vor 6 Jahren einen LCD-Monitor mit mehr als 75 Hz gewünscht, konnte mir nicht vorstellen warum die Hersteller behaupteten, dass 75 Hz mehr als genug sind. Es können wahrscheinlich viele erfahrene CS oder Quake Spieler bestätigen, dass das Spiel als lahm vorkommt, wenn man von >150 FPS auf 60/75 FPS kommt, dabei überfliegt man oft die Gegner, weil die Position des Zielkreuzes mit Verspätung angezeigt wird. Mit Tearing kann man sich anhand von vorhandenen "neueren" Bildstücken besser vorstellen, welche Strecke man bei schnellen Bewegungen "zurückgelegt" hat.

Es ist eigentlich ganz einfach: Je schneller die Aktion, desto höher müssen auch die FPS sein, damit man noch klar sieht was los ist. Das Auge hat seine Limits, aber erstens mal sind die nicht so niedrig wie du annimmst, und zweitens können sie trainiert werden noch viel höher zu sein, genauso wie Reaktionszeit.
Der Durchschnittsmensch hat eine Reaktionszeit von 300 bis 500 ms. Das heißt aber noch lange nicht, dass es keine Menschen gibt, die weit darunter liegen.

Ich glaube die Werte von 300ms und 500ms beziehen sich aufs Autofahren, bis man von Gaspedal auf Bremspedal wechselt. Da hat man auch angegeben das Profirennfahrer 200ms oder auch weniger dafür brauchen. Normalerweise ist die Reaktion deutlich besser, in dem Reaktionstest könnt ihr überprüfen, was ihr habt, aber ich vermute, dass die Meisten viel schneller als mit 300 ms reagieren. Mein bester Durchschnittswert lag bei 157,8 ms, beste versuche lagen bei 130 ms (keine Zufallsversuche).

Werde mal testen, wenn ich Zeit hab, ob man Tearing beim 120 Hz LCD-Monitor noch merken kann, wenn man 121-130 FPS einstellt.

Eine Frage an Virtu-Kenner, da gabs doch Gerüchte, das sie mithilfe von iGPU bei mehr als 60 FPS an einem 60 Hz den Tearing behoben haben. Wie ging das denn? Werden da die Streifen dann in der obersten bzw. untersten Pixelzeilen angezeigt?
 
Mal ehrlich Sanek. Wenn keine vollen Bilder dargestellt werden können, dann kann man ja wohl schlecht davon sprechen, daß der Monitor mehr Bilder zeigt. Das ist doch Augenwischerei.

ja augenwischerei welche schon vorher aufgedeckt wurde und die du nicht erkannt hast :p

Gesendet von meinem GT-I9001 mit der Hardwareluxx App
 
Es ist reine Ansichtsweise! Der Eine (ich) meint, dass es 3 Bilder (bei 180 FPS und 60 Hz) sind, weil man unterschiedliche Bildstücke erkennen kann; der Zweite meint, dass es nur ein schreckliches Bild ist, welches nur Augenkrebs verursacht; der Dritte wiederum meint, dass es überhaupt kein Bild gibt, da man nur leuchtende Pixel hat usw.
Philosophiestunde aus!

Also kennt sich mit Virtu keiner aus?
 
Wenn ich mir mein Vorschaublatt von meinen Bilderalbum so anschaue, stellt mein Monitor sogar 253 Bilder dar.
Einfach nur grandios. :fresse:

Es ist trotzdem nur ein Bild was dir angezeigt wird, deine Grafikkarte schickt halt murks an deinen Monitor (da es schon 3 (oder mehr) Bilder berechnet hat))...

P.S. Schielen gilt nicht!
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh