Prozessor mit Grafikchip trotz dedizierter Graka sinnvoll?

Leifus

Neuling
Thread Starter
Mitglied seit
12.02.2021
Beiträge
5
Hallo Forum,
ich bin neu hier, weil ich eine Antwort auf eine Frage suche, die ich auch nach der 100. Google Suchanfrage einfach nicht finden kann!

Kurz vorweg: Ich möchte einen neuen PC zusammenstellen, eher im Low-Mid-Budget-Bereich, da meine Ansprüche nicht mehr so hoch sind und ich nur gelegentlich mal einen neuen Titel spiele, der dann auch nicht zwangsweise auf Ultra laufen muss. Aktuell 1080p, vllt bald mal ein Upgrade auf 1440p.

Mein altes System ist komplett überholt und ich muss alles austauschen, ohne Zweifel. Lediglich das Case darf bleiben.
Eigentlich ist das aber alles schon zu viel Info für die (einfache?) Frage, die ich gerne beantwortet hätte.

Ich wollte mir einen 10400F holen, der ja gerade zu unglaublich günstigen 130€ zu haben ist und damit Preis-Leistungstechnisch allem davon fährt (mMn).
Bei einer Diskussion mit einem Freund erwähnte ich, dass ich auch das Netzteil austauschen müsse (8-9 Jahre alt, 600W, lediglich Bronze), da das von der Effizienz überhaupt keinen Sinn mehr macht, zumal das neue System niemals 600W brauchen würde (auch nicht die 80% davon).
Daraufhin meinte er: "Naja, also wenn du schon auf Stromsparer machst und dir die Effizienz so wichtig ist, dann kauf lieber eine CPU mit integrierter Grafik, die dann im Leerlauf/Idle oder bei leichtem Betrieb die Aufgaben übernimmt und die eigentliche Graka sich in diesen Phasen verabschieden/abschalten kann."

Nun zu meiner Frage: Ist das denn tatsächlich so, dass in diesem Moment die Prozessor Grafik das alles übernimmt und ich in diesem Moment Strom spare? Die Graka die ich "relativ" günstig bekommen habe, eine Zotac 1660 Super AMP, verbraucht, falls ich richtig recherchiert habe, natürlich etwas mehr, als ein CPU mit Grafikchip. Oder?
Macht die Aussage meines Kumpels also Sinn? Ich persönlich hatte da nämlich so meine Zweifel, WISSEN tu ich es aber nicht.
Sorry, falls ich hier einfach irgendetwas grundlegendes nicht verstanden haben sollte, mit diesem Unwissen laufe ich jetzt schon eine ganze Weile durch die Gegend.

Ich bin dankbar für jede Antwort.

Beste Grüße
Leifus
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also hier ist es bei der Dual-Grafik so das einstellbar ist, welcher Grafikadapter als Standard benutzt werden soll. Heißt also entweder iGPU oder die Dedizierte oder es wird automatisch je nach Anwendung entschieden, was benutzt wird. Kann man also nach Gusto einstellen und/oder ausprobieren was einem am besten passt. Wer Nvidia-Karten benutzt findet das in der entsprechenden Systemsteuerung; die Integrierte spart manchmal sogar etwas Strom. Muss allerdings sagen das die iGPU des I7 4910 langsamer ist als die Quadro...
 
@Luxxiator Erstmal vielen Dank für die schnelle Antwort!

Also hat er prinzipiell mit seiner Aussage Recht, wenn ich dich richtig verstanden habe.

Hast du eine Empfehlung, ob sich das wirklich lohnt einen Aufpreis zu zahlen für die Non-F Variante? Oder ist der Stromverbrauch bei den Grakas heuzutage so gut geregelt, dass es eigentlich keinen großen Unterschied mehr macht?
 
Also bei den großen Action-Krachern oder Cyberpunk und Co wirste mit einer integrierten Grafik natürlich nicht glücklich. Muss jeder für sich entscheiden; ist auch die Frage wie hoch der Aufpreis für die integrierte Grafik ist. Auf jeden Fall erfolgt die Umschaltung zwischen den Grakas blitzschnell; immerhin...
 
Um eine Grafikkarte möchte ich ja auch nicht drum rumkommen, da ist klar 😛 Möchte ja was spielen. Meinte nur, ob es sich lohnt einen 10400 statt einen 10400F zu kaufen, wenn dieser (10400) dann tatsächlich anspringt, sobald ich quasi ein Game schließe und der PC selbst entscheidet, wann er die dedizierte Graka dazunimmt.

Hoffe, dass ich dich richtig verstanden habe, dass das tatsächlich so stattfinden kann mit den richtigen Einstellungen.
Der Aufpreis von 10400F zu 10400 liegt aktuell bei ~20€. Wäre zu verkraften. Aber wenn es unnötig ist, müsste ich sie ja nicht raushauen.

EDIT:
Wenn ich nun eine 10400F habe, ohne Grafikchip, und mir schmiert aus irgendeinem Grund meine 1660 Super ab, was ist dann? Geht dann einfach gar nichts mehr? Ist IRGENDEINE Grafikeinheit immer zwingend nötig, oder kann die CPU das System auch alleine betreiben, dass ein Bild rauskommt? (Natürlich ohne große Leistung)

Ich habe auch etwas gelesen von Grafikchips im Chipsatz?! Bedeuetet das, dass sowas zusätzlich auch immer noch auf dem Mainboard ist? Rettet mich das dann?
So viele Frage...
 
Zuletzt bearbeitet:
Wenn ich nun eine 10400F habe, ohne Grafikchip, und mir schmiert aus irgendeinem Grund meine 1660 Super ab, was ist dann? Geht dann einfach gar nichts mehr? Ist IRGENDEINE Grafikeinheit immer zwingend nötig, oder kann die CPU das System auch alleine betreiben, dass ein Bild rauskommt? (Natürlich ohne große Leistung)

Ich habe auch etwas gelesen von Grafikchips im Chipsatz?! Bedeuetet das, dass sowas zusätzlich auch immer noch auf dem Mainboard ist? Rettet mich das dann?
Auf Mainboards sind schon seit einigen Jahren keine Grafikchips mehr verbaut. Wenn deine Grafikkarte kaputt geht, dann bekommst du kein Bild mehr. Die CPU kann theoretisch sehr langsam auch Grafik erzeugen, kann aber nicht genutzt werden. Von daher, ohne funktionierende Grafikkarte, gibt es kein Bild.

@Luxxiator
Bei deinem Gerät handelt es sich aber um einen Laptop? Im Desktop gibt es die Umschaltmöglichkeit zwischen iGPU und dGPU meines Wissens nicht.
 
Auf Mainboards sind schon seit einigen Jahren keine Grafikchips mehr verbaut. Wenn deine Grafikkarte kaputt geht, dann bekommst du kein Bild mehr. Die CPU kann theoretisch sehr langsam auch Grafik erzeugen, kann aber nicht genutzt werden. Von daher, ohne funktionierende Grafikkarte, gibt es kein Bild.
Vielen Dank für diese klare und hilfreiche Antwort!

Würdest du daher eher zu einem 10400 greifen?
 
Aus solch einem Grund eine CPU mit iGPU zu kaufen, macht keinen Sinn, den Aufpreis holste so nicht wieder raus.
 
  • Danke
Reaktionen: Tzk
Gibts diesen Optismus Kack auch aufm Desktop ? Im Laptop ist das lange Zeit ein graus unter Linux gewesen, insbesondere wenn der Hersteller noch in so einem Geistesblitz entschieden hatte, alle externen Grafikausgänge an die dedizierte GPU zu schließen...
 
Der Verbrauchsunterschied im Idle ist so gewaltig jetzt nicht, denn auch eine dezidierte Grafikkarte benötigt im Idle nicht viel Strom - meine Radeon 6800 benötigt im Idle und bei niedriger Last 6-8 Watt. An dieses einfache schnell hin- und herschalten zwischen On-Chip und dezidierter Grafik glaube ich jetzt auch nicht, vor allem weil du ja deinen Bildschirm dann umstecken müsstest.
Daher denk ich, musst du dich entscheiden: reine On-Chip Grafik - zumindest mal eine Zeit lang nutzen, die Möglichkeit zum Aufrüsten besteht ja immer (dann brauchst aber gleich ein großes Netzteil, wenn du irgendwann aufrüsten wirst), oder gleich eine richtige Grafikkarte kaufen. Diese Hybrid-Idee mit hin- und herschalten sehe ich nicht als praktikabel an.

Die Überlegung, dass dir die Grafikkarte kapputgeht ist Blödsinn: klar kann die auch mal kaputtgehen, aber dafür jetzt eine Alternative vorhalten? Da müsste sich ja jeder normale Grafikkartenbesitzer eine zweite Karte in PC oder Schublade stecken - macht kein Mensch. Wenn kaputt, dann kaufst du in Kleinanzeigen für 20 Euro die billigste passivgekühlte Karte, die du finden kannst, steckst einmal rein um sicher sagen zu können, dass es die Graka war (oder du hast nen zweiten PC, dann gehts natürlich auch ohne die zusätzliche Karte) und kaufst dir ne neue.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Tzk
Im Laptop gibts das, dort sendet die eine GPU der anderen das fertige Bild. Klappt dort einwandfrei.
Danke fürs Aufklären - das muss auch, denn du hast am Laptop ja keine eigenen Grafikausgänge jeder GPU-Einheit, sondern nur einen oder ein Set. Ich wusste es nicht, hatte nie nen Laptop mit zwei GPUs.
 
Ich habe die iGPU in meinem Haswell schon oft als ganz nützlich empfunden. Ich habe anfangs (Ende 2013) zunächst keine Grafikkarte gekauft, weil ich eh keine Zeit zum Zocken hatte. Erst im Verlauf des Jahres 2014 habe ich mir eine gekauft (damals eine gebrauchte Gigabyte GTX 670 OC für ~170€, weniger als eine damals aktuelle, etwas langsamere GTX 760, das waren noch Zeiten). Da ich aber auch in der Folge immer wieder Monate lang keine Zeit zum Zocken hatte, habe ich oft die GTX 670 ausgebaut, nicht nur wegen des Stromverbrauchs, auch wegen der Lautsträke. Zudem hatten damals ab Ende 2014 Aufnahmen, die ich mit DVB-Viewer und Telekom Entertain am PC gemacht habe, mit der GTX 670 (und heute mit der RTX 2070) starke Bildfehler, mit der iGPU nicht, erst spätere Aufnahmen waren irgendwann wieder problemlos.

Nun mit der RTX 2070, die im idle die Lüfter abschaltet, und da ich dank Corona wieder häufiger Zeit zum Zocken habe, lass ich die Karte drin. Aber ich hatte z.B. kurz vor Ampere-Release überlegt, die RTX 2070 mit geringem Verlust wieder zu verkaufen und eine 3070 zu kaufen (zum Glück war ich zu faul) und hätte in so einem Fall, oder wenn die Grafikkarte mal einen Schaden hat, wenigstens die iGPU.

Es ist ja auch bei den F-CPUs von Intel nicht so, dass die iGPU fehlt, sie ist nur abgeschaltet und wahrscheinlich eher selten defekt. Der Preisvorteil ist auch je nach CPU-Modell sehr unterschiedlich, meist knapp 20€, selten 30€, aber beim 10900X gleich 50€. Trotzdem wäre es mir immer dieses Rettungsboot wert.
 
Ich danke euch allen für eure Meinungen und euer Wissen!
Die Entscheidung ist zwar noch nicht gefallen, aber ich bin auf jeden Fall schlauer als vorher :)


🙏
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh