Intel zieht Launch von 'Coffee Lake' mit sechs Kernen vor

ich würde gröllen wen jetzt nach nem guten ryzen start intel die monster zum klein preis ause schublade holt um amd "komplett zu versenken"

nich weil intel oder amd das verdient hätten, sondern weil alle ryzen gehypet haben ohne ende :d


i know not gonig to happen wir kennen intel
Schadenfreude ist die schönste Freude.

Gesendet von meinem SM-G935F mit Tapatalk
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
vorallem würde ich mich auf das gezanke in den foren freun xD
 
Fakt ist wohl, irgendwo profitieren wir alle von dem was da gerade bez. CPUs passiert und wie Intel reagiert wissen wir schon sehr bald, wenn SL-X kommt. Einfach den Preis von Intels 8 Kerner anschauen und schon weiß man Bescheid.
 
spätestens zum Weihnachtsgeschäfft kommt ein i3 der den 1700x in Games abziehen wird, und das unter 100€ dann lach ich mich schlapp!
Bis dahin kannst dich ja darüber schlapp lachen, dass ein übertakteter i3-7350k in manchen Spielen Intels 1000 Euro CPUs abzieht.
Und vielleicht bist bis dahin dann auch erwachsen geworden, drück dir die Daumen...
 
Poddy
Richtig klasse Antwort.
Wenn man noch hinzugefügt, dass auch hier und da der 10 Core für 1700€ abgezogen wird, könnte das mit dem erwachsen werden....
Ne, wird wohl eher nichts.
 
Richtig, mit einem i3 kommt man in Spielen richtig weit. Sensationell.
 
@Hardwarekenner

Mit einem i3 kommt man super weit, gerade für reine Spiele PCs sehr empfehlenswert :rofl:

@Poddy

Viel Spaß, dann rendere mal ein 15GB Video mit einem i3:lol:
 
Zuletzt bearbeitet:
@SkizZlz
Versteh nicht ganz was mein Post mit Video-Rendering zu tun hat.
 
Bis dahin kannst dich ja darüber schlapp lachen, dass ein übertakteter i3-7350k in manchen Spielen Intels 1000 Euro CPUs abzieht.
Und vielleicht bist bis dahin dann auch erwachsen geworden, drück dir die Daumen...

Ach nicht? Liest du deine eigenen Posts nicht? :d
 
Keine Ahnung ob ich auf dem Schlauch stehe...
Dass zum rendern von Videos mehr Kerne gut sind, ist mir schon klar. :hmm:
 
Zuletzt bearbeitet:
ein übertakteter i3-7350k in manchen Spielen Intels 1000 Euro CPUs abzieht.

Eine 1000€ CPU ist i.d.R auch nicht unbedingt fürs Spielen gedacht, das meine ich damit.

Wer eine reine Spieleleistung haben will, der kauft was für den "Mainstream Sockel" 1151 (und da sicherlich keinen i3 in Kombination mit einer 500 bis 800€ Graka :fresse:)
 
Zuletzt bearbeitet:
ein übertakteter i3-7350k in manchen Spielen Intels 1000 Euro CPUs abzieht.

Eine 1000€ CPU ist i.d.R auch nicht unbedingt fürs Spielen gedacht, das meine ich damit.

Wer eine reine Spieleleistung haben will, der kauft was für den "Mainstream Sockel" 1151 (und da sicherlich keinen i3 in Kombination mit einer 500 bis 800€ Graka :fresse:)

Jeder hat halt andere Ansprüche. Es gibt auch noch einige, welche mit einem C2Q@OC zocken. Aber gut, so oder so ist Sockel 1151 nicht der Maßstab in Sachen maximaler Gamingperfomance in aktuellen Spielen. In älteren eher taktabhängigen Titeln sieht das natürlich anders aus. Aber eine 1000€ CPU ist nun mal nicht für Software von gestern...
 
@SkizZlz
Du verstehst mein Kommentar als Reaktion auf Hardwarekenner glaub falsch.
Nichts von dem was du klarstellst habe ich behauptet.
 
:lol:ich sollt vl. mal von der mobilen Ansicht zur Desktop Variante wechseln xD
Ich hab jz die beiden Posts verwechselt, nichts für ungut:shot:

Ich meinte eigentlich ja auch den Hardwarekenner:fresse:
 
ich denke es ging poddy ja mit seiner Aussage auch nicht darum das ein 6900K schlechter wäre als ein 7350K, sondern einzig darum das bestimmte Forenteilnehmer halt wieder mal mit hahnebüchenen Argumenten auf Ryzen rumreiten. Denn ebenso wie der 1000 Euro Intel 8 Kerner im Multithreading mit dem i3 den Boden aufwischt, macht das auch der 400 Euro 1700X und beide ziehen im Gaming trotzdem in bestimmten Fällen den kürzeren gegen den 7350K. Abgelästert wird aber nur über Ryzen.

poddy hat die aussage halt mit etwas sarksmus gewürzt ;)

edit: upssa da kam die erkenntnis schon vor meiner antwort :d sorry
 
Zuletzt bearbeitet:
@SkizZlz
Dann is ja alles klaro. :)

@ilovebytes
Jup, so schauts aus.
 
Zuletzt bearbeitet:
Genau das mein ich eben nicht, wenn man rendert, dann will man i.d.r das Video verkleinern.
Weiß ich ja, aber 15GB Video ist halt ziemlich nichts sagend ohne Codec ;)

Ist zwar OT, aber findet man leider viel selten Diskussionen drüber:
Schon mal HEVC mit StaxRip (NVENC) ausprobiert? Wollte selber am Wochenende etwas damit herumspielen und vielleicht hast du ja ein paar Erfahrungswerte
 
Raw video zu bearbeiten ist nicht einfach
Zuerst braucht man ein Programm das dies kann.
Sofern ich das weiß macht das adobe CC oder Sony Profi software (lightrooms)
Aber jedes noch so normale cosumer software basiert auf mpeg2
Und es wird auch in diesen codec konventiert wenn man es bearbeitet.

Das hat seine qualitativen grenzen zum Glück geht man mittlerweile weg von mpeg sd format in mpeg4 HD über
cyberlink, tmpenc usw
Das erhöht die qualität enorm
leider ist es so das immer noch die standalone player im heimgebrauch zu schwache cpu haben um wirklich effektives gepacktes h264 encoden zu können. Was die bitrate unnötig hoch hält.
In hevc ist das noch schlimmer, da macht es kein unterschied ob 20 000kbit/s h264 oder h265 ist
Die größe ist gleich.bei derselben Auflösung
Das wird sich bald ändern mit gpu Anteile in den arm cpu.
aber das dauert erst wieder mal knapp 5 Jahre bis man endlich native HEVC basierende bluray authoring software bekommt.

Zum Punkt zu kommen das der ci3 7350k mit 4,8ghz zu langsam ist für ein video von raw zu h264 zu wandeln
Hängt von der länge des vdeos ab
15gb fraps raw video sind gerade mal 15min
Das konventieren wird in echtzeit laufen
also 15min
aber wenn das video nur 15gb mit 3min ist dann auch 3min dauern.
das liegt am Zeitcode des videos und wie viel der codec davon komprimieren kann
man beachte das sämtliche videocodecs lossy sind.
Ein Verlustloser codec im Video Bereich existiert nicht
Es gibt mjpeg was quasi einfach Bilder sind. aber im Grunde kein Videoformat ist
Was gewisse Nachteile hat.
Das beste was man erreichen kann mit h264 oder h265 ist den codec auf crf werte zu setzen scala von 0 uncomprimiert zu aktuell ist 50
Beste option bevor man sieht das lossy ist crf 20 h264 bei h265 22
profi gehen nur bis crf 16 bzw crf 20
Im allgemeinen muss man Videoauflösung relativ zur Bildschirmgröße gehen
je größer der Bildschirm bsp 32 zu 50 zoll mit derselben Auflösung desto eher sieht man codec Artefakte bei zu niedriger kbit/s
allgemein sollte man Videos in standard pixelabstand kbit/s auswählen Für FHD in h264 muss min 6500 Sein in HD 4500
In hevc die Hälfte. heimbluray player brauchen schon das doppelte an kbit/s um keine Artefakte sichtbar sind.
Ungeachtet der bildschirm größe
nun die Bildschirm größe relativ zur Auflösung was ein mensch noch als rund ansieht ist der Standard 0,28mm
den pixelabstand sieht ein gesunder Mensch nur dann wenn licht da durchscheint.oder wenn man jung ist und gesunde Augen hat.
Displays sind bei high end panels schon bei 0,125mm
Das entspricht 4k auf 27 zoll
Die Differenz sieht kein Mensch in 1440p also 2/3 von 4k würde man die beiden Auflösung nicht unterscheiden können. Bei derselben panel Größe also 32zoll
das wäre 1440p 0,3mm vs 4k 0,2mm wer das erkennen kann hat Adleraugen
im übrigen Windows hat 92ppi das sind dann 0,7mm je pixel
Heißt das windows und jedes Programm das auf windows pixel Abstand basiert doppelt so groß ist als die Auflösung an detail hat.
weil aber jedes grafikprogramm auf Windows api 92ppi basiert ist jede grafik doppelt so groß als wenn reale 184ppi mit dem display übereinstimmen würde
Somit erklärt sich auch alaising in games in 1080p real mit 0,3mm Abstand (24zoll) würde man die Stufenbildung nicht sehen aber windows stellt den pixel als 0,7mm dar.
Ob videos die aufgenommen wurden und die linse die 0,3mm pixelabstand (24zoll) relativ zu größe der linse hat ist fraglich weil linsen bei Kameras unterschiedlich sind diese werden in megapixel angegeben
2MP sollen 1080p sein. allerdings weiß keiner welche pixeldichte die linse hat. Diese müsste schon fast in nm Bereich liegen und daran glaube ich nicht.

Sind wir wieder gewandert...... ja

Und nebenbei ein ci7 7700k wäre doppelt so schnell bei gleiche Takt in konvertieren eines Videos
 
Zuletzt bearbeitet:
ist ja meine meinung, wer spielen will kommt mit dem i3 klar, wer arbeiten will braucht i7, und der i5 ist fürn ar...... in der Intel welt.
...
Aha ... eigenartige Meinung. Pauschal kann man das doch gar nicht sagen, kommt immer ganz auf die gespielten Spiele, die Auflösung, die Grafikkarte und das persönliche Empfinden an. Es wird doch niemand eine Titan X(p) mit einem 4K Monitor einen i3 dazu nutzen, auch bestimmt auch niemand einen i7 6950X mit einer GeForce GT710 um damit rein zu zocken. Genau so gibt es Spieler die fast ausschließlich so casual MMORPG oder diverse Free2Play etc. Games spielen. Da ist ein i3 nicht schlecht, aber je nach Spiel auch ein i5 vielleicht nicht verkehrt. Bei anderen Sachen wie vielleich BF1 oder Ghost Recon Wildlands wird man mit einem i3 vielleicht nicht glücklich. Dann genügem den einen wieder "flüssige" Frameraten >30FPS, ein anderer will wieder >100FPS bzw. so viel wie möglich etc.

Richtig, mit einem i3 kommt man in Spielen richtig weit. Sensationell.
Zumindest bis zum Endgegner, haha :fresse:

@angelsdecay
Aua ...
Lightroom ist von Adobe und nicht von Sony (da meinst Du wohl Vegas). Und Adobe CC ist lediglich eine Softwaresuite/-paket Bezeichnung - da gibt es viele verschiedene Programme.
Standalone Player encoden sicher kein Video, du meinst decoden.
Und ab dem 2. Absatz habe ich gar nicht mehr weitergelesen.

Fakt ist auf jeden Fall daß bei Nutzung von Videobearbeitungssoftware (je nach Anwendung) eine CPU mit mehr Kernen natürlich einen Vorteil ggü. einer mit wenigen bringt.
 
Zuletzt bearbeitet:
First World Problems... habt ihr alle nichts besseres zu tun als im Forum einen Glaubenskrieg durchzuführen?

Meine primären Anwendungen/Simulation sind z.B. extrem IPC lastig, ich benötige also eine möglichst hohe Single Core Leistung, welche mir ein i3 7350k aktuell für wenig Geld bieten kann. Ein 7700k würde mir quasi keinen Mehrwert bringen, außer hundert Euro weniger in der Portokasse.

Jede CPU hat seine Daseinsberechtigung, man kann nicht sagen dass es "das" Gaming-Genre gibt. Warum das hier immer gleich Ausarten muss ist mir wirklich ein Rätsel.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh