Intel sieht sich gegenüber Apples M1 klar im Vorteil

Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke Nvidia Now ist ein Griff ins Klo, ich würde es nicht mal geschenkt nehmen.

Ich muss da alles neu kaufen und wenn dann die Server abgeschaltet werden hat man halt Pech gehabt und der Input lag ist doch größer als man erwartet, zumindest für mich.
Soweit mir bekannt ist das Quatsch. du verwechselst Nvidia mit Stadia
 
Selbst machen. Selbst die Kohle einstreichen.

Mfg
Bisher hat keiner von denen einen eigenen Streamingservice im Angebot und es ist doch auch nichts angekündigt.
[
Ja , nur das Resultat bleibt das selbe ^^
Naja ich finde es ist schon ein Unterschied. Bei Stadia musst du jedes Spiel immer neu kaufen also macht es nur als Ersatz für den Rechner Sinn. Now ist eher eine Erweiterung zu deinem bestehendem setup. Nix doppelt kaufen. Für mich ein großer Unterschied. Bekomme ja jetzt eh ein Jahr umsonst und werde es mal testen.
 
Zuletzt bearbeitet:
Viele haben ihre AGB angepasst... Das sie die Nutzung so nicht erlauben. Wurde doch in der Presse alles breit getreten... Da kam einfach zu wenig... Zumindest ne eigene Plattform haben sie alle. Wenn die nicht läuft... Wirds schon nix.

Mfg
 
Was sollen denn diese ein Wort Zitate?
Den gesamten Rest verstehe ich nicht.
Was willst du damit sagen?
 
Zuletzt bearbeitet:
Zweifel sind immer angebracht.
Sooo vieles kommt erst später ans Licht...
Da nicht blauäugig sein. Erfahrung aufbauen!

Mfg
Beitrag automatisch zusammengeführt:


Falschen Geräte gehabt oder gar keine?🤔

Mfg

Da ich Tigerlake sowie auch M1 Geräte habe kann ich aus eigen Erfahrung sagen das Intel hier Unwahrheiten bzw. extrem geschönte Angaben publiziert. Tigerlake hat zwar bei IPC gut was gebracht, und kommt in manchen Bereichen wirklich an den M1 ran (ist aber nie schneller) aber die Intel CPUs haben teilweise ein Vielfaches an Leistungsaufnahme und werden auch sehr heiß und die Geräte laut. Von der Akkulaufzeit fangen wir gar nicht erst an... da dreht ein MacBook Pro M1 Kreise um Intel Notebooks (Arbeitsalltag)
Beitrag automatisch zusammengeführt:

Ist auch wieder falsch. Es würden alle gehen nur die Publisher entziehen Nvidia die Rechte dazu. Was auch immer deren Motivation dahinter ist.
Die Intension ist ggf. nicht die Beste, aber das CloudGaming so das Leben schwer gemacht wird finde ich super... in der Hoffnung das sich dieses nie durchsetzt...
 
Weil komplett Zitate nicht erlaubt sind.
Und so doch klar sein sollte das ich auf deins antworte. So schwer nachzuvollziehen?

Na das sie keine streaming Plattform brauchen. Sie erlauben einfach durch ihre AGB die Nutzung auf solchen Plattformen nicht.

Mfg
 
Ja schon lustig, wie sich Intel jetzt mit Apple prügelt..

aber pfff

M1 Chip hin oder her - alles nur Geld, dem Kunden natürlich erzählen "das das gut ist" - was bleibt einem auch anderes übrig, gleiche lief vor Jahren ab als Apple von IBM auf Intel gewechselt ist.
Zigtausendf Argumente für und gegen - aber am Ende alle eigentlich egal, dienten nämlich nur der Rechtfertigung Apple's einen billigeren Chip einzubauen ohne vom Gewinn auch nur einen Cent dem Kunden weiterzugeben.

Selbst wenn der M1 Chip einem kleinen i7 Notebookchip ebenbürtig ist, oder geringfügig langsamer oder doch tik schneller... alles "messfehler" - das bisschen merkt/interessiert keinen.
Wir reden hier von 15 Watt CPU's oder auch 25... wenn das alles ist was Apple jetzt hat, siehts düster aus für das alte Apple Motto und Workstation Niveau. " Der Rechner für Creative " - lol

Schon als Apple von IBM zu Intel ging, waren es schlagartig keine Grafikdesigner/Hollywood CGI Rendermaschinen/Audio-bearbeitungs Workstations mehr - Und jetzt sitzen sie auf einem Niveau eines besseren Handys ? - naja, trifft ja auch mittlerweile den angepeilten Käuferkreis eines Apple Nutzers - Ahnungslos/zum surfen und Filme gucken reichts/Mails abrufen - aber wehe man will wie zu alten Apple IBM Zeiten mal CGI für ein 5 min Video mit Sound schnippseln & editen - die hatten mal IBM Power Architektur, mit denen konnte man Sachen machen, wovon ein Dual Xeon nur träumte..und dann namen sie Xeons... wo man sich fragte "warum überhaupt noch Apple? - dann kann ich mir auch ein besseren Dual Xeon selbst bauen" ... und jetzt..jetzt ham sie nichtmal ne CPU mit mehr als 25 Watt ??

wow - was für ein Leistungs Verlust in 20 Jahren, von Ferrari Nivau auf Audi und jetzt zu Opel Corsa Ramsch - von der Spitze zum Handy mit großem Bildschirm :)

Naja, blah, was erwartet man, Steve ist schon lange weg, Vorstand besteht aus Aktientreuen Gewinnorientierten - und schon damals, als Apple verlangte das man das 64 Bit IBM System auf Intels 16+16+32 umschreiben sollte, verließen führende Ingenieure die schon seit Anfang an bei Apple waren das Schiff - frei nach dem Motto "thats not what i signed up for"

Apple, die Nische, das andere, das bessere.
Apple Werbung "its a Mähc - Not a PC" oder "Apple, does more, costs less"

jetzt sind sie weder n PC, machen weder mehr und kosten auch ganz bestimmt nicht weniger - jetzt sind sie n x86er auf einem 15 Watt ARM chip, dessen einziger Vorteil die lange Akkulaufzeit ist - Kein wunder bei einem Chip der nix kann und Abstriche machen muss - als wenn Apple schlagartig auf Intel oder AMD Niveau landen könnte, dazu fehlen dann doch noch 2000 Dipl. ings und 10 Jahre erfahrung im Chip-bau.

Ich mein ich lass mich eines besseren belehren, evt baut Apple ja in 10 Jahren ausversehn doch 90% aller neuen Server, weil der neue Chip ja soo revolutionär ist... aber irgendwie klingt die Aussage doch etwas weit von den Sternen geholt :)
 
Ich hab keine Ahnung was ein M1 von Apple ist und bin auch null in Laptops drin, auch egal ist wie sinnlos die Folien sind:

Aber die Folie find ich schon recht geil :fresse:

1612766517294.png



Also ich jz, wie gesagt, einer der keine Ahnung hat, würde mich von den Folien schon stark beeinflussen lassen, KEINEN M1 zu kaufen. Laut den Folien läuft ja anscheinend kaum was auf dem M1.
 
Ein größeres Lob kann Apple doch gar nicht bekommen.

Der biggest Player sieht sich gezwungen irgendwelche Vergleiche zu ziehen.

Intel lernt es nicht mehr. Zumindest in DE, kenne ich persönlich niemanden, der diese Art von Marketing gut heißt.
Es scheint Länder zu geben, in welchen Intel damit gut fährt.
Sonst hätten Sie dieses "Geblubber" schon eingestellt.

Ist ja nicht der erste Vergleich der gründlich in die Hose geht.

vs. AMD gibts da einige, zum Teil lachhafte Vergleiche, die Fremdscham auslösen.

AMD wird darüber jetzt lachen, .. so ist man aus der Schusslinie und wäre man in den Diagrammen mit einbezogen, sogar der längste Balken.
 
Es wurde hauptsächlich gesagt, dass statt der versprochenen 15-18 h Betrieb nur mehr 10 h Betrieb ankommen.
Es wurden 15h bei Nutzung der Apple TV App versprochen, wenn Intel zum Testen aber Safari + Netflix einsetzt, ist das kein vergleichbares Szenario mehr.
 
Intel hat Angst und das zu Recht (und vollkommen verdient).
 
Es wurden 15h bei Nutzung der Apple TV App versprochen, wenn Intel zum Testen aber Safari + Netflix einsetzt, ist das kein vergleichbares Szenario mehr.

Auf der Folie ging es um den Vergleich mit dem "gleichwertigen" Intel-Gerät. Und somit auch die Schlussfolgerung, dass es keinen Unterschied in den Laufzeiten gibt. Anders als von Apple proklamiert.
 
Auf der Folie ging es um den Vergleich mit dem "gleichwertigen" Intel-Gerät.
Wenn das "gleichwertige" Intelgerät die ARM-Apple-TV-App nicht unterstützt, dann müsste das Ergebnis lauten "failed to run".

Bei den Spielen , die aufm dem M1 nicht laufen, hat das Intel ja auch so gemacht.
 
Jopp. Das kommt dann vielleicht in der nächsten Runde, wenn Apple ihre eigenen geschönten Präsentationen rumschickt. ^^
 
Vertriebsplattform war gemeint.
Wenn die nicht unterstützt wird... Da einem was aufgedrückt wird... Klar das die da dicht machen.

Mfg
Ich versteh dich immer noch nicht...

Die Vertriebsplattform ist doch weiterhin die selbe wie sonst?
Nvidia geht doch eben nicht den Weg wie Stadia sondern unterstützt die ganzen anderen Shop wie Steam usw.
Du kaufst also das Spiel ganz normal über Steam und spielst es über Geforce Now.
Dem Publisher entgeht damit nichts denn er verkauft genauso viele Spiele wie vorher über die auch sonst üblichen Vertriebskanäle.
Da wird niemandem etwas aufgedrückt.

Also warum ist es für dich "klar dass die dich machen"?
 
Ich hab keine Ahnung was ein M1 von Apple ist und bin auch null in Laptops drin, auch egal ist wie sinnlos die Folien sind:

Aber die Folie find ich schon recht geil :fresse:

Anhang anzeigen 587541


Also ich jz, wie gesagt, einer der keine Ahnung hat, würde mich von den Folien schon stark beeinflussen lassen, KEINEN M1 zu kaufen. Laut den Folien läuft ja anscheinend kaum was auf dem M1.

Naja auf dem Macbook läuft halt kein Microsoft Xbox store um spiele wie GEARS Tactics zu spielen. Geschweige denn Windows an sich. Daher ist die Folie sehr sehr nichtssagenden. Ausser das der M1 im MacBook es doch schafft in vielen Spielen trotz x86 Emulation dran zu bleiben.
 
Worüber hast du denn geschrieben? Ging ja eben um Geforce Now.
 
Ja schon lustig, wie sich Intel jetzt mit Apple prügelt..

aber pfff

M1 Chip hin oder her - alles nur Geld, dem Kunden natürlich erzählen "das das gut ist" - was bleibt einem auch anderes übrig, gleiche lief vor Jahren ab als Apple von IBM auf Intel gewechselt ist.
Zigtausendf Argumente für und gegen - aber am Ende alle eigentlich egal, dienten nämlich nur der Rechtfertigung Apple's einen billigeren Chip einzubauen ohne vom Gewinn auch nur einen Cent dem Kunden weiterzugeben.

Selbst wenn der M1 Chip einem kleinen i7 Notebookchip ebenbürtig ist, oder geringfügig langsamer oder doch tik schneller... alles "messfehler" - das bisschen merkt/interessiert keinen.
Wir reden hier von 15 Watt CPU's oder auch 25... wenn das alles ist was Apple jetzt hat, siehts düster aus für das alte Apple Motto und Workstation Niveau. " Der Rechner für Creative " - lol

Schon als Apple von IBM zu Intel ging, waren es schlagartig keine Grafikdesigner/Hollywood CGI Rendermaschinen/Audio-bearbeitungs Workstations mehr - Und jetzt sitzen sie auf einem Niveau eines besseren Handys ? - naja, trifft ja auch mittlerweile den angepeilten Käuferkreis eines Apple Nutzers - Ahnungslos/zum surfen und Filme gucken reichts/Mails abrufen - aber wehe man will wie zu alten Apple IBM Zeiten mal CGI für ein 5 min Video mit Sound schnippseln & editen - die hatten mal IBM Power Architektur, mit denen konnte man Sachen machen, wovon ein Dual Xeon nur träumte..und dann namen sie Xeons... wo man sich fragte "warum überhaupt noch Apple? - dann kann ich mir auch ein besseren Dual Xeon selbst bauen" ... und jetzt..jetzt ham sie nichtmal ne CPU mit mehr als 25 Watt ??

wow - was für ein Leistungs Verlust in 20 Jahren, von Ferrari Nivau auf Audi und jetzt zu Opel Corsa Ramsch - von der Spitze zum Handy mit großem Bildschirm :)

Naja, blah, was erwartet man, Steve ist schon lange weg, Vorstand besteht aus Aktientreuen Gewinnorientierten - und schon damals, als Apple verlangte das man das 64 Bit IBM System auf Intels 16+16+32 umschreiben sollte, verließen führende Ingenieure die schon seit Anfang an bei Apple waren das Schiff - frei nach dem Motto "thats not what i signed up for"

Apple, die Nische, das andere, das bessere.
Apple Werbung "its a Mähc - Not a PC" oder "Apple, does more, costs less"

jetzt sind sie weder n PC, machen weder mehr und kosten auch ganz bestimmt nicht weniger - jetzt sind sie n x86er auf einem 15 Watt ARM chip, dessen einziger Vorteil die lange Akkulaufzeit ist - Kein wunder bei einem Chip der nix kann und Abstriche machen muss - als wenn Apple schlagartig auf Intel oder AMD Niveau landen könnte, dazu fehlen dann doch noch 2000 Dipl. ings und 10 Jahre erfahrung im Chip-bau.

Ich mein ich lass mich eines besseren belehren, evt baut Apple ja in 10 Jahren ausversehn doch 90% aller neuen Server, weil der neue Chip ja soo revolutionär ist... aber irgendwie klingt die Aussage doch etwas weit von den Sternen geholt :)

Ich kann nur bemerken das du offensichtlich noch nicht an einem Gerät mit M1 gesessen hast. Ich selber nutze Primär nur Geräte mit Intel/AMD CPUs (brauche Windows), kann dir aber versichern das der M1 eine ganz andere Liga ist als die Intel/AMD Prozessoren. Wenn ich da, selbst "emulierte" Apps wie LightRoom, Photoshop usw. nutze ist das schon wahnsinn, Nativ sieht dann keiner mehr Land. (Affinity Photo, FinalCut, Logic etc.) Da macht der M1 ohne Probleme eine 45/60W CPU platt. Derzeit ist, Leistungstechnisch gesehen, vor allem wenn man den Verbauch mit einberechnet, der M1 die Referenz.
 
@Holzmann
Kein Mensch kauft sich ein Gerät mit M1 mit Gaming als primären Einsatz. Der Vergleich bezieht sich ja nur auf die reine CPU Leistung. Das die integrierte Grafik von Apple ebenfalls mit Intel den Boden wischt, ist kein Geheimnis. Mit dedizierten Grafikkarten sind ganz andere Systeme im Einsatz welche man auch nicht zu einem Vergleich heranziehen kann. (Apple weiß schon warum die externe Grafikkarten auf den Geräten mit M1 nicht zugelassen werden... kann zwar auch technisch bedingt sein, aber wenn das gehen würde, würde man, abgesehen von der 16GB RAM Grenze, jeden MacBook Pro 15/16 seine Daseinsberechtigung nehmen.)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh