Intel erwägt Integration von Adaptive Sync bzw. FreeSync

diese ganze "an dem hersteller binden beim monitorkauf" argument langweilt doch. die leute kaufen sich jedes jahr neue gpus im wert von 500-700€ das stück, bei multi gpu relativ teuer und dann soll man den monitor nicht wechseln können, wenn man das lager wechseln will? monitor kauf 750€, monitorverkauf 550€, 200€ verlust. kein drama, wenn man sich jedes jahr gpus im wert von ca 600€ in den rechner stecken kann.

keiner wird gezwungen, sich für eine seite zu entscheiden. wer adaptive sync will, muss sich faktisch entweder für amd oder nv entscheiden, aber zum kauf an einen herstellergebunden monitor wird niemand gezwungen. da könnt ihr rumheulen bis ihr schwarz werdet. alles total gemein von nv, bla bla bla, aber jedes jahr 600€ für eine dumme gpu ausgeben.


manche kommen einem vor wie kleine kinder, die mama mit "warum" fragen löchern.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
diese ganze "an dem hersteller binden beim monitorkauf" argument langweilt doch. die leute kaufen sich jedes jahr neue gpus im wert von 500-700€ das stück, bei multi gpu relativ teuer und dann soll man den monitor nicht wechseln können, wenn man das lager wechseln will? monitor kauf 750€, monitorverkauf 550€, 200€ verlust. kein drama, wenn man sich jedes jahr gpus im wert von ca 600€ in den rechner stecken kann.

keiner wird gezwungen, sich für eine seite zu entscheiden.

nicht alle haben, wie du, einen goldesel zuhause stehen.
wenn jemand sich für einen monitor entscheidet behält der diesen deutlich länger als 1-2 jahre wenn dieser dann freesync kann ist AMD immer die erste option dann erst NV

ich habe mich aus kostengründen für freesync entschieden und ich werde ganz sichher keine gpu für 600 kaufen und schon garnicht jedes jahr
wie wärs mal mit über deinen tellerrand zu schauen?
aber man merkt in deinen posts dass du das nicht kannst

wie auch immer egal wie grün oder rot man ist der markt wird es richten
 
Zuletzt bearbeitet:
AMD sollte es schaffen anfang 2016 bei den GPUs auf FinFET zu wechseln, bei NVIDIA wird es mit FinFET vor ende 2016 nichts werden.
also da gibt es schon noch eine chance marktanteile zu gewinnen!

Da scheint mir aber auch sehr viel Theorie und Hoffnung mitzuschwingen. Sicherlich wird AMD in Zukunft wieder Marktanteile zurückgewinnen können, nur bleibt die Frage ob das auch wie jetzt bei NVIDIA, für eine Marktführerschaft reichen wird, um dann endlich auch mal am längeren Hebel zu sitzen, sonst bleiben ein paar Prozente mehr oder weniger doch relativ unbedeutend. Bleiben wir realistisch, lassen die letzten 10 Jahre eine solche Prognose nicht zu, denn da lag NVIDIA immer mit mindestens einen 2/3 Marktanteil vor AMD/ATi. Es müsste sich schon eine gewaltige Veränderung zugunsten AMDs abzeichnen, die ich aber, so sehr ich es AMD auch wünschen würde, bisher so absolut nicht kommen sehe.
 
diese ganze "an dem hersteller binden beim monitorkauf" argument langweilt doch. die leute kaufen sich jedes jahr neue gpus im wert von 500-700€ das stück, bei multi gpu relativ teuer und dann soll man den monitor nicht wechseln können, wenn man das lager wechseln will? monitor kauf 750€, monitorverkauf 550€, 200€ verlust. kein drama, wenn man sich jedes jahr gpus im wert von ca 600€ in den rechner stecken kann.

keiner wird gezwungen, sich für eine seite zu entscheiden. wer adaptive sync will, muss sich faktisch entweder für amd oder nv entscheiden, aber zum kauf an einen herstellergebunden monitor wird niemand gezwungen. da könnt ihr rumheulen bis ihr schwarz werdet. alles total gemein von nv, bla bla bla, aber jedes jahr 600€ für eine dumme gpu ausgeben.


klar, ich wechsel mit jeder graka auch den monitor und nehm dabei 200€ verlust in kauf.
aber stimmt, ich kauf mir ja auch jedes jahr ein neues mulit-gpu system für 1500€. da macht das nichts aus.
du hast doch einen an der waffel.
 
Naja, solange sich die iGPU-Leistung nicht der Leistung von dGPUs angleicht, wird sich geschätzt die Bedeutung kaum abschwächen.
iGPUs werden mit HBM in 14nm einen enormen Leistungsschub hinlegen. Keine Sorge, da wird sich in Zukunft schon noch einiges tun. Ausserdem sollte man bedenken, Adaptive Sync ist nicht nur bei Desktops sinnvoll, sondern vor allem auch bei Notebooks. Da verliert Nvidia immer mehr.
 
die ca. 12 monate vorsprung von SamSemi/GF gegenüber TSMC sind keine theorie...

Mag sein, aber doch sehr Pauschal formuliert. Ich prophezeie einfach mal, dass der Fertigungsprozess mit den die nächste Generation an GPUs von AMD und NVIDIA gefertigt werden wird, sich nicht markant voneinander unterscheiden wird. Es stimmt zwar, dass TSMC momentan bei FinFETs noch etwas im Rückstand ist, weil man Ressourcen für den 20nm Prozess aufwenden musste (Stichwort: Apple), während Samsung bereits einen 14nm FinFET-Prozess vom Band laufen hat, aber bis nächstes Jahr die neue Generation an GPUs kommt, werden beide einen sehr ähnlichen 14/16nm FinFET-Prozess dafür verwenden - das deuten zumindest Roadmaps an. Vielleicht könnte AMD einige Monate (12 halte ich für eher unwahrscheinlich) vor NVIDIA mit den neuen Karten am Markt sein, sofern man den Exclusivpartnerstatus bei HBM ausspielt. Beide Next-Gen GPUs hatten auch erst vor kurzen ihr Tape-Out, was eine zeitnahe Marktpräsenz beider GPUs ebenfalls wahrscheinlich macht. Für AMD wäre es natürlich wünschenswert und auch sehr wichtig früher am Start zu sein, denn wie bisher auch immer spekuliert wird, die neuen Karten deutlich an 3D-Leistung und Effizienz zulegen werden, könnte man damit auch wieder Marktanteile zurückgewinnen.

- - - Updated - - -

iGPUs werden mit HBM in 14nm einen enormen Leistungsschub hinlegen. Keine Sorge, da wird sich in Zukunft schon noch einiges tun. Ausserdem sollte man bedenken, Adaptive Sync ist nicht nur bei Desktops sinnvoll, sondern vor allem auch bei Notebooks. Da verliert Nvidia immer mehr.

Das werden dGPUs mit HBM in 14nm aber auch tun. Insofern dürfte vorerst alles beim alten bleiben, schließlich dürfen iGPUs die Low-End dGPUs nicht kanibalisieren... ;)
 
Ich prophezeie einfach mal, dass der Fertigungsprozess mit den die nächste Generation an GPUs von AMD und NVIDIA gefertigt werden wird, sich nicht markant voneinander unterscheiden wird.
aber der zeitpunkt wird sich unterscheiden!

aber bis nächstes Jahr die neue Generation an GPUs kommt, werden beide einen sehr ähnlichen 14/16nm FinFET-Prozess dafür verwenden - das deuten zumindest Roadmaps an.
danach schaut es zumindest aktuell aber nicht aus!
nach aktuellem stand wären 14nm GPUs bei AMD für anfang 2016 zumindest möglich, mit 16FF+ wird es da eher ende 2016 werden oder auch erst anfang 2017.
 
danach schaut es zumindest aktuell aber nicht aus!
nach aktuellem stand wären 14nm GPUs bei AMD für anfang 2016 zumindest möglich, mit 16FF+ wird es da eher ende 2016 werden oder auch erst anfang 2017.

Steht es denn nun unumstößlich fest wo AMD und NVIDIA fertigen lassen werden? Auch ich kenne die Berichte und sehe die Tendenz, dass Samsung/GloF einen reifen Prozess etwas früher am Start haben könnte als TSMC. Allerdings ist meine Vermutung trotzdem diese, dass der Release zeitlich nicht weit auseinander liegen wird, vielleicht maximal 6 Monate. Ist einfach meine persönliche Einschätzung mit der ich durchaus auch daneben liegen kann. Wir werden sehen...
 
Steht es denn nun unumstößlich fest wo AMD und NVIDIA fertigen lassen werden?
AMD udn NVIDIA haben das vor langer zeit bestätigt.
AMD nutzt den 14nm FinFET prozess von SamSemi und NVIDIA nutzt 16FF+ von TSMC.

Auch ich kenne die Berichte und sehe die Tendenz, dass Samsung/GloF einen reifen Prozess etwas früher am Start haben könnte als TSMC.
hoffentlich nicht von deutschen seiten, weil die berichten darüber mehr als mangelhaft:\
Apple hat übrigens einen großteil seiner bestellungen bei TSMC storniert, die fertigen jetzt den kommenden A9 hauptsächlich bei SamSemi.
warum wohl...
 
Zuletzt bearbeitet:
AMD udn NVIDIA haben das vor langer zeit bestätigt.
AMD nutzt den 14nm FinFET prozess von SamSemi und NVIDIA nutzt 16FF+ von TSMC.

Wirklich so fest in Stein gemeißelt? Ein Wechsel für beide Seiten also nicht mehr möglich? Nur Apple eine Diva?
 
Akzeptieren ?
Hier geht es doch nicht darum sich für gewisse Features zu entscheiden, sondern darum, das man dadurch quasi als Kunden schon genötigt wird sich für NVIDIA entscheiden zu müssen, wenn man sich einen neuen Monitor gekauft hat.

Du siehst das zu überspitzt... Du bindest dich mit jedem Kauf an diesen Hersteller. Ob das Features sind oder ob das irgendwas anderes ist. NV nutzt halt nun G-Sync mit mehr oder weniger propritärer Technik, AMD und vielleicht zukünftig auch Intel dafür FreeSync. AMD supportet seit 2014 Mantle, NV nicht. AMD hat TrueAudio, NV nicht usw. usf.
Ein Wechsel zwischen dem GPU Hersteller ist an der Stelle so oder so mit potentiellen Einschränkungen verbunden... Das Problem dabei ist einfach, wenn man die Features nicht nutzt, dann ist es einem auch "egal". Nutzt man diese allerdings? Was dann? Dann bist du Hersteller gebunden...
Und diese Masche funktioniert seit Jahren, ja sogar Jahrzenten bspw. bei Apple 1A und die Masse feiert der User feiert diese Firma dafür sogar noch.

Stell dir mal vor, NVIDIA würde sagen, DX12 braucht eh keiner und wir unterstützen das nicht. Haben es dann die User auch zu akzeptieren, das sie beim Kauf einer GTX Titan X für 1200 Euro in Zukunft nur DX11-Spiele und Programme nutzen können ? Meinst du etwa sie würden das akzeptieren ?? Aber beim Monitor-Kauf sollen sie die Starrköpfigkeit seitens NVIDIA hinnehmen...

Das ist ein äußerst ungünstiges Beispiel um deine Aussage zu untermauern... Ja stell es dir doch einfach mal vor. Was würde wohl passieren? Die User werden A) in den sauren Apfel beißen und B) spätestens beim nächsten Neukauf wird man sich zweimal überlegen, ob man dieses Risiko nochmal eingeht oder nicht. -> ergo, NV wird höchstwarscheinlich Kunden verlieren.
Kann dir doch aber als "User" völlig egal sein, was die Firma da für eine Politik fährt. Warum muss man hier permanent diese Herstellerverbundenheit an den Tag legen? Was interessiert es dich, ob der Titan X Käufer 1200€ in den Sand gefahren hat??
Im Endeffekt ist der Kunde der Jenige, der entscheidet. Nach aktueller Marktverteilung im dGPU Bereich liegt zweifelsfrei NV da vor. Warum und wieso das ist, kann nur spekuliert werden. Fakt ist allerdings, es gibt nichts an einer NV GPU, weder heute noch vor xx Jahren, was einen Käufer zwingt, für immer bei NV zu bleiben.
Mal ganz davon ab, dein Beispiel zieht immernoch, wenn du NV gegen AMD tauschst. Und G-Sync gegen FreeSync. -> Denn dann hat der Besitzer eines G-Sync Monitors das gleiche Problem wie der Besitzer eines FreeSync Monitors.

Es ist eben nicht egal was NVIDIA macht. Sie manipulieren den Markt so stark, das andere damit benachteiligt werden.

Das ist aber nunmal ein, wie soll ich es nennen, ungünstiges Nebenprodukt freier Marktwirtschaft... Jede Firma mit dem Ansporn, gewinnorientiert zu handeln, was praktisch alle die Firmen sind, über die man hier gerade spricht, wird alles dran setzen um am Ende möglichst viel von besagtem Gewinn einfahren zu können. Und wenn sich der Markt dahingehend beugen lässt, dass man ein propritäres Produkt so plaziert, dass es trotzdem gekauft wird und damit sogar noch eine Hardwarebindung entsteht, dann hat die Firma aus wirtschaftlicher Sicht eigentlich alles richtig gemacht.
Es gibt schlicht kein Gesetz oder keine Vorgabe, das so ein Produkt nicht auf den Markt gelangen darf... Das was NV da macht, ist wie bei jeder anderen Firma auch, einfach gutes Recht und somit auch so zu akzeptieren...

Man macht da immer so eine extreme Welle draus und alle tun so, als wären sie unmittelbar davon betroffen, hätten direkt einen Schaden dadurch usw. -> Pustekuchen. Ihr als Endkunde habt die Entscheidung, was ihr kauft. Wenn euch das Produkt nicht zusagt, kauft halt einfach nicht. -> finden sich genügend Leute, die das am Ende durchziehen, wird ein Hersteller definitiv auch spüren, dass er da auf dem Holzweg ist.

iGPUs werden mit HBM in 14nm einen enormen Leistungsschub hinlegen. Keine Sorge, da wird sich in Zukunft schon noch einiges tun. Ausserdem sollte man bedenken, Adaptive Sync ist nicht nur bei Desktops sinnvoll, sondern vor allem auch bei Notebooks. Da verliert Nvidia immer mehr.

Die Frage ist doch, wie viel kann die iGPU Lösung im Vergleich zur dGPU zulegen?
Ändert sich am Kräfteverhältnis nichts, dann ändert sich am Markt auch nichts... Ebenso wird es entscheidend sein, wie stark die Anforderungen der Titel in Zukunft steigen... Wenn die Einsteigerklasse stark Performance zulegt, ist es nicht ganz abwegig anzunehmen, dass die Spiele entsprechend nachziehen um die Mehrleistung in BQ oder was auch immer umzusetzen.

Zum Thema Notebook/Tablet, hier ists doch völlig wurscht, ob nun G-Sync oder FreeSync. Bei angenommen gleichem Endergebnis kann man den Monitor zu 99% nicht wechseln. Ergo wird das verbaut, was die GPU kann und gut ist.
 
Eben. Aus welchen Grund sollte es bei GPUs dann anders sein?
Du hast mich msisverstanden. ich wollte sagen, Apple hat es geplant, an zwei Orten fertigen zu lassen. Wenn man will, kann mand ie Architektur sicher so auslegen bzw. zwei angepasste Varianten entwickeln.
Wenn man dies aber nicht macht, bezweifle ich auch dass man so kurzfristig einfach umsatteln könnte. Ist das in der Vergangenheit bei signifikant großen Chips je vorgekommen?
 
Schaffe, was soll schon wieder das Zerhackstückeln von Posts?

Ich habe doch immer auf Sinnabschnitte geantwortet, dürfte für dich kein Problem sein. ;)

Ich vertrete lediglich die Meinung, dass NV auch weiterhin mit G-Sync arbeiten wird. Entgegen der Aussage wie bspw. in Post #5 zu lesen.

In dem Kommentar #5steht nichts dergleichen. "Die Monitorhersteller müssen einfach nur aufhören GSync zu verbauen, ist eh viel zu teuer und kaum verbreitet. Dann wird nVidia aber zusehen schnell auf FreeSync zu setzen". 2 Dort ist lediglich eine Annahme zu lesen, falls ie Monitorhersteller aufhören G-sync Monitore zu produzieren.
Da ist nirgends davon die Rede gegen das du argumentierst, deswegen meine Nachfrage nach dem Post.:wink:

Was ihr gutes Recht ist und was auch genau so zu akzeptieren ist. Wer damit nicht konform geht und lieber FreeSync oder whatever will, der soll halt AMD oder Intel kaufen.

Wer bestreitet, denn dass das nicht das Recht von Nvidia ist? Und wer akzeptiert es nicht? Ich sehe hier niemanden im Thread.

Darf doch jeder halten wie er will... Ob NV mit dieser Politik scheiter oder nicht? Interessiert mich primär wenig. Ich kann es mir aber mittelfristig nicht vorstellen. Einfach weil die Marktmacht ziemlich hoch ist.

Die Marktmacht ist spätestens dann vorbei wenn Intel in den Markt einsteigt. Und wenn aktuell die Marktmacht so groß ist, warum gibt es dann sogut wie gleichwertige Freesyncgeräte?
Gerade die News auf CB gelesen. 35 bis 144 Hertz Freesync Range, vs 30 bis 144 Hertz G-sync Range beim gleichen Modell, das AMD Modell wie immer 150 Euro günstiger.
Wer soll da noch G-sync kaufen? Damit bindet man sich lediglich Nvidia ans Bein, mit Adative Sync wird man später jede Grafikkarte ansprechen können.
Warum man sich dann darüber streiten muss, ob der, wie du es nennst, "TitanX Käufer das Ding nur zur Zierde im PC hat" oder "ob der Intel IGP User bei installiertem Steam damit auch spielt"

Warum man sich darüber streiten muss? Na weil du die Umfrage in Frage stellst und so tust wie wenn niemand auf der IGP etwas zockt und behauptest es liege daran, dass Notebooks vermessen werden und das nur weil mr.dude ne Aussage getroffen hat, die womöglich niemand teilt.

erschließt sich mir nicht... Frag dich einfach mal, wie hoch die Warscheinlichkeit ist, dass Jemand hunderte/tausende Euro in einen PC investiert und dann damit nicht spielt

Was sich mir nicht erschließt ist das, das jeder nen Zweit PC mit Intel IGP hat und sich darauf Steam für was weiß ich installiert.
Du willst die Tatsache die offenbar fakt ist, dass viele Menschen auf ner Intel IGP zocken, negieren, damit du die Marktmacht von Nvidia größer darstellst als sie ist.
Die bröckelt ja jetzt schon mit G-sync vs Freesync.

Mal ganz davon ab, das was du mir hier vorwirfst, habe ich nichtmal gesagt... Denn die Aussage war, dass man die Umfrage nicht zwingend auf dem PC ausführen muss, wo man auch mit spielt...

Was spielt das für ne Rolle?

Was will man also permanent mit dem Argument, dass Steam die genutze GPU anzeigt? Bei nem Gamer Notebook mit Intel + dGPU wird im 2D Betrieb wohl die Intel GPU genutzt, zum Spielen aber nicht! -> falsche Daten in der Umfrage, um mal ein Beispiel zu nennen.

Nein, dann wird trotzdem die dedizierte GPU angezeigt! Jedenfalls ist das so bei meinem APU+ Dedizierte GPU Notebook.


Atm gibts das nicht, wenn ich das richtig sehe... Ob dann nun AMD mit FreeSync auf die Nase fällt oder NV mit G-Sync scheitert ist dabei für mich völlig uninteressant.

Es gibt ein Freesync Gerät mit 42 Zoll Bildiagonale.

Deswegen gestehe ich aber dennoch jedem Hersteller den Weg zu, den sie gern gehen möchten. Mit den Konsequenzen daraus muss jeder selbst leben...

Ich denke niemand gesteht Nvidia diesen Weg nicht zu, auch wenn es käsig ist. Zeig mir bitte einen Nutzer der Nvidia das nicht zugesteht und du bekommst einen Keks.
Übrigens möchte ich gerne wissen, gegen wen du argumentierst, Zitate hast du nämlich keine geliefert.:rolleyes:
 
Zuletzt bearbeitet:
Du hast mich msisverstanden. ich wollte sagen, Apple hat es geplant, an zwei Orten fertigen zu lassen. Wenn man will, kann mand ie Architektur sicher so auslegen bzw. zwei angepasste Varianten entwickeln.
Wenn man dies aber nicht macht, bezweifle ich auch dass man so kurzfristig einfach umsatteln könnte. Ist das in der Vergangenheit bei signifikant großen Chips je vorgekommen?

Hab dich schon verstanden. Vielleicht hab ich mich mit "Wechsel" auch unglücklich ausgedrückt. In der jetzigen Phase der Entwicklung wäre ein echter Wechsel tatsächlich nicht mehr so ohne weiteres möglich. Wobei ich aber auch das nicht ausschließen möchte. Nur wer sagt denn, dass AMD oder NVIDIA nicht das gleiche für ihre kommenden GPUs genau wie Apple von Anfang an auch geplant haben und entsprechende Absprachen mit den Fertigern parat haben? Beide Unternehmen dürften die Lage weit früher erkannt haben und bereits frühzeitig in Verhandlungen mit Samsung oder TSMC getreten sein. Mir ist bisher auch keine Meldung bekannt, in der wirklich bestätigt wird, dass AMD bei Samsung/GloF und NVIDIA bei TSMC die neuen GPUs tatsächlich auch fertigen wird. Auch wenn es naheliegend erscheint und es am Ende höchstwahrscheinlich auch wirklich so kommen wird, konnte ich bisher nur indirekte Meldungen darüber lesen die das halbwegs als gesichert ansahen. Das das aber von AMD und NVIDIA bereits so bestätigt wurde ist mir jedenfalls nicht bekannt. Falls mir das entgangen sein sollte, bitte ich um eine verlässliche Quelle.
 
diese ganze "an dem hersteller binden beim monitorkauf" argument langweilt doch.

Bitte nicht gleich ein so substanzvolles Argument liefern, da bekommt man ja Angst.
Aber dass es dich subjektiv langweilt kann ich vielleicht noch glauben, immerhin hast du ja Titan X und einen sehr teuren G-sync Monitor bereits gekauft, da isses natürlich nachvollziehbar dass dich solche Argumente nicht interessieren. Den großteil der Nutzer interessiert es sehr wohl, nicht umsonst ist das in den meisten Threads Thema.
Nur weil für dich das kein Thema ist, langweilt es noch lange nicht.

die leute kaufen sich jedes jahr neue gpus im wert von 500-700€ das stück, bei multi gpu relativ teuer und dann soll man den monitor nicht wechseln können

Ich bin beispislweise so jemand. Ich stecke unverhältnismäßig viel Geld in GPU´s, TitanX, Fury X R9 390x, GTX 970, HD 5970 usw..., aber ich vermute mal, dass das nicht die Regel ist.
Zumal ich aber gerne auch über Prinzipien argumentiere. Und ich sehe nicht ein, mir ein Gerät zu kaufen, welches ich definitiv nicht tauschen werde ( wie GPU´s ) mit einem Grafikkartenhersteller nicht verwenden zu können.
Das ist wirklich albern. Deswegen zählt das Argument "an den Hersteller binden" einiges.

Soll ja Leute geben, die für andere Dinge mehr GEld ausgeben und einen Monitor kaufen wollen, der sowohl mit Nvidia als auch AMD funktioniert, was zu 100% so kommen wird, spätestens wenn Intel in den Markt einsteigt.

wenn man das lager wechseln will? monitor kauf 750€, monitorverkauf 550€, 200€ verlust.

200 Euro sinnlos vergeudet, die man später wenn Nvidia das sowieso unterstützt sich auch hätte sparen können. Soll Leute geben die so denken.
Dass jemand der sich schon nen G-sync Monitor und die teuerste Gamer GPU von Nvidia gekauft hat, möglichst keine Gegenargumente zulassen will, wundert mich jetzt nicht.
Ist kein Einzelfall, allerdings bleiben doch auch viele User für sinvolle Argumente erreichbar und müssen sich den Kauf nicht schönreden und das andere schlechtreden.

keiner wird gezwungen, sich für eine seite zu entscheiden. wer adaptive sync will, muss sich faktisch entweder für amd oder nv entscheiden,

Natürlich wird man gezwungen. Kauft man einen G-sync Monitor wird man keine AMD mit dieser Funktionalität betreiben können, weil Nvidia G-sync als DRM System aufgebaut hat.
Kauft man einen Freesyncmonitor kannst du die Funktionalität mit AMD, zukünftig Intel und sehr sicher zukunftüg Nvidia betreiben.
Nvidia steht es jederzeit offen, das zu unterstützen.

"keiner wird gezwungen, sich für eine seite zu entscheiden"

Liest du eigentlich das was du schreibst?

da könnt ihr rumheulen bis ihr schwarz werdet. alles total gemein von nv, bla bla bla, aber jedes jahr 600€ für eine dumme gpu ausgeben.

Ich glaub da heult jemand anderes, weil er keine Argumente findet, die Sinn ergeben.:rolleyes:
Und jetzt kauft halt jeder jedes Jahr für 600 Euro ne GPU, was du einfach mal so behauptest, damit trollst du schon ziemlich arg.
Aber es gibt halt noch andere Leute, webmi, die Welt besteht nicht nur aus Leuten wie dir.
Die Welt besteht aber auch aus Leuten die sich das leisten können und deinen Nicht-Argumenten trotzdem nicht folgen können.:heuldoch:

manche kommen einem vor wie kleine kinder, die mama mit "warum" fragen löchern.

Hast du irgendwo ein Argument versteckt oder kennst du selbst nur Agression und Provokation, Arroganz und mit den Gelscheinen wedeln, wenn man argumentativ nix auf der Pfanne hat?
Dein ganzer Beitrag ist für dich blamabel, denn er steckt von der geistigen Qualität ungefähr in der Kleinkind Phase fest.

fdsonne schrieb:
Ein Wechsel zwischen dem GPU Hersteller ist an der Stelle so oder so mit potentiellen Einschränkungen verbunden... Das Problem dabei ist einfach, wenn man die Features nicht nutzt, dann ist es einem auch "egal". Nutzt man diese allerdings? Was dann? Dann bist du Hersteller gebunden...

Das bisschen Featurequark aka Mantle, GPU Physx und solche Sachen stellst du also auf eine Stufe mit der Bindung eines Pheripherie-Gerätes an eine Grafikkarte?
Wo soll das noch hinführen?
 
Zuletzt bearbeitet:
Hast du irgendwo ein Argument versteckt oder kennst du selbst nur Agression und Provokation, Arroganz und mit den Gelscheinen wedeln, wenn man argumentativ nix auf der Pfanne hat?
Dein ganzer Beitrag ist für dich blamabel, denn er steckt von der geistigen Qualität ungefähr in der Kleinkind Phase fest.

er hat einfach kohle alle anderen sind ihm egal er kauft das beste und neueste und alle müssen das genauso machen
ich bin mal gespannt was solche leute machen sobald das finanzsystem die nächsten jahre zusammenbricht, mal sehen wer dann heult.

die taktik von nvidia verstehe ich.
bis zum letzten an g sync festhalten und irgendwann ein feature mit freesync kompatibilität einführen, dann werden se noch mehr gefeiert und mit lob überschüttet.
so gesehen kann nvidia garnichts verlieren
 
Wobei ich aber auch das nicht ausschließen möchte.
das kann man sogar zu 100% ausschließen, masken für 16FF+ kann man nur für diesen einen prozess nutzen!

Nur wer sagt denn, dass AMD oder NVIDIA nicht das gleiche für ihre kommenden GPUs genau wie Apple von Anfang an auch geplant haben und entsprechende Absprachen mit den Fertigern parat haben?
da weder AMD noch NVIDIA Tapeouts bei beiden fertigern hatten kann man auch das ausschließen.
bei Apple gab es tapeouts für beide prozesse.

Beide Unternehmen dürften die Lage weit früher erkannt haben und bereits frühzeitig in Verhandlungen mit Samsung oder TSMC getreten sein.
verhandeln bringt aber nichts, wenn man nur für einen prozess die masken erstellt hat...


Mir ist bisher auch keine Meldung bekannt, in der wirklich bestätigt wird, dass AMD bei Samsung/GloF und NVIDIA bei TSMC die neuen GPUs tatsächlich auch fertigen wird.
AMD hat die nutzung von 14nm schon vor langer zeit bestätigt, steht sogar auf den roadmaps.
NVIDIA hatte einen tapeout in 16nm bei TSMC.


am Tag 2 wird AMD das ganze nochmal bestätigen, mal sehen wieviele deutsche seiten darüber berichten werden/wollen/"dürfen"!


AMD’s next Generation GPU and Memory Architecture
Joe Macri, Raja Koduri, Mike Mantor and Bryan Black
http://www.hotchips.org/ +9h selbst dazu rechnen...

komischerweise ist NVIDIA nicht vertreten, was mich schon etwas wundert, Pascal kommt wohl doch nicht so früh wie die propagandapresse es verkündet...
 
Zuletzt bearbeitet:
bis zum letzten an g sync festhalten und irgendwann ein feature mit freesync kompatibilität einführen, dann werden se noch mehr gefeiert und mit lob überschüttet.
so gesehen kann nvidia garnichts verlieren

Nvidia verliert ja auch nicht, die könnten halt nur langsam unter Druck geraten.
Man nehme an, AMD liefert mit der nächsten Generation super Grafikkarten und erreicht wieder einen Marktanteil von 30 bis 40%, ich denke bei dem großen Angebot an Adaptive Sync Geräten, wird Nvidia auch irgendwann mitziehen müssen.
Nvidia will ja nicht, dass in mehreren Monaten dann AMD Grafikkarten gekauft werden, weil Freesyncgeräte günstig und besser sind wie G-sync Geräte und das bahnt sich ja jetzt schon an.

4K --> mehr Freesync Geräte zur Auswahl.
1440P 35 bis 144 Hertz Support ( Nvidia 30 bis 144 Hertz)
Full HD --> Nixeus 30 bis 144 Hertz Freesync Support, NV the same

DragonTear schrieb:
@Schaffe89 Gut geschrieben!

Danke für die Blumen :)
 
Zuletzt bearbeitet:
AMD hat die nutzung von 14nm schon vor langer zeit bestätigt, steht sogar auf den roadmaps.

Das AMD einen 14nm-Prozess bei Samsung für irgendwelche zukünftigen Produkte nutzen möchte, war soweit bekannt. Was das nun aber konkret für die nächste GPU-Generation bedeutet, bleibt immer noch unklar. Hatte AMD bereits ein Tape-Out für eine Next-Gen GPU bei Samsung? Soweit ich das mitbekommen habe, wurde zwar ein Tape-Out vor kurzen in 14nm vermeldet, aber dabei muss es sich nicht zwangsläufig auch um eine Next-Gen GPU gehandelt haben.

AMD’s next Generation GPU and Memory Architecture
Joe Macri, Raja Koduri, Mike Mantor and Bryan Black
Hot Chips: A Symposium on High Performance Chips | Conference Sponsor IEEE Technical Committee on Microprocessors and Microcomputers. In cooperation with ACM SIGARCH. +9h selbst dazu rechnen...

Heißt also noch kein offizielles Statement zur Fertigung bisher. Bin gespannt ob sich AMD auf dem Symposium dazu konkreter fassen wird.
 
Ich habe doch immer auf Sinnabschnitte geantwortet, dürfte für dich kein Problem sein. ;)

Willst du mich verarschen?
Diese scheiß provokante Art geht mir gehörig auf die Nerven...
Aus vier!!!! Absätzen -> ja das meint die Textpasagen, welche nicht durch Leerzeilen von einander sichtbar getrennt sind, welche insich einen Sinnabschnitt bilden, machst du 20, nein warte 30+ Teilzitate, dazu das zerhacken von Sätzen in mehrere Zitate.

Ich bitte dich hier und jetzt nochmal, diesen Unsinn zu unterlassen!

Wer soll da noch G-sync kaufen? Damit bindet man sich lediglich Nvidia ans Bein, mit Adative Sync wird man später jede Grafikkarte ansprechen können.
Ob NV jemals FreeSync supporten wird, steht völlig in den Sternen. Und wenn sie es mal tun, wann wird das sein? -> bis dahin hast du eine Herstellergebundenheit. Sowohl bei der einen, als auch bei der anderen Seite.

Warum man sich darüber streiten muss? Na weil du die Umfrage in Frage stellst und so tust wie wenn niemand auf der IGP etwas zockt und behauptest es liege daran, dass Notebooks vermessen werden und das nur weil mr.dude ne Aussage getroffen hat, die womöglich niemand teilt.
Unsinn, ließ bitte nocheinmal. Ich zweifel keineswegs die Umfrage an. Wie Werte werden genau so stimmen, wie sie dort stehen. Ich zweifle allerdings an, dass die Werte sich für das, was ihr daraus rausinterprätiert eignen. Denn es gibt zu viele Unbekannte, die sich daraus nicht belegen lassen. Außerdem sagte ich, dass NV 2/3 (nach den Links oben sogar 3/4) Marktmacht im dGPU Bereich hat. Was zweifelsfrei so ist. Dann kam irgendwer mit der Steamumfrage... Schon allein das ist kein Argument, lass die Leute doch Steam nutzen. Lass die Leute doch von mir aus auch auf Intel IGPs spielen. Kaufen die Leute deswegen einen Sync Monitor für xxx€? Steht das irgendwo in Stein geschrieben?
Du/ihr versuchst hier gerade die Anteile von Intel an der gesamt! Verteilung der Steamumfrage ggü. dem Anteil NV Systeme einzuschieben, damit eben aus 3/4 dGPU Anteil nur noch 1/2 gesamt pro NV wird...
Mit 1/2 gesamt Verteilung und maßgeblich dem Anteil an Spielern steht NV aber immernoch nicht schlechter da um G-Sync aufgeben zu müssen. Wie in bspw. #5 steht, wird dort ja gefordert, dass man G-Sync aufgibt... Nur warum sollte man das tun, unter anbetracht der Verteilungszahlen??? Das ist doch das Kernproblem... Man will es nicht, also redet man es schlecht. Lass die doch verbauen was sie wollen... Wer es kaufen will, soll es kaufen. Wer nicht, der kauft halt nicht und gut ist.

Was sich mir nicht erschließt ist das, das jeder nen Zweit PC mit Intel IGP hat und sich darauf Steam für was weiß ich installiert.
Du willst die Tatsache die offenbar fakt ist, dass viele Menschen auf ner Intel IGP zocken, negieren, damit du die Marktmacht von Nvidia größer darstellst als sie ist.
Die bröckelt ja jetzt schon mit G-sync vs Freesync.

Frage, wo steht, dass nicht viele Menschen auf einer IGP zocken sollen? Hab ich doch keineswegs so gesagt. Auch stellt das keineswegs die "Marktmacht" größer da. Ich war konservativ und sprach von 2/3 im dGPU Bereich, einfach aus dem Bauch raus. Zahlen, wie sie Don oben verlinkt hat sprechen von 3/4, was klar mehr ist.
Den Einwand mit der Android Steam App hast du in all deinen Textzerstückelungen aber nun schon zum zweiten mal übersehen (oder absichtlich ausgelassen) -> gib uns doch mal eine Erklärung, warum die App 10-50 Mio mal installiert wurde... Was machen die Leute bitte damit, wenn damit spielen nicht geht???

Nur wer sagt denn, dass AMD oder NVIDIA nicht das gleiche für ihre kommenden GPUs genau wie Apple von Anfang an auch geplant haben und entsprechende Absprachen mit den Fertigern parat haben? Beide Unternehmen dürften die Lage weit früher erkannt haben und bereits frühzeitig in Verhandlungen mit Samsung oder TSMC getreten sein. Mir ist bisher auch keine Meldung bekannt, in der wirklich bestätigt wird, dass AMD bei Samsung/GloF und NVIDIA bei TSMC die neuen GPUs tatsächlich auch fertigen wird.

Da gabs doch mal ne Roadmap, wo von Pascal Fertigung noch dieses Jahr gesprochen wurde??? War das Fake?
Weil NV benötigt zeitnah nen GK210 Nachfolger mit DP Power, jetzt nachdem GM200 da ne "Luftnummer" ist.
 
Zuletzt bearbeitet:
Da gabs doch mal ne Roadmap, wo von Pascal Fertigung noch dieses Jahr gesprochen wurde??? War das Fake?
Weil NV benötigt zeitnah nen GK210 Nachfolger mit DP Power, jetzt nachdem GM200 da ne "Luftnummer" ist.

Anscheinend eine alte Roadmap und wohl nicht mehr aktuell. Gegebenheiten ändern sich auch ständig. Und eine Roadmap lässt sich, falls nötig jederzeit anpassen. Aber selbst wenn NVIDIA für Pascal einen 14nm-Prozess von Samsung nutzen sollte, erscheint mir ein Release dieses Jahr nicht mehr realistisch.
 
Das nicht, keine Frage, das Argument zielte eher auf den Profi-Ableger hin... Andem man ja auch erstmal gut sehen können wird, was einen erwartet im Desktop Bereich.
Das wird analog zu GK110 laufen... Erst Profimarkt, dann Desktop Markt, auch schließe ich zuerst den "kleinen" GP104 oder GP204, je nach Benennung, nicht aus... Das Dickschiff womöglich dann später.

Alles in allem muss sich halt zeigen, wohin die Reise geht. AMD kann jetzt, mit möglicherweise einem Fertigungsvorteil im Gepäck, aufholen. Blickt man allerdings in die Vergangenheit, sahen wir auch schon 2x eine ähnliche Situation. Der R600 war, genau so wie der RV670 mit 80/65nm klar vor den 90nm des G80 von der Fertigung -> bei der Leistung hats aber nicht gereicht. Und auch der RV870 war klar sechs Monate vor Fermi am Markt. Im Neuen Prozess, verfägbar und sogar relativ günstig. Marktanteil ging mal gut nach oben -> mit Fermi dann aber Stückweise wieder zurück, trotz des ineffizienterem Produkts.


Wie gesagt, ich zweifel nach wie vor dran, das Intels womöglicher Einstieg in die FreeSync Welt an der gegenwertigen Situation was ändert. Aktuell ist Sync, egal wie und wo eher ein Hochpreis Feature. Was ebenso eher gegen einen Wandel durch Intel in dem Bereich spricht.
 
Ich halte die Sync-Problematik aber für wesentlich wichtiger, und deren Kompensation für viel nützlicher als z.B. den 4K-Quatsch. Und im Gegensatz zu diesem ist die benötigte Mehrleistung von FullHD ausgehend immerhrin nur halb so hoch :)

Und warum Nvidia G-Snyc aufgeben sollte?
Ganz einfach weil's kundenfreundlich wäre.
Es gab mal Zeiten da ging's den Konzernen nicht am Arsch vorbei, was ihre Kunden wirklich wollen bzw. brauchen...klar, seit Apfel hat sich das stark gewandelt zu: "denen werden wir schon klarmachen was sie 'brauchen'!".
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh