Das Rennen um die erste DirectX-11-GPU: AMD wieder vorne?

Ich will kein mittel oder hoch ich will ultra als enthusiast u das mit sämtlichen directX 11 effekten die die api hergibt:haha:

Keine simple konsolenportierung:shot:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Cryengine 3 kann mehr als die 2er, skaliert aber auch besser nach unten was die alte nicht konnte. Von daher erwartet uns da wieder was das auch die GT300 und RV870 oder wie sie alle heißen in die Knie zwingt ;)
 
Eben :d der Trailer reicht schon fürs erste, wenn das nur ein Vorgeschmack ist wird es vermutlich wieder so ähnlich wie mit Crysis aussehen

Meiner Meinung nach ist es eigentlich ziemlich egal, welcher Hersteller nun die erste DX11 Karte offiziell für den Endverbraucher auf den Markt bringt. Eigentlich geht es am Ende nur darum, wer welche Technik zu welchem Preis anbieten kann...
 
Vllt. hat nVidia wieder was in der Hinterhand und gibt nähere Infos erst kurz vor dem Release heraus, so wie damals zu G80 Zeiten, da wusste keiner so genau ob das Design nun unified ist oder nicht...
 
Ist doch egal von welchem Hersteller die DX 11 Karte sein wird, INTEL bringt Anfangs 2010 auch noch den Larabee auf den Markt, da wird sich erst zeigen müssen ob die Karten von ATI und NVIDIA zu gebrauchen sind. Ich meine der Graka Markt wird neu auf gemischt. :coolblue:

mfg
 
Zuletzt bearbeitet:
Glaubst du wirklich ?

Für den Privatanwendermarkt sind die Larrabee Grafikkarten meiner Ansicht nach erstmal völlig uninteressant.

Es gibt ja kein Spiel welches dafür irgendwie zugeschnitten wäre.
 
http://pcper.com/images/reviews/724/19.jpg

Diese Folie, aus einer heutigen Präsentation auf der Computex (wo unter anderem auch Tech Demos auf DX11-Hardware gelaufen sind), dürfte darauf hindeuten das mehr als nur ein-zwei Studios bereits in Zusammenarbeit mit AMD DX11-Spiele entwickeln.

Nur soviel zum Thema "dauert eh wieder 2 Jahre bis die ersten Spiele kommen" :)
 
Ist doch egal von welchem Hersteller die DX 11 Karte sein wird, INTEL bringt Anfangs 2010 auch noch den Larabee auf den Markt, da wird sich erst zeigen müssen ob die Karten von ATI und NVIDIA zu gebrauchen sind. Ich meine der Graka Markt wird neu auf gemischt. :coolblue:

mfg

Wenn man bedenkt, das LRB eigentlich sogut wie alles via Software emuliert, stellt sich schnell die Frage ob LRB nicht im HighEnd Gamermarkt viel zu ineffizient sein wird.
Die Entwicklung bei AMD und NV steht ja nicht, es kommen immer schnellere GPUs, welche hochoptimiert sind. Eine Hardwareimplementierung wird immer schneller sein als eine Softwareemulierung. Und das ist der Punkt, den Intel schnellerer Hardware ausgleichen muss... (das kostet Ressourcen wie Strom)

Was LRB nächstes Jahr reißen wird bleibt abzuwarten...

Es gibt ja kein Spiel welches dafür irgendwie zugeschnitten wäre.

Muss ja auch net, riesiger Vorteil einer Softwareemulation, du kannst die Software so hinbiegen, wie du es brauchst.
Wenn Intel meint wir bauen DX10 ein, dann bauen die DX10 ein, wenn Intel meint, wir bauen auch DX11 mit ein, dann lässt sich das ebenso realisieren.
Gleichsam gehts mit kommenden Versionen von DX, welche fast schon problemlos implementiert werden können...

Intel bestimmt also, auf welche Software LRB zugeschnitten sein wird... ;)

Stichwort: Raytraycing von kommenden Game Engines wird doch immer mehr verlangt, alles soll so natürlich und in echt aus sehen, wer da das rennen macht steht in den Sternen. :hmm:

http://forum.vis.ethz.ch/showthread.php?t=3292

http://www.forum-3dcenter.org/vbulletin/archive/index.php/t-377698.html

mfg

Bei Raytracing wird oft heißer gekocht als gelöffelt, im Moment ist Raytracing völlig uninteressant.
Man schaue auf aktuelle Raytracing Demos... Viel beeindruckt mich das nicht muss ich sagen, aber enorme Rechenleistung wird gebraucht.

Der nächste Punkt ist, das Raytracing auch nicht der Weisheit letzter schluss ist, es gibt auch erhebliche Nachteile die eben bei der Rasterisierung deutlich besser laufen...
 
@ heineheinni

Larabee für User ned intresant glaub ich ned, sobald die Karten von INTEL verfügbar sein werden stürzen sich sowiso alle drauf wie auf Frischfleisch. :haha:

Ich glaub nach der langen entwicklungsphase,kann intel froh sein wenn sich überhaupt noch jemand auf den larrabee stürzt.

Wie fdsonne schon gesagt hat die grafikschmieden von ati u nvidia sind in den letzten jahren auch nicht zum stillstand gekommen u haben ihre designs konsequent weiterentwickelt.

Wen intel das "rad" entschuldigung den larrabee nicht neu erfunden hat,werden sie im Highend u mainstream sektor wohl keine grosse rolle mehr spielen;)

Allerdings war das vielleicht auch gar nicht beabsichtigt von intel u der larrabee nur eine brücke in den grafiksektor;)
 
Zuletzt bearbeitet:
Man wird sich das alles in Ruhe anschauen müssen, noch bleibt noch etwas Zeit für die Hersteller (AMD soll jo ne lauffähige DX 11 GPU haben) bin selbst gespannt was da schluss endlich raus kommt, die Entwicklung neuer Produkte geht jo immer schneller voran heut zu Tage. Der nächste Herbst wird auf alle Fälle intresant bei den Grakas. :d

mfg
 
Das Larabee gleich als Highend Karte auf den Markt kommt kann ich mir schlecht vorstellen. Höchstwahrscheinlich will Intel diese Lösung benutzen um in den Grafikkartenmarkt einzusteigen bzw. mehr Anteile zu gewinnen. Wenn es aber mit der jetzigen Preispolitik auf dem Gebiet auch so läuft, sehe ich da keine wirkliche Zukunft.
 
Naja, die Idee des LRB wird sich aber wohl nur beweisen können wenns ne High-End Variante gibt. Intel wird da denke ich auch was abliefern, koste es was es wolle, sieht man ja schon an den riesen DIEs auf dem gezeigten Wafer.
 
Naja, die Idee des LRB wird sich aber wohl nur beweisen können wenns ne High-End Variante gibt. Intel wird da denke ich auch was abliefern, koste es was es wolle, sieht man ja schon an den riesen DIEs auf dem gezeigten Wafer.

Zur Not halt mehrere DIEs auf ein PCB packen, soll ja wohl gut skalieren über mehrere Cores...
Stromverbrauch und Produktionskosten stehen dann natürlich auf nem anderen Blatt. Aber Intel muss auch erstmal Fuß fassen in dem Bereich... Nachfolgegenerationen werden die Sache schon schaukeln.
 
Ne, eigentlich total schlecht, Wenn man bedenkt, das ne 285er GTX gerade mal um die ~1TFlop schafft und Intel für gleiches Leistungsniveau die doppelte theoretische Leistung unter der Haube haben muss, zeigt das wie ineffizient eine derartige Softwarelösung ist. (Zumindest wohl im 3D Gamingbereich)

Gleichsam die Messungen der DIE Fläche von +600mm²

Ich bin echt sehr gespannt, was eine derartige Lösung können wird, aber so richtig hoffnung auf neue Geschwindigkeitsrekorde hab ich da nicht ;)
Wenn NV und AMD dieses Jahr noch ihre neuen Produkte bringen, dann siehts wieder zappen duster um LRB aus...
Aber warten wir es ab.
 
Ich sehe das ähnlich. Wenn Intel sagt GTX 285 Niveau, dann meinen sie bestimmt sowas wie Rechenleistung. Grafikleistung ist dann wohl eher GTX 260 Niveau, wenn überhaupt. Und mit dem RV870 scheint AMD noch dieses Jahr Karten anbieten zu können, die sicherlich klar leistungsfähiger als eine GTX 285 sein dürften. Und dabei hat der RV870 vermutlich nicht mal ein Drittel der Chipfläche des Larrabee. Von der Leistungsaufnahme oder Dual/Triple GPU Karten möchte ich jetzt gar nicht erst sprechen. Und wenn Larrabee endlich mal das Licht der Welt erblickt, sollte auch der GT300 schon lange auf dem Markt sein und der RV970 eventuell bereits in den Startlöchern.

nVidia scheint mit ihrer Aussage vor einiger Zeit gar nicht mal so daneben gelegen zu haben. Larrabee sieht aus wie ein Chip, der 2 Generationen hinterherhinkt. Dass man den Etablierten damit nennenswerte Marktanteile abnehmen möchte, halte ich momentan für reines Wunschdenken, sofern sich bis nächstes Jahr nicht noch Gravierendes an der Leistungsfähigkeit ändert.
 
Zuletzt bearbeitet:
Das allerwichtigste an dem Ding werden die Treiber sein.
Mal abwarten wie es wird. Ich denke einstampfen wird Intel das vorhaben nicht, potential hat es eigentlich, nicht nur bei Grafik sondern auch bei anderen Anwendungen.

Mal schauen, ich setz mir schonmal Tee auf...
 
Mal abwarten wie es wird. Ich denke einstampfen wird Intel das vorhaben nicht
Einstampfen sicherlich nicht. Irgendwie hatte ich aber seit Beginn meine Bedenken bei den modifizierten P5 Kernen. Speziell was die erste Generation betrifft. Imo wird das Konzept erst richtig konkurrenzfähig, wenn Intels Tera Scale marktreif ist.
Interessant ist letztendlich auch nicht nur die reine Performance. Man muss zB auch bei AA, AF, HD, etc einiges bieten, um konkurrenzfähig zu sein.
 
Der erste DX11 und 40nm Wafer
http://anandtech.com/video/showdoc.aspx?i=3573

evergreen2onst.jpg
 
Schöne Meldung, bleibt nur abzuwarten wie es dann tatsächlich kommt; wenn TSMC noch Probleme mit der 40nm Fertigung hat und AMD bzw. Global Foundries sicherlich auch keine Yield Rate von 50% + erreichen können, sieht es mit den DX11 GraKas ein bisschen mager aus.
 
Ich persönlich glaube dass es lang nicht so lange dauert bis sich DX11 durchsetzt als es mit DX10 gedauert hat/dauert !!

das haben die meisten auch bei DX10 gedacht. Fakt ist wirklich das es zu wenige Games mit DX10-10.1 rausgekommen sind. Da bei Consolen Games immer wieder neue Games (Action/Ego) rauskommen aber leider zu wenige für den PC :confused:
Von daher kann man nur gespannt sein ob sich DX11 dort richtig durchsetzt. :hail:
 
das haben die meisten auch bei DX10 gedacht. Fakt ist wirklich das es zu wenige Games mit DX10-10.1 rausgekommen sind. Da bei Consolen Games immer wieder neue Games (Action/Ego) rauskommen aber leider zu wenige für den PC :confused:
Von daher kann man nur gespannt sein ob sich DX11 dort richtig durchsetzt. :hail:

Am Konsolenmarkt ändert sich aber die nächste Zeit nix, sprich der Trend bleibt nach wie vor bei Konsolenportierungen, welche auf DX9 bauen...

Games die mit DX10 oder DX11 Features umworben werden, besitzen idR nur einen Zusätzlichen Renderpfad, welcher dir einige Zusatzeffekte ins Spiel einbauen bzw. vllt alte etwas unschöne Effekte austauschen...
Das ganze wird ebenso wie bei DX10 derzeit extrem viel Leistung kosten, weil neben dem schon erheblichen Rechenaufwand für das Game ansich diese neuen schicken und Bunten Zusatzeffekte noch Leistung fressen...
 
sollte nicht genau das der Clou an DX11 sein?, da es keine Operation in Reihe, sondern alles Parallel laufen soll? Quasi Multicoreoperationsystem.
Also mehr Leistung bei weniger Aufwand für jeden zuständigen Bereich.
 
Zuletzt bearbeitet:
sollte nicht genau das der Clou an DX11 sein?, da es keine Operation in Reihe, sondern alles Parallel laufen soll? Quasi Multicoreoperationsystem.
Also mehr Leistung bei weniger Aufwand für jeden zuständigen Bereich.

Das hast du bis jetzt bei nahezu allen DX Versionen bekommen, sprich mit ner neueren Version kannst du den gleichen Effekt mit erheblich weniger Rechenaufwand erzeugen...

Das klingt zwar schön und gut, bringt aber in dem Fall wenig, weil die Hardware ja mit diesen Effekten zusätzlich nochmals stark mehrbelastet wird.
Nur so rein vom logischen her würdest du bei einem Game welches komplett im DX11 Modus fährt bei komplett gleicher Optik schneller unterwegs sein wie bei dem selben Game, welches auf DX9 setzt + DX11 Zusatzeffekte.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh