Unlimited Detail Engine

Ich bin da auch skeptisch. Solange es nur Screenshots gibt und keine Techdemo kann man viel erzählen. Abwarten, ob da was draus wird und ob
überhaupt was existiert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja
Und diese verdeutlichen genau die heir schon angesprochenen Probleme.
Nichts in Bewegung, alles noch recht hakelig, alles aus identischen Modellen aufgebaut um die Datenmenge gering zu halten, Flackern im Hintergrund, ...

Klar, es ist wohl noch irgendwas Prä-Beta, aber macht schlicht und ergreifend keinen so perfekten Eindruck das ich jetzt direkt zum freudensprung ansetzen würde...

Wenns was wird, super.
Aber von der ca. 791234 wiederholten Aussage der Video´s, alles in unendlicher Detailfülle vorhanden, davon sieht man noch nicht so wirklich was.
 
Interessanter Ansatz und recht hast du... Um so detailreicher die Objekte sind, desto mehr Aufwand muss vorher betrieben werden um diese zu erstellen. Sprich entweder die Entwicklungszeit wird länger, oder man setzt mehr Leute dran. Beides ist mit enormen Kosten verbunden...

Glaube ich nicht. Denk mal an das apfelmännchen. Natürlich ist das nicht das gleiche, aber das resultat steckt im algorithmus. Wird hier nicht anders sein. Man modelliert das objekt und der algorithmus besorgt beim interagieren bzw. hineinzoomen den rest.

Ich denke so allein durch ein paar Programmierer einer kleinen Softwareschmiede lässt sich da nix weltbewegendes auf die Beine stellen... Zumindest nix, was auch bezahlbar bleibt. ;)

Wieso das denn? Für die grundlagen braucht man offensichtlich nicht mehr als das. Hat man damals vor zwanzig jahren auch nicht gebraucht als man den sprung von sprites und bestenfalls nackten polygonen zu pseudo 3D shootern gemacht hat. Denk mal an id und was die in den folgejahren immer wieder an richtungweisenden engines auf die beine gestellt haben - im grossen und ganzen war das auch nur die John Carmack ein-mann-show.

Und an der finanzierung eines SDK arbeiten sie ja. Wenn es soweit kommen sollte und die resultate dann immer noch brauchbar sind, dann werden sich schon studios finden die das versuchen werden. Grosse studios, vorallem die, die sich von den beiden rasterization platzhirschen in der vergangenheit viel geld und resourcen von diesen beiden erhalten haben, werden da sicherlich auch druck verspüren keine risiken einzugehen.

Die Problematik mit der Licht/Schattenberechnung bleibt aber weiterhin bestehen. ;)
Ich denke da beispielsweise an nicht sichbare Objekte, die einen Schatten in den Sichbereich werfen... Für das Programm ist das Objekt ja nicht "vorhanden" weil es nicht im Sichtbereich liegt, aber woher weis es dann, wo der Schatten auftreffen muss bzw. wie dieser ausschaut?

Ich seh da kein problem. Die software weiss ja trotzdem um diese für den user unsichtbaren objekte (muss sie ja, sonst weiss sie nicht, dass sie vom user nicht gesehen werden..) und muss dann nur prüfen ob sie einen schatten wirft der sichtbar ist und dann entsprechend darstellen.
 
Wenn das wirklich was sein sollte dann wird das irgendwer kaufen und verbrennen!
 
Wenn das wirklich was sein sollte dann wird das irgendwer kaufen und verbrennen!

Warum sollte man?
Gerade wenn was brauchbares rauskommt, macht es Sinn daran weiter zu arbeiten.

Auch AMD/NV werden sicher nix dagegen haben. Denn unabhängig wie wunderbar das ganze funktioniert. Leistung wird immer gebraucht ;)
 
ich sehe auch viele Gründe für Skepsis, doch scheint mir das hier typisch deutsch zu sein. Vergleicht das mal mit der ziemlich dämlichen Euphorie, wenn ein neues COD rauskommt oder ne neue Grafikgeneration, die bei den meisten Games statt 50fps min. 70 fps min. bringt oder der Hype um immer größere Monitore. Ich finds jedenfalls erstmal hochinteressant, auch wenn ich 0 Ahnung von der Materie habe.

Aber ich teile die Befürchtung, daß das Patent aufgekauft und eingemottet werden könnte, um den Status Quo der Grafikkarten zu schützen.
@fdsonne
hoffentlich hast du Recht..
 
Zuletzt bearbeitet:
wie schonmal sagte ich finde das ganze sehr interessant weil der detailgrade einfach heftig ist! das da keiner der großen dran interessiert ist kann ich kaum nachvollziehen!

Edit: wir haben auf arbeit auch einen scaner der objekte so mit mehere laser abtasten kann und danach in echtzeit ansehen und verarbeiten kann und es ist erstaunlich wie lächerlich die leistung dabei sein muss weil da ein 0815 laptop reichte!
alles was einmal gescant wird kann ja dann immer wieder verwendet werden!
 
Zuletzt bearbeitet:
Naja, die Frage der Animationen, Kollisionen, Explosionen ist ja immernoch nicht gefragt.
Oder versch. Explosionen in echtzeit.
Das wird nichts werden.
 
Kann ja evtl auch auf eine Mischung aus Atomen und Polygonen hinaus laufen. Potential hat das Ganze auf jeden Fall. Ob die Industrie was draus macht ist die andere frage. Ich fänds gut.
 
Speicher: Die Welt muss immernoch modelliert werden und wenn nach jedem "Atom" in einer Art Suchbaum gesucht werden soll, dann ist der Speicheraufwand exorbitant hoch.

Bewegung: Solange alles statisch ist (siehe Video) mag das gehen, aber dieser Suchbaum muss ununterbrochen neu berechnet werden, damit das ganze Echtzeitfähig bleibt.

Da haben wir auch schon das potentielle künftige Einsatzgebiet von Grakas. Oder soll ich sagen: Datenbankkarten? :fresse:
 
wenn er animationen drin hat kann man dann sagen das er wirklich vortschritte macht und dann kann es schnell passieren das spiele entwickler aufspringen!
 
Jepp. Im vorletzten Artikel meine ich was von einem halben Jahr gelesen zu haben, bis er es an Spieleentwickler geben will. Im letzten Stand, daß er dies erst tun will, wenn die Engine fertig ist. Hoffe das ist jetzt keine Widerspruch und er steht wirklich kurz vor der Fertigstellung.
 
Das 41min. Video aus dem Entwicklerstudio ist wirklich interessant. Sollte das tatsächlich mal marktreif werden würde das ernsthafte Veränderungen nach sich ziehen.
 
Oh man und genau sowas hab ich mir ausgedacht. Ungefähr wie ein Film auf DVD.

Es stellt 3D dar aber es muß nicht in 3D berechnet werden. Eben einfach nur ein Abbild und nicht der echten 3D Welt nachampfunden. Wie ein Foto eures Spiels vom Monitor. 3D aber 2D.

Wie es im Bericht steht, einfach aus unzähligen Bildpunkten. Schicht für Schicht. Wieviel Pixel kann eine Graka darstellen wenn sie sich um nix anderes kümmern muß ? Wird sowas überhaupt softwareseitig auf aktueller Hardware funktionieren können ?
 
Zuletzt bearbeitet:
naja solche "revolutionen" verschwinden meist wieder ganz schnell... wie ja auch schon bemerkt wurde verlieren die Entwickler kein Wort über Licht, Schatten, Reflektionen, etc.pp. , was ja aber ein Spiel erst lebendig macht.
 
Eben. Und wie es oben schon hieß: irgendwer muss das dann alles auch für die entsprechende (Spiele-)Software programmieren.
 
@Christoph0815: Hast Du überhaupt die 40 Minuten angeschaut? Ich glaube nicht. Da wurde beschrieben, daß es mit der Engine sogar noch wesentlich einfacher ist 3D Modelle zu bauen, da man nicht mit Polygonen basteln muss, bis es passt, sondern sich einfach ein reelles Objekt nimmt, es mit nem 3D Scanner einscannt und schon ist es fertig.

KI und Verhalten muss dann noch programmiert werden, aber das ist vom Modell ja unabhängig.
 
OK, und wer fotografiert das dann alles ? Und meinst du das muss dann nicht abgeändert werden z.T. ? Will man nen Spiel programmieren im Sci-Fi Setting oder im Mittelalter... wie willst du das einfach fotografieren ??

Und auch bei Titeln die im Jetzt spielen musst du noch einiges verändern...
 
Auch darauf wurde im Video eingegangen... :rolleyes:

Der Mensch meinte, er könne sich vorstellen, dass man bei seiner Engine statt Grafikern vermehrt auf traditionelle Künstler setzt. Da werden dann nicht Modelle am PC gebaut, sondern Skulpturen z.B. von Raumschiffen entworfen und eingescannt. Und wenn ein Modell mal gescannt ist, kann man es immer nocht recht einfach digital nachbearbeiten.

Ich stehe dem Ganzen neutral gegenüber. Ich wünsche ihnen (und uns) ja, dass alles so stimmt wie beworben, aber erstmal will ich Beweise sehen. Die steuerbare Echtzeit-Demo war ein guter erster Schritt, die Glaubwürdigkeit zu untermauern, aber sie ist halt noch sehr unfertig.
 
Naja, OK. Aber ich finde dann hat man damit mehr Arbeit und evtl. Kosten als wenn man es gleich komplett digital macht...
 
Das glaube ich nicht. Weißt Du wie aufwändig es ist ein komplexes Modell mit Polygonen zu bauen? Für ein einfaches Modell benötigst Du schon eine ganze Weile. Je aufwändiger und detaillierter, desto länger.

Da kann ein Haufen Zeit und somit Geld gespart werden. Und dazu wird es noch schöner.

Eine Frage bleibt mir aber. Wie wird das gescannte modell dann weiter bearbeitet? (Wenn überhaupt nötig, schließlich ist neu basteln einscannen wohl immernoch schneller.)
 
Halte das ganze für nicht realistisch. Problem ist wie immer der Speicher und Animationen dürften auch extrem aufwändig sein.
 
Du hast das Video auch nciht gesehen, oder? Speicherprobleme werden mit einem Lachen verneint.
Bezüglich der Animationen wird es abwarten heißen. Gezeigt haben Sie nur welche in einem sehr frühen Stadium. Aber bewegt haben sie sich.
 
Solange Du keine Beweise hast kannst Du auch ncihts gegenteiliges behaupten.

Daß so viele immer erst so negativ Neuem gegenüber stehen müssen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh