Virtual Reality&Experimente mit DFENCE. Heute: Der Strich durch die Rechnung !!??

Anders könnte man so etwas auch nicht umsetzen. ;)

Wer da ganz normal wäre, der hätte die Beamer vermutlich nicht mal gekauft und hätte nie erfahren was er da verpasst hätte. ^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke DFENCE versteht meinen Post genau so wie ichs gemeint habe. :)
 
Hut ab, der Traum eines jeden Technik Freak, ist wie Lotto, abonniert, wünsche noch viel Erfolg bei dem Projekt....
 
Jemand (du selbst?) sollte ein Buch darüber schreiben, wenn das Projekt "fertig" ist. :d

Hab auch gleich mal abonniert!
 
Es lässt ein bisschen nach hier ;)
Wo ist das Video zum cube?
 
Sein Urlaub ist vorbei. ;)
 
Ja wie ich schon sagte, ich muss auch bisl anderswertig weiterarbeiten sonst geht die Kohle aus :d
Mein Urlaub is auch nich vorbei, den hatte ich noch nie, meine Kunden sind größtenteils ausm Urlaub zurück und brauchem ich wieder ;-)
Bei der Cave bin ich etwas ins stottern gekommen da ich etwas probleme habe mit der Leinwand, der Stoff den ich jetzt benutze faengt zu wenig Licht auf, bzw das Bild leuchtet durch die Leinwand durch so das ich auf der gegenüberliegenden auch das Bild sehe das ist zwar teilweise gewollt aber nicht so intensiv, das naechste Problem ist die Decke, bei meinem Vorhaben werd ich keinen Himmel hinbekommen, dazu müsste ich wirklich bei jeder Leinwand mit Spiegeln arbeiten, prinzipiel kein Problem aber ich hab nicht so viel spiegel und jede umlenkung vom Licht bedeutet das ich ne verzerrung drinne habe und so viel zu viel mit Keystone rumarbeiten muss, das ist ein No Go für mich. Aber ich werde vermutlich den Boden Projezieren, da ich eh mehr Race Sims zocke als Flug Sims macht das auch mehr sinn, ich will ja eine Cave missbrauchen als Simulatorumgebung, da brauch ich auch kein MotionCapture weil das "Cockpit" eh fest ist.
Im moment bin ich auch an meiner zweiten "Cave" dran zu basteln, jetzt kann ich mal bisl mehr verraten nachdem der erste Testlauf ohne Touch mich doch beindruckt hat und mein Puplikum ebenso.
Also ich "entwickle" grad meine Musik Rig für künftige Auftritte ich will mich damit als DJ und Musiker etwas von der Masse abheben, und die Beamer geben mir die besten Chancen und möglichkeiten.

Also das ganze wird eine CornerCave mit einem 3*1m 8 Punkt MultitouchScreen zum bedienen der VST bzw Virtuellen Instrumente, einem fest verbauten Touchscreen zum Bedienen der Virtuellen Plattenspieler und CD Player, einem Tragbaren Touchscreen MidiController ( umgerüstetes Tablet ), und meinem ganzen Musiker Krempel.
Das Interessante dabei, das Multitouch realisiere ich mittels teilen aus der Nintendo WII bzw deren Controller, hier hab ich mehrere ansaetze wie ich das umsetze aber jeder birgt so seine problem"chen".

Na ma sehen ob ich nachher nochmal die CornerCave anschmeis und mal paar Bilders mach, das hab ich in lezter zeit beim Basteln stark vernachlaessigt, ich brauch einfach mal ne bessere Cam um euch auch mal zu zeige wie die Quali wirklich ist.
 
Soo mal wieder zeit für nen Update, wenn auch nur ein kleines, dafür aber für mich einen wirklich tollen Meilenstein erreicht der auch für meine CAVE und VR Anwendungen sehr wichtig ist.

Head / Eyetracking

Ich hab den "Prototyp" fertig und es funktioniert erstaunlich gut. Damit waere PC Nr.1 für das Rechencluster meiner CAVE nun fertig.

Ein Bild vorab die erklaerung folgt. Zu dem Bild sei gesagt, die Auflösung is scheise, das Bild is verschwommen und es ist alles andere als gut, brauchts also nich zu erwaehnen, falls aber jemand zu meinem aueserst attraktiven Gesicht etwas sagen möchte ..... verkneifts euch auch ich weis ich seh fertig aus ;-) Zu dem Bild zurück man erkennt das grundlegende, man sieht das es Funktioniert, ist nen "Screenshot" meiner API welche die Face und Eyedetection mit 3 Achsen Koordinaten System zeigt in Echtzeit :)
Anhang anzeigen 336012

So hier sieht man nun meine hübsche Fresse und die Maskingpoints für das Tracking. Das ganze wird mittels einer Technik namens HAAR Realisiert, das ist nen spezial Algorithmus mit Cascadefunktion für Objekterkennung auf Bildern und Videos. Dadurch kann man enorm Rechenpower sparen obwohl man stark komplexe Trackingberechnungen hat die ja auch mit möglich kleinster Latenz bei möglichst maximaler Bildwiederholrate stattfinden soll, das ganze darf 8.6ms nicht übersteigen muss aber konstante wiederum 8.6ms Latenz haben, alles drüber vernichtet bei geübten Menschen sofort das Immersive Augment Reality "Gefühl" HAt aber noch nen anderen Hintergrund, Signalwege ! Die müssen mit berechnet werden, ich muss jede verdammte Kabellaenge sei es nur 10cm mehr beim Monitor Kabel exakt berechnen damit ich die Signallaufzeit vom Kabel habe, sonst macht Beamer 1 mit nem 2.10m Kabel paar µs schneller Bild als Beamer 2 mit nem 2.50m Kabel. Das spielt eine enorme Rolle wie gelernt habe, ansonst ist 3D in ner CAVE unmöglich zumindest jenes was ich nutzen will / muss.
Also die API trackt einmal die Augen. Das ganze geht so, zuerst erkennt die API das gesicht in dem Bild, damit der "PC" keine 100 Millionen Bildpunkte in Echtzeit scannen und Analysieren muss erstellt man erstmal eine Maske, ein Gesicht hat immer eine Gewisse Grundform, dies nimmt man grob als Maske und laesst die API dort drinne eine "Kopferkennung" starten diese dient auch gleichzeitig für das Tracking der einzelnen Masken im gesicht, Im gesicht sind üblicherweise auch Nase Mund und co immer an der "gleichen" stelle. Also gibts ne Maske in dem Augenbereich, ne Maske im Nasenbereich, ne Maske im Mundbereich ( 3 Bezugspunkte für ein 3 Achs Koordinaten System wie es ein IR Headtracking System macht )

In den Augenbereichen gibts nochmal eine Maske welche die Grundform der Augen hat, diese wird dann letzendlich in Echtzeit nach 4 Bezugspunkten gescannt, linke mitte vom Elipsen Rand, Rechte seite ebenso, Mitte Augelid oben, Mitte Augelid unten.Und als Bonus die Pupille, für das Eyetracking :d

Nase gleiches Spielchen mit den Bezugspunkten und der Maske bei der Nase, Nasenlöcher, Nasenflügel, Nasenspitze, Nasenvorhof,

Und der Mund, da reichen die beiden Mundwinkel aus.

Und so hat der PC´le statt 60 Millonen Punkte nur knapp 6000-8000 Punkte die er scannen muss, und somit hab ich mit dem Pentium D auch nur ne Systemlast von 15% auf einem Core ! Bei 100-150mb Speicherverbrauch, allerdings bin ich auch erst bei 25hz angelangt, die Cam schafts leider nur Konstant 25fps zu machen, das liegt an meiner Modifikation *grml* is halt ne 10€ Billig Webcam gewesen.
Soviel zur Softwareseite, natürlich sollte klar sein das ich hier nicht auf details eingehe, da steckt mein ganz herzblut drinne,
Die Hardwareseite : Tja im moment ist es eine "etwas" von mir Modifizierte Webcam, daher auch die recht schlechte Bildquali auf dem Bild, aber das ist von mir gewollt.
Ein Pentium D 960 mit 2*3.6ghz und 8GB DDR2 Ram und die USB Webcam sind dafür verantwortlich. Das ganze wird aber noch modifiziert und zwar mit 120FPS Kameras.
Das Fotografierte Bild ist übrigends bei kompletter Dunkelheit entstanden, das es so hell aussieht das liegt an der Modifikation :d Aber auch wenn ich mich jetzt mit 5000 Ansilumen beleuchten lasse, dann aendert sich an dem Bild rein garnicht, es wird weder heller noch dunkler einfach weil die Cam nur 5% von dem Licht überhaupt "sieht"
So realisiere ich dann auch die ganze Caputure Geschichte ohne das irgendwo ne dabische LED oder irgendwas rumhaengt. Dazu brauch man Lediglich entweder Haarspray oder Herpespflaster und die Technik die ich gebastelt habe :d Klingt vieleicht etwas verrückt und komisch aber ey das waren die dinge die ich nachts um 2 hatte.

Achja das ganze ist übrigends so von mir programiert worden das bei der Headtracking API nicht nur der Kopf das Bild bewegt. Es werden die Augenbewegungen der Pupille ! getrackt. D.h Schaut man bei meiner Leinwand oben rechts ins Eck dann bewegt sich genau dahin z.b auch der Mauszeiger oder die Waffe im Spiel ( in meinem Fall erstmal Armed Assault 2 ) Es ist aber auch so gemacht das die Pupilen das Bild bewegen, es ist ja so dreht man den Kopf zur seite um etwas zu betrachten, dann bewegt man die Pupillen Automatisch mit, so ist es bei mir auch, drehst du den Kopf um etwas auf der Seite zu sehen dann wird das PupillenTracking zusammen mit dem Headtracking gemischt, ein minimalen Teil der Bildbewegung wird aus den Pupillen berechnet und der großteil aus dem Headtracking. So entsteht viel intensiver dieses Immersiv gefühl bereits bei ner 2D Leinwand bemerkt man das wirklich gut. Und zwar so gelöst die Feinen bewegungen realisiert man über die Pupillen, die Groben bewegungen übers Headtracking, wie es eben bei nem Menschen auch gesteuert ist im Hirn.

Was mir noch fehlt sind jetzt die schnittstellen zu den Games, aber auch hier ist das einzige problem lediglich meine Zeit *g*


Realisiert wird das ganze über OpenCV, ich bin leztendlich bei OpenCV gelandet und werd alles selbst programieren, OpenCV eignet sich perfekt für alles was ich vorhab, und C++ ist doch recht einfach. Auserdem kamm vor kurzen erst ein Brandneues Update ( seit 6 jahren ) was die ganze sache sehr interessant macht. Denn alle anderen Librarys die für sowas optimiert wurden sind teilweise 12 jahre alt und dementsprechend bassieren die meisten "fertigen" Anwendungen die man zur verfügung gestellt bekommt auf uralten Librarys das geht da los das 80% der CAVE Anwedungen nur mit 1024*786 laufen und DX8 nutzen oder nur OpenGL. Kein wunder das die meisten Cave anwendungen die man so sieht eine billigste Steinzeit Vektor Grafik zeigen oder uralte Games wie Quake und Unreal, oder das wenn überhaupt uralt Shuttertechnik genutzt wird, oder gar Analglyph für 3D. Ich bin Perfektionist und für mich kommt das nicht in frage. Deswegen schmeis ich auch gut 2 Wochen arbeit mal eben weg, das was ihr seht das waren lediglich 30 stunden Arbeit, davor hab ich 2 wochen gefudelt ohne ein ergebniss was mich annaehernd so befriedigt wie das jetzt.
Auserdem kann ich die API ohne probleme in kürzester Zeit umschreiben um somit mein Multitouch zu realisieren, nur mit dieser API kann ich weitaus mehr als nur 8 Touchpunkte machen, begrenzt wird das ganze nur von Rechenleistung. Auserdem kann ich teile der Codes der API nutzen für eine Motion Capture API bassierend auf OpenCV. Und damit habe schonmal 2 Grundprobleme für die CAVE gelöst naemlich die umsetzung vom Head Tracking und Motion Capturing in Echtzeit OHNE spürbare Latenz damit gehe ich ein Schritt naeher in Richtung Augmented Reality, natürlich das ganze ist noch weit von Augmented oder Mixed Reality entfernt, aber das ist der Schritt dahin, ich will Hololens in seiner ursprungsform haben auch ein grund warum ich bei OpenCV gelandet bin, Hololens bassiert dadrauf, und fragt mich nicht wie oder warum oder weshalb ich hab teile des SDK vom urprungs hololens auftreiben können, und auch noch genau die für mich wichtigsten API´s..... wisst ihr was naechsten Monat passiert wenn bei mir nen Paket mit 8 Kinect Kameras ankommt ? Ich denke mir ist es möglich Hololens nachzubauen, und zwar mit Projektoren wie es eigentlich vorgesehen ist. Die abwandlung mit der Brille ist nur die "billig" Version für den Consumer Markt.


Soo ich denke viel verdammte Theorie, vieleicht langweilig, vieleicht spannend, aber man erkennt wohl das ich mich intensiv die lezten Wochen mit theorie und Lernen befasst habe und daher so wenig neues hier gekommen ist. Ich sag euch bald gehts wieder Rund, das Trackingsystem reicht schonmal für meine Simulatoren, die muss ich nur mal schnell zusammenbasteln.


Edit : Grad ein kleinen haken entdeckt beim Eyetracking, das Headtracking funktioniert zwar perfekt wenn man das Gesicht zu seite dreht, und zwar funktioniert das sogar noch wenn der PC auf einem Auge 4 Trackingpunkte verloren hat, aber natürlich reist das Eyetracking dann ab was zur folge hat das alles anfaengt etwas zu zittern, das gleiche passiert auch wenn der Trackingpunkt der Pupille nicht mehr richtig erkannt wird liegt also definitiv nicht daran das die Trackingpunkte für eine Achse fast fehlen, ich weis auch schon woran das liegt, ich glaub das liegt daran das die Pupillen viel weichere bewegungen machen und dementsprechend weitaus mehr Rechenpower darein fliest um die Punkte nicht zittern zu lassen, das wird wohl für sorgen das komplett das ganzen Masken nicht Zittern da die nach den Augen auch ausgerichtet werden da hier die meisten markanten Bezugspunkte auch liegen und auch in der Augenmaske für das Headtracking die Pupillen als Trackingpunkt genommen werden. Nur müssen die mit genutzt werden sonst klappt der übergang von Eyetracking zum Headtracking nicht oder ich muss die Eyetrackingdaten mit den Headtrackingdaten vermischen und da extra was basteln und softwareseitig einfügen was auf die Latenz geht und je mehr unnötiges gebastel dabei ist umso unmöglicher wird das mit der Latenzgeschichte, ich muss ja deswegen schon mit 2 Netzwerkkarte arbeiten und 2 getrennten Netzwerken, jeder weitere Rechencluster brauch nen eigenes Netzwerk.
Tracking = 100Mbit Netzwerk
Motion Capture = 100Mbit Broadcast Netzwerk
Render Nodes = 1000Mbit Multicast Netzwerk
Master Cluster = 1000Mbit Multicast Netzwerk
Dazu kommt dann noch mein Rotes Netzwerk als Gateway nach drausen mit DMZ , mein Grünes Netzwerk was eigentlich mein Homenetzwerk ist. Mein Blaues Netzwerk was Wlan und Internet für meine Handy´s bzw Mobilen Geraete bereit stellt. Und mein Gelbes Netzwerk mit Wlan was ausschlieslich nur für meine Musikgeraete ist zwecks Mididaten über Wlan und LAN für alle PC´s und Geraete bereitzustellen.

Jetzt weis ich warum ich seit 15 jahren jede verdammte 100Mbit Netzwerkkarte aufgehoben hab die mir in die Finger gekommen ist, mist ist das ich jetzt die grenzen von meiner Firewall / Gateway / Server Kiste gekommen bin, 7 Netzwerkkarten waren ja kein Problem, 200Mbit Internet auch nicht bei vollauslastung, genausowenig wie 4 Netzwerke und 20 Clients Online die das Netzwerk vollauslasten.
Aber jetzt is ende gelaende von dem Pentium 4 HT, die 2Gb Ram sind fast voll, und ne IDE Festplatte kommt mit der Zugriffsgeschwindigkeit nicht mit wenn alles gelogt wird, hab zwar jetzt ne 12000K UW320 SCSI Platte drinne für die Logs was den speicher etwas entlastet hat. Dafür kotzt die CPU jetzt und die Kiste verbraet fast 220W und das für nen 24/7 Server der mein Internet bereitstellt zu ner Jahreszeit wo die Solarzellen aufm Dach nicht mehr genug Power bringen um die kiste "kostenlos" laufen zu lassen.
 
Zuletzt bearbeitet:
Ach verdammt, hier der Anhang nochmal DSCF5276.jpg
Da fehlen noch mehr bilder wie ich sehe
DreamOn.jpg DSCF5173.jpgDSCF5170.jpg
DSCF5206.jpg
Bisl Rechenpower
DSCF5178.jpg
 
Zuletzt bearbeitet:
Kleiner Cam Tipp: PlayStation Eye (für PS3). Ist inzwischen extrem günstig zu kriegen und schafft bei 640x480 75 FPS. Ich nutze eine auch für Headtracking (FaceTrackNoIR) am PC über genau der von dir gezeigten Facetracking API.

Einzig extra Treiber braucht man um sie am PC nutzen zu können, die inzwischen 3$ kosten: https://codelaboratories.com/products/

Ansonsten ist mir selbst aber keine Kamera bekannt, die so hohe FPS Zahlen bei einer für Headtracking brauchbaren Auflösung liefert. Mindestens 60 FPS wären schon gut, da dann bei Bewegungen weniger Bewegungsunschärfe generiert wird.
 
Zuletzt bearbeitet:
Gibt noch viel bessere Cams viel Billiger ;) Ich hab jetzt zwei 1024*786 IR Cams die 120fps konstant liefern, zerleg einfach die Wii Wireles Controller, da sind die naemlich drinne.

Ja die Facetracking API bei FaceTrackNoIR bassiert auch auf der OpenCV Lib, bzw nuzt FaceTrackNoIR ja garkeine eigene API sondern die FaceAPI von SeeingMachines die wiederum einfach nur die FaceTrack API von OpenCV ist und in Python programiert wurde. Drum auch diese verbflüffede aehnlichkeit, die Masken sind die Original Masken von OpenCV.
 
Ok, wenn man so viel basteln kann wie du ist das sicherlich kein Problem. ;)

120 FPS klingt natürlich nicht schlecht und die Auflösung ist auch besser. Wäre interessant die Kamera für Headtracking zu nutzen, allerdings kann ich mir das nicht selbst programmieren. ^^

Aber billiger? Eine PS Eye kostet auf Amazon rund 8 Euro. ^^

Ja, an der Maske auf dem Bild ist mir das aufgefallen.
 
Zuletzt bearbeitet:
Musst du eigentlich nichtmal selbst programieren. Wenn der ganze Krempel laeuft, dann geb ich auch preis wie ich das alles hinbekomme hab, dann kannst die teile auch nutzen ;) Komplett nachbauen wird das eh keiner können selbst wenn ich alles preisgebe, da wird dann doch die ein oder andere Hardware fehlen...

Übrigens Meilenstein Nr.2 ist in greifbarer naehe, muss nur noch einen Beamer Justieren, und die zwei weitere Feinjustieren. Und dann ist sie fertig meine erste "CAVE" ich hab etwas umdisponiert weil ich etwas probleme bekommen hab beim Grundkonzept, tut aber der sache kein abbruch, was ich jetzt gebastelt hab haut mich genauso aus den Socken, und ich glaub fast, das kommt noch "geiler"
Aber ihr wollt Bilder sehen, ihr bekommt Bilder :d

Na laesst sich erahnen was ich vorhab ? Sieht ja schon imposant aus, aber das wird noch imposanter
DSCF5296.jpg
Wie man sieht hab ich die ecken nun viel besser in den griff bekommen als bei meinen lezten versuchen, solangsam wird mir auch klar warum, ein 90° Winkel zu projezieren wird fast unmöglich wenn ich mit Zoom Arbeite. Daher arbeite ich nun mit 45° Winkeln.
DSCF5299.jpg
Und was gibt das ganze? Ich feuer mal Beamer Nr.3 an :coolblue:
DSCF5304.jpg

Und hier einmal ein "Panorama" Bild man sieht ja das ich noch einiges an justierarbeit habe, aber das haut einfach um wenn man in der mitte sitzt. Und das is so riesig das ich das nichtmal komplett aufs Bild bekomm.
DSCF5314.jpgDSCF5309.jpg

Wenn ich mit dem Bild fertig bin werd ich das Trackingsystem dazu aufbauen, hier muss ich mal rumspielen wie die optimale Position ist für die Cams, mein vorhaben ist auf jeden fall die Tracking Kamera(s) hinter der Leinwand zu plazieren so das sie durch die Leinwand "durchschauen" Ich hoffe meine idee wie ich das umsetze funktioniert auch.

Ich freu mich auf jeden fall tierisch wenn das Trackingsystem dann steht, und wenn das "Lightgun" System laeuft.
 
Zuletzt bearbeitet:
Ich bin sprachlos, Also Immersion hab ich definitiv erreicht, ich kann das nicht wiedergeben wie intensiv das wirkt.
DSCF5321.jpg
 
Ich kanns einfach nicht oft genug sagen... die Beamer sind abartig. ^^

Ein 3 Monitor Setup mit Beamern, nur ohne nervige Lücken und dann noch in extra Large. Ja, das kommt sicherlich gut, bei der Bildquali noch oben drauf. Da würd ich gern ED drauf zocken. ;)
 
DSCF5330.jpgDSCF5353.jpgDSCF5365.jpgDSCF5371.jpg

Und es geht OHNE Sli :d Die GTX580 berechnet komplett alles und als dritten Monitorausgang nutze ich ne ATI X300 PCI-E. Das funktioniert erstaunlich gut, wie man bei Unigine Heaven im DX11 Modus sehr gut sieht, da ruckelt nix, da zieht nix nach. Und bei den Screens, so unglaublich das klingen mag, ich hab nur so wenig FPS weil ich dödel vergessen hab Allen Wake zu beenden, das lief im hintergrund die ganze zeit mit waerend Unigine lief :d
Wo es allerdings dann massiv einbrüche gibt wenn ich nen zweiten Beamer an die X300 haenge, da sind dann die 8 Lanes anbindung zu wenig bei der X300 und ich denke da sollte dann doch irgendwann mal die grenze von der GTX580 erreicht sein, bin mal gespannt wie sich 2 oder gar 3 GTX580 so geben
Ich bin echt immer wiede erstaunt wieviel power ich aus meiner Kiste kitzeln kann.
 
Zuletzt bearbeitet:
ATI X300? Wie soll das gehen? Die ist doch von 2004?
 
*lach* Jep eine ATI X300. Die übernimmt keinerlei Rendering aufgaben, die macht lediglich die Bildausgabe die Rohdaten dazu liefert die GTX580 über den PCI-E. Ob es glauben magst oder nicht. Unigine Heaven laeuft im DX11 Modus und das rechte Bild stammt von der X300 waerend Links und die Mitte von der GTX580 direkt kommen. Da gibts nen paar tricks aber normalerweise geht das nur unter DX9. Aber was ist schon normal :P
 
Ok, das man das Bild von einer NVidia durch eine ATI jagen kann um sie als zusätzlicher Monitor Ausgang zu missbrauchen war mir neu.

In welcher Auflösung läuft das Ganze? 3x 1080p?
 
Ach du, das war mir auch neu bis ich es zum laufen gebracht habe :d Tja in der Not kommt man auf die besten sachen, das ganze habsch nur gemacht weil ich nicht warten wollt bis ich meine Ersatzgrafikkarte bekomm weil mir ja zuvor eine GTX580 abgeraucht ist, und die X300 flog da noch unbenutzt rum.

Die Auflösung liegt im moment bei 4200*1050@60hz
Ich weis noch garnicht ob ich überhaupt auf 1080 geh, hier hab ich das problem wieder das die Bilder zu breit werden und nicht hoch genug. Das ist ein riesen Problem grad was die Immersion sache angeht, das ist mir heute sehr gut beim rumexperimentieren aufgefallen, sobald du auch auch nur ansatzweise zu arg nach oben schaust und den Bildrand siehst bricht das ganze Immersion gefühl weg und es reist einen sofort wieder in die normale welt zurück. Mein naechstes ziel wird sein die Projektionsflaeche auf 2 Meter höhe zu bekommen und irgendwie doch die Decke realisierbar machen, den grad mit dem Eyetracking passierts zu oft das man an den Bildschirmrand oben schaut.
 
Ok, bei 4200*1050 kann ich mir noch vorstellen, dass das eine GTX 580 schafft. Das ist ja nur knapp die Hälfte von 4K und nicht wie bei vollen 1080p 3/4 4K.

Bei so etwas wären 4:3 Beamer halt besser gewesen als 16:9. So verschenkt man halt leider mögliche Pixel. Würde es nicht dennoch Sinn wenigsten zu gucken auf 1080 zu kommen? Wären dann eben 4320x1080, immerhin 255.600 Pixel mehr oder auch 255.600 weniger verschenkte Pixel, wie man es sehen will. ;)
 
Hast du eigentlich ne Family? Und wenn ja, was sagt die zu dem Gebastel? :d

Nicht falsche verstehen, ich find das alles grandios aber bei den Uhrzeiten zu denen du bastelst und wie dabei die Bude aussieht, das sieht nicht unbedingt kompatibel mit Frau und Kindern aus ;)
 
Naja normal hat ne GTX580 schon zu knappern bei Unigine Heaven in Extreme Setting mit vollen Tesslation und AA bei 1920*1080 da bin ich doch klitzeklein wenig erstaunt das meine das im Trippel Screen Setup hinbekommt ohne Dia Standbilder, vorallem das die Bandbreite vom PCI-E bus reicht, gott sei dank hab ich mir damals nen gutes Board gekauft.
Ich mag zwar auflösung verschenken, aber das ist eigentlich sogar gewollt dadurch hast du mehr spielraum beim Lensshift, oder anders gesagt ich kann die Beamer umschalten auf Nativen 4:3 Modus mit Nativen 1400*1050 ;-) Oder ich lass das Lensshift und erhöhe die "Pixeldichte" dazu muss man verstehen das DLP Beamer nicht in der Lage sind Pixel darzustellen.
Nur so laesst sich überhaupt die CAVE realisieren, nur die Option musst ich erstmal finden, ich kann mit den Beamern nur per Telnet richtig kommunizieren über Set und Get befehle die ich über TCP Sende und das ganze in nem 32byte Protocol naja und da ich mir die grundkenntnisse im programieren von Pixelware Engines angeeignet hab hab ich "gelernt" das ich mit der Engine auch mit nem 4 byte Mnemonic Ascii befehl komuniziere kann. Ach und drauf gekommen bin ich das ich mit der Pixelware Engine komuniziere über TCP als ich die Schaltung von dem Beamer analysiert hab. Deswegen klappt das nun auch mit dem EdgeBlending so gut, ich hab das ganze heut mal noch bisl verbesser und statt SoftEdge nutze ich jetzt ursprünglich geplannt das HardEdge Blending der Beamer, es ist nur verdammt laestig mit 3 Telnet Fenstern die beamer zu Programieren. Das ganze sieht dann übrigends so aus :
beamtel.jpg

So nebenbei probier ich auch die Firmware der Beamer auszulesen und zu Modifizieren, so bekomm ich hoffentlich auch bisl mehr Infos über den 3D Modus raus, das nervt naemlich gewaltig bei den Beamern bei dennen die Option aktiviert sind die kann ich nicht Filmen oder Fotografieren, es liegt aber definitiv an der Engine tausch ich naemlich die Motherboards mit den Engines aus gegen eine andere Engine aus ist das problem komplett verschwunden.

Nun Familie hehe bin ich vollkommen Inkompatibel, auch wenn ich schon laengst in dem Alter bin wo andere dann doch ruhiger, haeuslicher und Familiaer werden hab ich null drang dazu, ich bin zu arg Freak mit leib und seele für ne Familie das würde nie gut gehen können so wie ich mein lebensstil im moment ist, das vieleicht der klitzekleine nachteil wenn man es als solchen sieht. Aber ich bin glücklich und kann mein Potential ausschöpfen und solang ich das noch kann werd ich das auch weiter machen, die zeit kommt schon noch früh genug wo ich das nicht mehr kann, und dann werd ich mich auf ne Familie konzentrieren.
Ich hab aber nichtsdesto trotz tatsaechlich ne Freundin, und die nunja die ist hin und weg, aber manchmal doch gewaltig genervt :d Was ihr bisl bedenken müsst bei dem ganzen Chaos auf den Bildern, ich hab keine große Wohnung, ich bin Selbststaendig und 30% meiner Wohnung sind meine Arbeitstaette, d.h immer wenn ich Arbeite sieht die Bude aus als haett ne Bombe eingeschlagen, das kein dauerzustand da bin ich nur grad am Arbeiten morgens ins die Bude wieder Sauber, und so man mags kaum glauben fühlt sich auch meine Freundin bei mir wohl. Die Uhrzeiten sind wahrlich ein Problem, ich bins halt gewohnt Nachts zu arbeiten und wenig zu schlafen, liegt an 5 jahren 360 Tage im Jahr 12 Stunden Nachtschicht und das 7 Tage die Woche, auserdem arbeit ich auch als Privatermittler und Security / Werkschutz überwiegend Nachts.

So nochn paar Bilder

GTA5 in DX11 auf ner ATI X300 mit 128mb Ram, und es rennt mit 50fps bei sehr hohen Settings, der Trick ist, Rendern tuts die GTX580 und gibt das Bild über PCI-E an die X300 und nutzt diese als Displayadapter. Das ganze bringt übrigends DirectX von haus aus mit. Und es funzt unter DX11 weitaus besser als unter DX9.
DSCF5419.jpg


DSCF5416.jpg


Und hier nun das Setup mit HardEdge Blending
DSCF5413.jpgDSCF5407.jpgDSCF5403.jpg
DSCF5403.jpgDSCF5401.jpg

Farbkalibrierung muss ich noch anpassen, aber dazu wie die Ironie des Schicksals so will, brauch ich ne gescheite Digi Cam die man mit nem PC ansteuern kann
 
Zuletzt bearbeitet:
Nachtaktiv kenn ich, ich glaub manchmal ich bin in meinem früheren Leben eine Eule gewesen. Schon als kleines Kind die Nacht geliebt und das tute ich heute noch. ;)

Ahje, das die native 4:3 Auflösung, das erklärt alles, muss man auch erst mal wissen. ;)

Bei den kryptischen TCP Ausgaben geht wohl wirklich nichts ohne Doku.

Na dann gibts ja doch mal besser Bilder. :d
 
Ja vorerst müssen wir uns erstmal mit mieser Bildquali abgeben, wobei ich könnt mich auch mal mit meinem Lumia befassen, das ding soll doch angeblich so ne Top Kamera haben ( 930er ) Ich bin wieder bisl am rumspielen, HardEdge Blending mit Warping, ich glaub damit kann ich Leben, vorher haben mich einfach diese übergaenge genervt.
Resultat sieht man hier
DSCF5432.jpgDSCF5434.jpgDSCF5437.jpgDSCF5446.jpgDSCF5452.jpgDSCF5456.jpg


Eins ist auf jeden falls sicher, das installiere ich fest, Die Beamer kommen unter die Decke mit halterung, die mittlere Leiwand werd ich auf ne Pressspanplatte kleben und diese kommt dann in die Ecke rein. Darauf zu arbeiten ist der absolute Hammer, das hab ich mir schon immer gewünscht. Jetz noch ne Gestensteuerung und der Multitouch und mich wird man wohl nicht mehr so schnell sehen. Ich weis langsam warum sich das CAVE nennt :d :d
 
Zuletzt bearbeitet:
Hm, also ich seh immer noch einen Helligkeitsunterschied auf der mittleren Leinwand (ist dunkler), wäre es da nicht besser wie so eine Art Tapete über die Wand, über die Presspanplatte bis über die andere Wand (da wo halt die 3 Beamer hinstrahlen) zu kleben um ein einheitliches Bild zu haben? Vor allem aber eine, die keine Helligkeit schluckt. Wenn schon dann richtig machen. ;)

Die Übergänge sehen prima aus.
 
Wenn die Beamer diese Biegung ausgleichen können, würde ich auch eher so etwas nehmen, da fallen diese harten Kanten automatisch weg und es dürfte auch leichter sein das eigentliche Bild im Computer auch so wieder zu geben, dass die Perspektive auch wirklich stimmt. Bei normalen(!) Monitoren im 3er Setup kann man ja schlecht so eine Rundung hin kriegen, aber wenn das bei Beamern auch anders geht, wieso sollte man so eine schlechte Vorlage nehmen?

In vielen Baumärkten kann man sich ja auch Holz zurecht schneiden lassen und sich so einen passenden gekrümmten Holzrahmen zurecht schneiden lassen, dazu noch eine Einhängemechanik und man kann das Ganze über Eck einfach in die Wand an Schienen einhängen, womit es immer auch leicht abnehmbar ist. Über den Holzrahmen dann eine Leinwand gespannt, festgetackert und passt.

Braucht nur etwas handwerkliches Geschick und außer einem Bohrer, Schraubenzieher, einem Tacker und einem Metermaß und Stift kein besonderes Werkzeug. Schrauben natürlich nicht vergessen. Wenn man es komplexer macht könnte man mit Scharnieren auch noch die Leinwand in der Mitte Klappbar machen, um sie leichter zu verstauen oder zu transportieren. Gibt so viele Möglichkeiten, wenn man selbst baut und alles kein Hexenwerk. ^^
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh