Dazu möchte ich die Position der Person relativ zum iPhone nehmen und das View Frustum entsprechend aufklappen. Dann müsste ich die 3D Elemente nur einmal im Raum rendern und hätte als einzige Berechnung die Bestimmung der Person (Orientierung & Position).
Wisst ihr wie man das bei einem mobilen Endgerät macht? Reicht dort die Berechnung mittels accelerometer & gps aus? Welchen Wert von glFrustum() müsste man anpassen? Muss ich gluLookAt setzen? Hier habe ich noch einige Verständnisprobleme
Vielleicht kann mir da einer auf die Sprünge helfen!!! Wäre sehr sehr dankbar
Wisst ihr wie man das bei einem mobilen Endgerät macht? Reicht dort die Berechnung mittels accelerometer & gps aus?
Also GPS ist hier viel zu ungenau. Ziviles GPS hat irgendwie eine Auflösung im Bereich von Metern....du bräuchtest da Millimeter. Die scheinen das da über einen Lagesensor zu realisieren, daher wirkt das etwas träge.
Richtig gut wäre es, wenn du den Benutzer filmst und in diesem Videostream ständig seine Augen trackst. Dann hättest du die exakte Augenposition, allerdings würde natürlich schon einiges an Rechenleistung nur für die Augenerkennung draufgehen. Falls dich das interessiert, suche mal nach "Viola-Jones". Allerdings ist die Kamera beim I-Phone wahrscheinlich auf der falschen Seite angebracht.
Die Projektion musst du höchst wahrscheinlich nicht ändern, so genau kannst du den Abstand zum Benutzer mit dem Beschleunigungsensor gar nicht ermitteln. Auch müsstest du vor jeder Benutzung erst kalibrieren. Ich denke wenn du einfach nur die Szene entsprechend der Daten vom Beschleunigungsensor rotierst siehst das schon ganz gut aus. (kann mich aber auch irren )
Ich denke wenn du einfach nur die Szene entsprechend der Daten vom Beschleunigungsensor rotierst siehst das schon ganz gut aus. (kann mich aber auch irren )
Ich glaube so wird das in dem Video auch gemacht. Man sieht, wie das Aquarium bewegt wird, dann ist Stille und es "poppt" in die Ausgangstellung zurück.
_________________ Denn wer nur schweigt, weil er Konflikte scheut, der macht Sachen, die er hinterher bereut. Und das ist verkehrt, denn es ist nicht so schwer, jeden Tag zu tun als ob's der letzte wär’. Und du schaust mich an und fragst ob ich das kann. Und ich denk, ich werd' mich ändern irgendwann. _________________Farin Urlaub - Bewegungslos
Also ich kann mit dem Handy leider nicht das Gesicht oder die Augen tracken. Daher würde ich die Position einfach relativ zum Handy abschätzen. Somit sollte der 3D Effekt trotzdem recht gut sein *g*
Nur verstehe ich nicht so recht wie das Ganze umgesetzt wurde. Bei diesem Video : http://www.youtube.com/watch?v=xPICxqLeZ-k wird dieser Ansatz auch gemacht. Er hat auf der Webseite geschrieben, dass er mit den Beschleunigungssensordaten das View Frustum berechnet hat.... Doch wie kann man das? Hier fehlt mir ein bisschen das Verständnis. Wie kann man dort einen 3D Effekt erzeugen? Musst man alle Elemente in der Szene mit diesen Beschleunigungssensordaten verknüpfen?
genau das möchte ich eben nicht Der Benutzer soll draußen stehen und einen 3D-Eindruck entsprechend der Orientierung&Position des Handys bekommen. Das Ganze ist als ein Layer über die Kamera realisiert. Mir fehlt nur zur Zeit das nötige KnowHow um so etwas umzusetzen...
Muss ich glFrustum bearbeiten oder eine Tranfsormationsmatrix anhand der Beschleunigungssensoren berechnen und dann entsprechend anzeigen lassen?
Mitglieder in diesem Forum: 0 Mitglieder und 3 Gäste
Du darfst keine neuen Themen in diesem Forum erstellen. Du darfst keine Antworten zu Themen in diesem Forum erstellen. Du darfst deine Beiträge in diesem Forum nicht ändern. Du darfst deine Beiträge in diesem Forum nicht löschen. Du darfst keine Dateianhänge in diesem Forum erstellen.