Por favor, use este identificador para citar o enlazar este ítem: http://dspace.udla.edu.ec/handle/33000/8074
Tipo de material : bachelorThesis
Título : Videojuego simulador basado en el reconocimiento de frecuencias musicales en tiempo real utilizando realidad virtual
Autor : Loza Moreno, Eduardo Alberto
Tutor : Muñoz Cueva, Carlos Andrés
Palabras clave : VIDEOJUEGOS;REALIDAD VIRTUAL;RECONOCIMIENTO DE FRECUENCIAS
Fecha de publicación : 2017
Editorial : Quito: Universidad de las Américas, 2017
Citación : Loza Moreno, E. A. (2017). Videojuego simulador basado en el reconocimiento de frecuencias musicales en tiempo real utilizando realidad virtual (Tesis de pregrado). Universidad de las Américas, Quito.
Resumen : Proyecto sobre un videojuego simulador de realidad virtual que, mediante el reconocimiento de las frecuencias de una canción, modifica los aspectos físicos de los objetos que se encuentran alrededor del jugador mientras se encuentra en la simulación, permitiéndole interactuar con las manos el entono virtual...
Descripción : The project is about a virtual reality simulation that works using a song frequency recognition script that allows to change physics aspects of different objects that can be found around the player while he is in the simulator, and can interact with their own hand with the virtual environment. This simulation is working in Unity 5.5 and different systems like Oculus Rift DK2 and Leap Motion, using C numeral as a programming language in Visual Studio, the simulation have the capacity of being totally immersive and dynamic depending on the song frequencies, this frequencies are divided in different groups that represent different parts of a song for example the bass, the beat, etc, this frequency groups are in Hercios (Hz), that is why in the script this ones were transformed into numeric int, by the other hand, the animations of the dynamic models works with Frames per second (fps) or with scale units, so using the numeric values of the script we can modify the Frames per second (fps) and scale units values with the update() function, that means the calculation of frequencies will be repeating 60 times per second converting this in a real time recognition and making of this simulation really pleasant for the user. Then, using the trigger property of the models to recognize when the user touch and object with their hand, is generated a 3D model that join the bones module that provide the Leap Motion at the moment it detect a hand, and finally the code use the OnTriggerEnter() function to manipulate the behavior in case the event of touching an object activates, as a result is obtained a simulation with a dynamic environment that changes depending the music, totally immersive and interactive with the hands, and very attractive to the user
URI : http://dspace.udla.edu.ec/handle/33000/8074
Aparece en las colecciones: Ingeniería en Sistemas de Computación e Informática

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
UDLA-EC-TIS-2017-10.pdf3,43 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons