Please use this identifier to cite or link to this item: http://hdl.handle.net/10773/10203
Title: AudioNavigator: using audio cues to support GPS-enabled guidance systems
Other Titles: AudioNavigator: áudio como suporte a sistemas de orientação com GPS
Author: Vieira, Roberto Gaspar
Advisor: Fernandes, José Maria Amaral
Cunha, João Paulo
Keywords: Engenharia de computadores
Computação móvel
Sistemas de posicionamento global
Navegação autónoma
Defense Date: 2012
Publisher: Universidade de Aveiro
Abstract: A oferta de dispositivos móveis para navegação e orientação tem aumentado ao longo dos últimos anos devido à revolução móvel, impulsionada pelo acesso generalizado a smartphones com GPS integrado e outras tecnologias semelhantes que fornecem informação geográfica, visando diferentes cenários de utilização tais como condução de veículos ou navegação pedestre. Porém, a forma como estes dispositivos interagem com o utilizador não e apropriada para indivíduos com dificuldades visuais nem para situações onde o utilizador não possa utilizar a visão para se orientar (e.g. equipas de primeiros socorros em missão de salvamento num local onde há fumo, nevoeiro ou noutras condições de visibilidade reduzida). Nos últimos anos, os sistemas de navegação audio têm sido apontados como uma possível solução para este problema. Nesta dissertação abordamos esta temática desenvolvendo um sistema - AudioNavigator - que fornece instruções via áudio. AudioNavigator é um sistema (aplicação) para dispositivos móveis Android capaz de converter sinais de áudio mono em sinais de audio espacial que são percebidos pelo utilizador como provenientes de uma determinada localização, orientando-o até à localização alvo. O objectivo principal do AudioNavigator é guiar um indivíduo equipado com um dispositivo móvel com GPS até um determinado local recorrendo apenas a instruções áudio. O sistema foi desenvolvido com base num modelo head-related transfer function (HRTF) que modula o tempo e intensidade das instruções áudio de forma a gerar uma percepção 3D do som para os utilizadores que envergam um par de auriculares. O AudioNavigator foi testado quanto à percepção espacial de 10 participantes que conseguiram identificar o ângulo correcto de determinado som em 63% das vezes, com uma margem de 30 graus. Além disso, o sistema foi testado em duas séries em campo aberto onde dois percursos, um composto por 12 e outro composto por 25 pontos geográficos, foram percorridos por 5 participantes, tendo estes apenas as orientações áudio do sistema como suporte. Os 5 participantes completaram os 10 caminhos com sucesso. Estes resultados demonstram o actual potencial dos dispositivos móveis para serem utilizados em cenários de navegação sem recurso a visão. O Audio-Navigator consiste numa prova de conceito para a utilização de sistemas de navegação áudio neste tipo de cenários.
Navigation and orientation assistive devices availability has been increasing over the years due to the "mobile revolution", propelled by the generalized accessibility to smartphone integrated GPS systems and other similar technologies that provide location information, targeting di erent usage scenarios such as car driving or pedestrian navigation. Nevertheless, the way these consumer devices interface with the users are not appropriate for visually impaired individuals nor to critical situations where users cannot rely on vision for navigation (e.g. rst responders involved in rescue procedures in dense smoke presence or other reduced visibility conditions). Over the past years, audio guidance systems have been pointed in the literature as a possible solution to this problem. In this thesis we address this topic by developing a system - AudioNavigator - that provides navigation via audio signatures. AudioNavigator is an Android mobile application that is able to convert monaural audio signals into spatial audio signals that are perceived by the user as coming from a certain direction, thus guiding him towards the target destination. The main objective of AudioNavigator is to guide an individual equipped with a GPS-enabled mobile device to a given destination through solely audio cues. The system was developed based on a "head-related transfer function" (HRTF) model that modulates time and intensity of audio pitch cues to generate 3D direction perceptions to users wearing a set of headphones. AudioNavigator was tested for angle perception with 10 volunteers that were able to select the correct angle based on the audio cues in 63% of the times within a 30 degrees margin. Furthermore, the system was tested in two open eld trials where two paths, composed of 12 and 25 waypoints, were tested by 5 users, solely relying on the audio guidance provided by the system. The 5 users completed all 10 paths with success. These results demonstrate the current potential of mobile devices to be used in non-visual navigation scenarios. AudioNavigator provides a proof of concept for the usage of audio navigation systems in such scenarios.
Description: Mestrado em Engenharia de Computadores e Telemática
URI: http://hdl.handle.net/10773/10203
Appears in Collections:UA - Dissertações de mestrado
DETI - Dissertações de mestrado

Files in This Item:
File Description SizeFormat 
tese_roberto vieira.pdf2.08 MBAdobe PDFView/Open


FacebookTwitterLinkedIn
Formato BibTex MendeleyEndnote Degois 

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.