Please use this identifier to cite or link to this item: http://hdl.handle.net/10773/16406
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorTeixeira, António Joaquim da Silvapt
dc.contributor.advisorDias, José Miguel de Oliveira Monteiro Salespt
dc.contributor.authorVieira, Diogo da Cruzpt
dc.date.accessioned2016-12-06T09:55:08Z-
dc.date.available2016-12-06T09:55:08Z-
dc.date.issued2015-
dc.identifier.urihttp://hdl.handle.net/10773/16406-
dc.descriptionMestrado em Engenharia de Computadores e Telemáticapt
dc.description.abstractA investigação em Interação Humano-Computador (IHC) explora a criação de novos cenários e formas de utilização de dispositivos, permitindo que aqueles com menos capacidades ou deficiências possam também utilizar a tecnologia. Projetos como o European AAL PaeLife ou IRIS exploram o uso de múltiplas modalidades para atingir esse objetivo. Esta tese apresenta uma evolução da plataforma multimodal existente e utilizada nos projetos AAL anteriores com os seguintes três principais pontos: adição de um novo componente de modalidade à lista de modalidades já disponíveis que permite a interação com o olhar; a criação de um sistema de pesquisa para encontrar outros dispositivos que executam a mesma plataforma multimodal possibilitando a troca de contexto entre os dois dispositivos; permitir que os componentes de modalidade existentes possam ser usados em conjunto com a nova modalidade de olhar através da criação de um processo de fusão na plataforma. Estas melhorias foram apresentadas em cenários relacionados aos usados no PaeLife e IRIS, para os idosos e para uma criança com uma desordem do espectro autista.pt
dc.description.abstractThe research in Human-Computer Interaction (HCI) explores the creation of new scenarios and forms of using devices, enabling those with less capacities or impaired to also use technology. Projects such as the European AAL PaeLife or IRIS explore the use of multiple modalities to achieve that goal. This thesis presents an enhancement to the existing multimodal framework used on the previous AAL project with the main three points: addition of a new modality component to the list of available modalities that allow the interaction using gaze; the creation of a search system for finding other devices running the same multimodal framework and enable the exchange of context between the two devices; enable the existing modality components to be used together with the new gaze modality by adding a fusion process to the framework. These improvements were presented in scenarios related to the ones used on PaeLife and IRIS, for the elderly and for a child with an autistic spectrum disorder.pt
dc.language.isoengpt
dc.publisherUniversidade de Aveiropt
dc.rightsopenAccesspor
dc.subjectEngenharia de computadores e telemáticapt
dc.subjectInteracção homem-computadorpt
dc.subjectAplicações de computadorespt
dc.subject.otherASDpt
dc.subject.otherHCIpt
dc.subject.otherGazept
dc.subject.otherModalitypt
dc.subject.otherMultimodal frameworkpt
dc.subject.otherMulti-devicept
dc.subject.otherModalities fusionpt
dc.titleEnhanced multimodal interaction framework and applicationspt
dc.title.alternativeEvolução de uma plataforma de interação multimodal e aplicaçõespt
dc.typemasterThesispt
thesis.degree.levelmestradopt
thesis.degree.grantorUniversidade de Aveiropt
dc.identifier.tid201572753-
Appears in Collections:UA - Dissertações de mestrado
DETI - Dissertações de mestrado

Files in This Item:
File Description SizeFormat 
Tese.pdf9.34 MBAdobe PDFView/Open


FacebookTwitterLinkedIn
Formato BibTex MendeleyEndnote Degois 

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.