ISE1-Teses
URI permanente para esta coleção:
Navegar
Percorrer ISE1-Teses por Objetivos de Desenvolvimento Sustentável (ODS) "ODS 4 — Educação de Qualidade"
A mostrar 1 - 1 de 1
Resultados por página
Opções de ordenação
- Multimodal sentiment classifier for various environments contextsPublication . Silva, Nelson André Sardo da; Cardoso, Pedro J. S.; Rodrigues, João M. F.A análise de sentimentos é um método eficaz para determinar a opinião pública. As publicações nas redes sociais têm sido objeto de muita investigação, principalmente devido à enorme e diversificada base de utilizadores dessas plataformas que partilham regularmente opiniões sobre praticamente todos os assuntos. No entanto, nas publicações (posts) compostas por um par texto-imagem, a descrição escrita pode ou não transmitir o mesmo sentimento que a imagem. Este estudo utiliza modelos de aprendizagem automática para a avaliação automática do sentimento de pares de texto e imagem(ns). Os sentimentos derivados da imagem e do texto são avaliados de forma independente e associados (ou não) para formar o sentimento global, devolvendo o sentimento da publicação e a discrepância entre os sentimentos representados pelo par texto-imagem. A classificação do sentimento da imagem é dividida em 4 categorias: “interior” (IND), “exterior feito pelo homem” (OMM), “exterior não feito pelo homem” (ONMM) e “interior/exterior com pessoas em segundo plano” (IOwPB). No final, os resultados são consolidados num modelo de classificação do sentimento da imagem (ISC), que pode ser comparado com um classificador holístico do sentimento da imagem (HISC), mostrando que o ISC obtém melhores resultados do que o HISC. Para um subconjunto de dados do Flickr, a classificação do sentimento das imagens, por categoria, atingiu uma exatidão de 68,50% para IND, 83,20% para OMM, 84,50% para ONMM, 84,80% para IOwPB e 76,45% para ISC, em comparação com 65,97% do HISC. Para a classificação do sentimento do texto, num subconjunto da base de dados B-T4SA, foi alcançada uma exatidão de 92,10%. Por fim, a combinação texto-imagem, num conjunto de dados privado, obteve uma exatidão de 78,84%.
