Skip to content

Latest commit

 

History

History
79 lines (51 loc) · 3.65 KB

File metadata and controls

79 lines (51 loc) · 3.65 KB

Video Opinion Mining

Esse projeto consiste na elaboração de um método capaz de extrair emoções em tempo real de um vídeo, organizando-as em um mapa de calor sobre as dimensões de arousal-valence.

Ele contém uma classe principal, VEMProcessor que com um simples comando já classifica o vídeo quanto à opinião extraída das faces presentes no vídeo, do áudio das falas e da transcrição desse áudio, já gerando mapas de calor para as três categorias e um multimodal envolvendo o áudio e a transcrição.

Também possui outras 5 classes que podem ser customizadas para alterar o processo de extração de opiniões ou a geração do mapa de calor.

  • VideoSegmenter
    • Transforma um arquivo mp4 em um dataframe do Pandas contendo cada frase do vídeo, suas timestamps e o segmento do vídeo que contém a frase
  • OpinionExtractionModel
    • Contém os modelos que serão usados para realizar a extração de opinião da trancrição, áudio e vídeo
  • OpinionExtractor
    • Responsável por aplicar os modelos em cada segmento de vídeo
  • MultimodalOpinionExtractor
    • Extrai opiniões multimodais das classificações já realizadas pelo extrator de opinião da transcrição e do áudio
  • EmotionMapGenerator
    • Gera um heatmap com o dataframe desde que ele tenha sido classificado quanto as emoções. Isso pode ser feito para qualquer modalidade

Aqui tem um exemplo de heatmap gerado

tutorial.mp4

Links Importantes

Documentação: https://vem.readthedocs.io/en/latest/

Exemplo de uso do pip https://colab.research.google.com/drive/1sYAYRxFdpa86Huxm-KVkEvQo6x8ZmgS6?authuser=1#scrollTo=yF78bgHtziJ6

Apresentação no Canvas explicando o projeto (versão antiga do projeto cahamda VIEMR) https://www.canva.com/design/DAFy1Pywr0Q/F6_WBK5Bjz12OHZG8P4V8Q/edit https://sol.sbc.org.br/index.php/eniac/article/view/25746/25562

Artigo do ENIAC publicado sobre o assunto elaborado pelo colega Gabriel Natalhttps://sol.sbc.org.br/index.php/eniac/article/view/25746/25562

Fontes para os modelos utilizados: Github do whisperx(transcrição) https://github.com/m-bain/whisperX

Hugging Face do tradutor da Unicamp https://huggingface.co/unicamp-dl/translation-pt-en-t5

Site oficial do goemotions (texto) https://blog.research.google/2021/10/goemotions-dataset-for-fine-grained.html?m=1

Github contendo a implementação do classificador HUBERT (áudio) https://github.com/m3hrdadfi/soxan

Github do deepface(vídeo) https://github.com/serengil/deepface

Este projeto foi apoiado pelo Ministério da Ciência, Tecnologia e Inovações, com recursos da Lei no 8.248, de 23 de outubro de 1991, no âmbito do PPI-SOFTEX, coordenado pela Softex e publicado Residência em TIC 13, DOU 01245.010222/2022-44.

Um agradecimento ao projeto da Motorola e ao C4AI por financiarem e fortalecerem pesquisas no âmbito do Centro de IA