توجه به اثر شبکه:شبکه های مبتنی بر خود مراقبتی برای پیش بینی واکنش موثر از فیلم ها(اصل مقاله به همراه ترجمه )
مقاله مربوط به فیلم و سینما در شبکه های مجازی می باشد .اصل مقاله به صورت پی دی اف تقریبا 8 صفحه متراکم می باشد و ترجمه آن به صورت وورد قابل ویرایش تقریبا 20 صفحه است.
نمونه متن فارسی:
توجه به اثر شبکه:شبکه های مبتنی بر خود مراقبتی برای پیش بینی واکنش موثر از فیلم ها
Ha Thi Phuong Thao*, Balamurali B.T.*, Dorien Herremans*, Gemma Roigt
*Singapore University of Technology and Design, 8 Somapah Rd, Singapore 48737
t Goethe University Frankfurt, 60323 Frankfurt, Germany
Email: thiphuongthao_ha@mymail.sutd.edu.sg, {balamurali_bt, dorien_herremans }@sutd.edu.sg, roig@cs.uni-frankfurt.de
چکیده-ما انواع مختلفی از شبکه مبتنی بر خود مراقبتی را برای پیش بینی احساسات از فیلم ها , که آن را توجه به اثر شبکه می نامیم را پیشنهاد می دهیم. ما هر دو مورد سمعی و بصری را در نظر می گیریم و رابطه بین چندین روش را با استفاده از مکانیسم خود مراقبتی به شیوه ای جدید ویژگی ها و خصلت های استخراجی برای پیش بینی احساسات را ترکیب می کنیم. ما آن را با مجموع نمونه موقتی خود مراقبتی بر اساس مدل مقایسه می کنیم , که در مورد ما , اجازه به تحت سلطه قرار دادن رابطه نمایش های زمانی فیلم را می دهد در حالی که به صورت پی در پی متوجه وابستگی های احساسی واکنشی می باشد. ما اثر بخشی معماری پیشنهادی خود را در مجموعه داده گسترده COGNIMUSE (1), (2)نشان می دهیم و تاثیر احساسی قرون وسطایی 2016 را جز وظایف فیلم ادا می کند(3) , که شامل فیلم هایی با حاشیه نویسی احساسی است. نتایج ما نشان می دهند که استفاده از مکانیزم خود مراقبتی بر روی خصلت های سمعی و بصری متفاوت نسبت به زمان , موثر تر برای پیش بینی احساس می باشد.رویکرد ما (در این مقاله ) همچنین اثبات کرده است که از مدل های پیشرفته برای پیش بیینی احساسات بهتر عمل می کند. کد (آدرس ) بازتولید نتایج ما با پیاده سازی در دسترس است که عبارت است از: https://github.com/ivyhaOlO/AttendAffectNet..
نمونه متن انگلیسی:
AttendAffectNet: Self-Attention based Networks for
Predicting Affective Responses from Movies
Ha Thi Phuong Thao*, Balamurali B.T.*, Dorien Herremans*, Gemma Roigt
*Singapore University of Technology and Design, 8 Somapah Rd, Singapore 48737
t Goethe University Frankfurt, 60323 Frankfurt, Germany
Email: thiphuongthao_ha@mymail.sutd.edu.sg, {balamurali_bt, dorien_herremans }@sutd.edu.sg, roig@cs.uni-frankfurt.de
Abstract-In this work, we propose different variants of the
self-attention based network for emotion prediction from movies,
which we call AttendAffectNet. We take both audio and video into
account and incorporate the relation among multiple modalities
by applying self-attention mechanism in a novel manner into
the extracted features for emotion prediction. We compare it
to the typically temporal integration of the self-attention based
model, which in our case, allows to capture the relation of
temporal representations of the movie while considering the
sequential dependencies of emotion responses. We demonstrate
the effectiveness of our proposed architectures on the extended
COGNIMUSE dataset [11, [2] and the MediaEval 2016 Emotional
Impact of Movies Task [3], which consist of movies with emotion
- Our results show that applying the self-attention
mechanism on the different audio-visual features, rather than
in the time domain, is more effective for emotion prediction.
Our approach is also proven to outperform many state-ofthe-
art models for emotion prediction. The code to reproduce
our results with the models’ implementation is available at:
https://github.com/ivyhaOlO/AttendAffectNet.
برخی از منابع:
[l] N. Malandrakis, A. Potarnianos, G. Evangelopoulos, and A. Zlatintsi,
“A supervised approach to movie emotion tracking,” in 20i l iEEE i nt.
Conf on acoustics, speech and signal processing (ICASSP). IEEE,
2011, pp. 2376-2379.
[2] A. Zlatintsi, P. Koutras, G. Evangelopoulos, N. Malandrakis,
- Efthymiou, K. Pastra, A. Potamianos, and P. Maragos, “Cognimuse:
A multimodal video database annotated with saliency, events, semantics
and emotion with application to summarization,” EURASIP Journal on
Image and Video Processing, vol. 2017, no. 1, p. 54, 2017.
[3] E. Dellandrea, M. Huigsloot, L. Chen, Y. Baveye, and M. Sjoberg, “The
mediaeval 2016 emotional impact of movies task.” in MediaEval, 2016.
[4] J. J. Gross and R. W. Levenson, “Emotion elicitation using films,”
Cognition & emotion, vol. 9, no. 1, pp. 87-108, 1995.
[5] T. Chambel, E. Oliveira, and P. Martins, “Being happy, healthy and
whole watching movies that affect our emotions,” in Int. Conf on
Affective Computing and Intelligent Interaction. Springer, 2011, pp.
35-45.
[6] L. Fernandez-Aguilar, B. Navarro-Bravo, J. Ricarte, L. Ros, and J. M.
Latorre, “How effective are films in inducing positive and negative
emotional states? a meta–analysis,” PloS one, vol. 14, no. 11, 2019.
[7] L. Jaquet, B. Danuser, and P. Gomez, “Music and felt emotions: How
systematic pitch level variations affect the experience of pleasantness
and arousal,” Psychology of Music, vol. 42, no. 1, pp. 51-70, 2014.
[8] S. E. Kahou, X. Bouthillier, P. Lamblin, C. Gulcehre, V. Michalski,
- Konda, S. Jean, P. Froumenty, Y. Dauphin, N. BoulangerLewandowski
et al., “Emonets: Multimodal deep learning approaches for
emotion recognition in video,” Journal on Multimodal User Interfaces,
- vo 10, no. 2, pp. 99-111 , 2016.
[9] P. Hu, D. Cai, S. Wang, A. Yao, and Y. Chen, “Learning supervised
scoring ensemble for emotion recognition in the wild,” in Proc. of the
19th ACM Int. Conf on multimodal interaction, 2017, pp. 553-560.
[10] S. Ebrahimi Kahou, V. Michalski, K. Kanda, R. Memisevic, and C. Pal,
“Recurrent neural networks for emotion recognition in video,” in Proc.
of the 20i5 ACM on int. Conf. on Multimodal interaction, 2015, pp.
467-474.
[I I] P. Ekman, “An argument for basic emotions,” Cognition & emotion,
- 6, no. 3-4, pp. 169-200, 1992.
[1 2] G. Colombetti, “From affect programs to dynamical discrete emotions,”
Philosophical Psychology, vol. 22, no. 4, pp. 407-425, 2009.
[13] C. E. Osgood, W. H. May, M. S. Miron, and M. S. Miron, Cross–cultural
universals of affective meaning. uni. of Illinois Press, 1975, vol. 1.
[14] P. J. Lang, “Cognition in emotion: Concept and action,” Emotions,
cognition, and behavior, pp. 192-226, 1984.