توجه به اثر شبکه:شبکه های مبتنی بر خود مراقبتی برای پیش بینی واکنش موثر از فیلم ها(اصل مقاله به همراه ترجمه )

- توجه به اثر شبکه:شبکه های مبتنی بر خود مراقبتی برای پیش بینی واکنش موثر از فیلم ها(اصل مقاله به همراه ترجمه )

توجه به اثر شبکه:شبکه های مبتنی بر خود مراقبتی برای پیش بینی واکنش موثر از فیلم ها(اصل مقاله به همراه ترجمه )

مقاله مربوط به فیلم و سینما در شبکه های مجازی می باشد .اصل مقاله به صورت پی دی اف تقریبا 8 صفحه متراکم می باشد و ترجمه آن به صورت وورد قابل ویرایش تقریبا 20 صفحه است.

نمونه متن فارسی:

توجه به اثر شبکه:شبکه های مبتنی بر خود مراقبتی برای پیش بینی واکنش موثر از فیلم ها

Ha Thi Phuong Thao*, Balamurali B.T.*, Dorien Herremans*, Gemma Roigt

*Singapore University of Technology and Design, 8 Somapah Rd, Singapore 48737

t Goethe University Frankfurt, 60323 Frankfurt, Germany

Email: thiphuongthao_ha@mymail.sutd.edu.sg, {balamurali_bt, dorien_herremans }@sutd.edu.sg, roig@cs.uni-frankfurt.de

چکیده-ما انواع مختلفی از شبکه مبتنی بر خود مراقبتی را برای پیش بینی احساسات از فیلم ها , که آن را توجه به اثر شبکه  می نامیم را پیشنهاد می دهیم. ما هر دو مورد سمعی و بصری را در نظر می گیریم و رابطه بین چندین روش را با استفاده از مکانیسم خود مراقبتی به شیوه ای جدید ویژگی ها و خصلت های استخراجی برای پیش بینی احساسات  را ترکیب می کنیم. ما آن را با مجموع نمونه موقتی خود مراقبتی بر اساس مدل مقایسه می کنیم , که در مورد ما , اجازه به تحت سلطه قرار دادن رابطه نمایش های زمانی فیلم را می دهد در حالی که به صورت پی در پی متوجه وابستگی های احساسی واکنشی می باشد. ما اثر بخشی معماری پیشنهادی خود را در مجموعه داده گسترده COGNIMUSE (1), (2)نشان می دهیم و تاثیر احساسی قرون وسطایی 2016 را جز وظایف فیلم ادا می کند(3) , که شامل فیلم هایی با حاشیه نویسی احساسی است. نتایج ما نشان می دهند که استفاده از مکانیزم خود مراقبتی بر روی خصلت های سمعی و بصری متفاوت نسبت به زمان , موثر تر برای پیش بینی احساس می باشد.رویکرد ما (در این مقاله ) همچنین اثبات کرده است که از مدل های پیشرفته برای پیش بیینی احساسات بهتر عمل می کند. کد (آدرس ) بازتولید نتایج ما با پیاده سازی در دسترس است که عبارت است از: https://github.com/ivyhaOlO/AttendAffectNet..

نمونه متن انگلیسی:

AttendAffectNet: Self-Attention based Networks for

Predicting Affective Responses from Movies

Ha Thi Phuong Thao*, Balamurali B.T.*, Dorien Herremans*, Gemma Roigt

*Singapore University of Technology and Design, 8 Somapah Rd, Singapore 48737

t Goethe University Frankfurt, 60323 Frankfurt, Germany

Email: thiphuongthao_ha@mymail.sutd.edu.sg, {balamurali_bt, dorien_herremans }@sutd.edu.sg, roig@cs.uni-frankfurt.de

Abstract-In this work, we propose different variants of the

self-attention based network for emotion prediction from movies,

which we call AttendAffectNet. We take both audio and video into

account and incorporate the relation among multiple modalities

by applying self-attention mechanism in a novel manner into

the extracted features for emotion prediction. We compare it

to the typically temporal integration of the self-attention based

model, which in our case, allows to capture the relation of

temporal representations of the movie while considering the

sequential dependencies of emotion responses. We demonstrate

the effectiveness of our proposed architectures on the extended

COGNIMUSE dataset [11, [2] and the MediaEval 2016 Emotional

Impact of Movies Task [3], which consist of movies with emotion

  1. Our results show that applying the self-attention

mechanism on the different audio-visual features, rather than

in the time domain, is more effective for emotion prediction.

Our approach is also proven to outperform many state-ofthe-

art models for emotion prediction. The code to reproduce

our results with the models’ implementation is available at:

https://github.com/ivyhaOlO/AttendAffectNet.

برخی از منابع:

 

[l] N. Malandrakis, A. Potarnianos, G. Evangelopoulos, and A. Zlatintsi,

“A supervised approach to movie emotion tracking,” in 20i l iEEE i nt.

Conf on acoustics, speech and signal processing (ICASSP). IEEE,

2011, pp. 2376-2379.

[2] A. Zlatintsi, P. Koutras, G. Evangelopoulos, N. Malandrakis,

  1. Efthymiou, K. Pastra, A. Potamianos, and P. Maragos, “Cognimuse:

A multimodal video database annotated with saliency, events, semantics

and emotion with application to summarization,” EURASIP Journal on

Image and Video Processing, vol. 2017, no. 1, p. 54, 2017.

[3] E. Dellandrea, M. Huigsloot, L. Chen, Y. Baveye, and M. Sjoberg, The

mediaeval 2016 emotional impact of movies task.” in MediaEval, 2016.

[4] J. J. Gross and R. W. Levenson, Emotion elicitation using films,”

Cognition & emotion, vol. 9, no. 1, pp. 87-108, 1995.

[5] T. Chambel, E. Oliveira, and P. Martins, Being happy, healthy and

whole watching movies that affect our emotions,in Int. Conf on

Affective Computing and Intelligent Interaction. Springer, 2011, pp.

35-45.

[6] L. Fernandez-Aguilar, B. Navarro-Bravo, J. Ricarte, L. Ros, and J. M.

Latorre, How effective are films in inducing positive and negative

emotional states? a metaanalysis,” PloS one, vol. 14, no. 11, 2019.

[7] L. Jaquet, B. Danuser, and P. Gomez, “Music and felt emotions: How

systematic pitch level variations affect the experience of pleasantness

and arousal,” Psychology of Music, vol. 42, no. 1, pp. 51-70, 2014.

[8] S. E. Kahou, X. Bouthillier, P. Lamblin, C. Gulcehre, V. Michalski,

  1. Konda, S. Jean, P. Froumenty, Y. Dauphin, N. BoulangerLewandowski

et al., “Emonets: Multimodal deep learning approaches for

emotion recognition in video,” Journal on Multimodal User Interfaces,

  1. vo 10, no. 2, pp. 99-111 , 2016.

[9] P. Hu, D. Cai, S. Wang, A. Yao, and Y. Chen, “Learning supervised

scoring ensemble for emotion recognition in the wild,” in Proc. of the

19th ACM Int. Conf on multimodal interaction, 2017, pp. 553-560.

[10] S. Ebrahimi Kahou, V. Michalski, K. Kanda, R. Memisevic, and C. Pal,

Recurrent neural networks for emotion recognition in video,” in Proc.

of the 20i5 ACM on int. Conf. on Multimodal interaction, 2015, pp.

467-474.

[I I] P. Ekman, “An argument for basic emotions,” Cognition & emotion,

  1. 6, no. 3-4, pp. 169-200, 1992.

[1 2] G. Colombetti, “From affect programs to dynamical discrete emotions,”

Philosophical Psychology, vol. 22, no. 4, pp. 407-425, 2009.

[13] C. E. Osgood, W. H. May, M. S. Miron, and M. S. Miron, Crosscultural

universals of affective meaning. uni. of Illinois Press, 1975, vol. 1.

[14] P. J. Lang, “Cognition in emotion: Concept and action,Emotions,

cognition, and behavior, pp. 192-226, 1984.

برای دانلود کلیک کنید