ABSTRAKSI: Salah satu bentuk interaksi antara manusia-komputer atau manusia-mesin adalah ucapan. Ucapan terdiri dari kata yang diucapkan dengan cara tertentu. Berdasarkan informasi yang terkandung, ucapan dapat dibagi menjadi linguistic information dan paralingustic information. Paralinguistic information mengacu kepada pesan tersirat yang terkandung di dalam ucapan, seperti emosi dari pengucap. Emosi yang akan diidentifikasi pada penelitian ini adalah senang, sedih, marah, jijik, dan netral. Emosi tersebut biasa disebut archetypal emotion.
Sinyal suara direpresentasikan dengan beberapa ciri, yaitu: fitur Linear Predictive Coding (LPC), turunan orde pertama koefisien cepstral, fundamental frequency, dan energi. Hidden Markov Model (HMM) digunakan untuk klasifikasi emosi. Performa dari sistem akan diukur berdasarkan akurasi dalam ketepatan deteksi emosi.
Hasil penelitian menunjukkan bahwa rata-rata akurasi yang dihasilkan sistem adalah 60.65% dan yang terbaik adalah 70.70% dalam mengenali 5 jenis emosi. Hasil penelitian juga menunjukkan bahwa fitur LPC yang dikombinasikan dengan fundamental frequency dan energi akan menghasilkan akurasi yang lebih tinggi dalam pendeteksian emosi melalui suara.Kata Kunci : ucapan, emosi, archetypal, LPC, HMM.ABSTRACT: Speech is one of the form of human-computer or human-machine interaction. Speech consist of words that pronounced with specific manner. There are two types of information in speech, lingustic information and paralinguistic information. Paralinguistic information refers to the implicit message such as emotional state of the speaker. Emotions that will be identified in this research are happy, sad, anger, disgust, and neutral. They are often refered to archetypal emotion.
Speech signal will be represented with several features, such as: Linear Predictive Coding (LPC) feature, first derivation of cepstral coefficients, fundamental frequency, and energy. Hidden Markov Model (HMM) will be used as an emotion classifier. Performance of the system is measured by accuracy in emotion detection.
Result showed that average recognition rate of the proposed system is 60.65% and the best rate is 70.70% in recognize 5 types of emotions. Result also showed that LPC feature combined with fundamental frequency and energy will result to greater recognition rate in speech emotion detection.Keyword: speech, emotion, archetypal, LPC, HMM.