Makalah ini membincangkan tatacara yang dimanfaatkan untuk membangunkan perisian e-terjemahan bersuara chengyu daripada bahasa Cina kepada bahasa Melayu. Chengyu ialah ungkapan tetap dalam bahasa Cina yang biasanya terbentuk daripada gabungan empat aksara. Penggunaan chengyu adalah popular dan lazim dalam bentuk lisan dan tulisan. Chengyu bukan sahaja menghasilkan nilai estetika dalam bahasa dan kebahasaan, malahan mendukung ketamadunan bangsa melalui penzahiran pemikiran, falsafah dan sosiobudaya. Terjemahan chengyu bukan sahaja menggalakkan interaksi antarbahasa dan antarbudaya, malahan turut memperkaya khazanah keilmuan dan kepustakaan bahasa Melayu. E-terjemahan bersuara membolehkan pengguna mencari padanan chengyu dalam bahasa Melayu hanya dengan memasukkan kata kunci. Paparan chengyu dan padanannya serta segala maklumat tentang chengyu dan padanan berkenaan kemudiannya boleh diperdengarkan. Perisian ini amat sesuai digunakan untuk tujuan pengayaan gaya penulisan dan ucapan serta pengkajian tentang perbandingan bahasa dan cara pengamatan antara dunia bahasa Cina dengan dunia bahasa Melayu. Perisian ini juga bermanfaat untuk proses pembelajaran dan pengajaran serta penterjemahan bahasa Gina-bahasa Melayu. Tatacara pembangunan perisian ini terbahagi kepada empat fasa. Fasa pertama bermula dengan penelitian strategi penterjemahan chengyu ke dalam bahasa Melayu untuk mengenal pasti kaedah penterjemahan yang sesuai. Fasa kedua melibatkan penterjemahan chengyu ke dalam bahasa Melayu dengan memanfaatkan strategi penterjemahan yang dikenal pasti. Fasa ketiga ialah pembinaan pangkalan data dan pembangunan e-terjemahan bersuara. Fasa keempat yang bakal dilaksanakan ialah penilaian dan ujian penggunaan e-terjemahan bersuara yang dibangunkan.
Emotion recognition constitutes a pivotal research topic within affective computing, owing to its potential applications across various domains. Currently, emotion recognition methods based on deep learning frameworks utilizing electroencephalogram (EEG) signals have demonstrated effective application and achieved impressive performance. However, in EEG-based emotion recognition, there exists a significant performance drop in cross-subject EEG Emotion recognition due to inter-individual differences among subjects. In order to address this challenge, a hybrid transfer learning strategy is proposed, and the Domain Adaptation with a Few-shot Fine-tuning Network (DFF-Net) is designed for cross-subject EEG emotion recognition. The first step involves the design of a domain adaptive learning module specialized for EEG emotion recognition, known as the Emo-DA module. Following this, the Emo-DA module is utilized to pre-train a model on both the source and target domains. Subsequently, fine-tuning is performed on the target domain specifically for the purpose of cross-subject EEG emotion recognition testing. This comprehensive approach effectively harnesses the attributes of domain adaptation and fine-tuning, resulting in a noteworthy improvement in the accuracy of the model for the challenging task of cross-subject EEG emotion recognition. The proposed DFF-Net surpasses the state-of-the-art methods in the cross-subject EEG emotion recognition task, achieving an average recognition accuracy of 93.37% on the SEED dataset and 82.32% on the SEED-IV dataset.