近日,快商通Kriston AI Lab和新加坡國立大學(xué)聯(lián)合發(fā)表的論文《Modeling Code-Switch Languages Using Bilingual Parallel Corpus(使用平行語料為中英文語碼轉(zhuǎn)換建模)》被第58屆計(jì)算語言學(xué)年會 ACL 2020 錄用,論文介紹了一種通過機(jī)器學(xué)習(xí)算法建立語言模型的方法,主要用于解決中英混合文本數(shù)據(jù)缺失問題,是語音識別領(lǐng)域?qū)Χ嗾Z種切換語音識別的首次突破。
ACL是計(jì)算語言學(xué)和自然語言處理領(lǐng)域最重要的頂級會議,被CCF與清華共同列為頂級A類會議。今年,ACL共接收到超過3000篇投稿,雖未公布錄取率,但依照歷史平均錄取率23.7%來看,被收錄的論文代表了人工智能領(lǐng)域的世界領(lǐng)先水平。
多語種切換語音識別現(xiàn)狀:需求火熱,技術(shù)難突破
隨著全球化的演進(jìn),多語言通信成為越來越普遍的現(xiàn)象。例如在新加坡等東南亞地區(qū),英語作為大部分人的第一外語,會被自然而然地穿插在以中文為主的日常交流中。相對應(yīng)地,對多語種切換語音識別也成為當(dāng)下火熱的需求。
然而,多語種切換語音識別一直是語音領(lǐng)域面臨的重要挑戰(zhàn)之一,最主要的原因,是因?yàn)?strong>多語種切換數(shù)據(jù)的缺失。
語音識別系統(tǒng)訓(xùn)練,需要語音和文本兩方面的數(shù)據(jù)。通常,多語種切換的表達(dá)多在口語交流中出現(xiàn),因此,文本形式的多語種切換表達(dá)資源匱乏。
使用平行語料為中英文語碼轉(zhuǎn)換建模
快商通Kriston AI Lab瞄準(zhǔn)海外痛點(diǎn)需求,提出了一種基于注意力機(jī)制的雙語語言建模算法(BLAM),該算法綜合考慮兩種語言的詞序列上下文關(guān)系以及兩種語言間的語法差異。具體地,文章定義了兩種損失函數(shù),分別用于對單一語言的語法進(jìn)行約束以及對多語種切換表達(dá)的語法進(jìn)行約束。然后將兩種約束用于訓(xùn)練基于注意力機(jī)制的深度神經(jīng)網(wǎng)絡(luò)模型。
這種方法,是現(xiàn)階段語音識別領(lǐng)域?qū)Χ嗾Z種切換的首次突破,其算法具有以下優(yōu)點(diǎn):
1、兩種語言均可以作為主語語言,語碼轉(zhuǎn)換時(shí)兩種語言的比例不影響語音識別的性能;
2、語言模型混淆度(PPL)相對目前最好的多語種切換語言模型建模算法能降低20%以上,語音識別詞錯(cuò)率相對目前最好的多語種切換語音識別算法能降低25%以上;
3、該算法可用于多語種切換的規(guī)范化,即,將兩個(gè)語種混雜的文本規(guī)范化為統(tǒng)一的語種表達(dá);
該算法可進(jìn)一步擴(kuò)展,用于句子生成以及機(jī)器翻譯。