文章內(nèi)容

聊一聊深度學(xué)習(xí)在統(tǒng)計(jì)機(jī)器翻譯和會(huì)話中的運(yùn)用

時(shí)間:2018-05-30 19:53來(lái)源:網(wǎng)絡(luò)整理 作者:珠海翻譯公司 點(diǎn)擊:

l  針對(duì)詞匯能夠性

l  翻譯模型

深度學(xué)習(xí)在統(tǒng)計(jì)機(jī)器翻譯和會(huì)話中的運(yùn)用 |微軟IJCAI2026演講PPT

深度學(xué)習(xí)在統(tǒng)計(jì)機(jī)器翻譯和會(huì)話中的運(yùn)用 |微軟IJCAI2026演講PPT

它類似的想法于[Devlin+24]。

l  對(duì)數(shù)線性模型

編碼器:雙向RNN編碼每一個(gè)單詞和文本

l  詞語(yǔ)n-gram模型(如n=4)

深度學(xué)習(xí)在統(tǒng)計(jì)機(jī)器翻譯和會(huì)話中的運(yùn)用 |微軟IJCAI2026演講PPT

l  計(jì)算語(yǔ)義相似性btw文本

N-gram言語(yǔ)模型

無(wú)理論上,韓語(yǔ)翻譯,RNN可能將一切過去輸入的信息“貯存”在h中,但在事實(shí)中規(guī)范的RNN無(wú)奈捕獲長(zhǎng)距離的依賴。處理反向流傳中梯度隱沒和爆炸和不鞏固噪音成績(jī)的方法是:長(zhǎng)的短期記憶。

建設(shè)一個(gè)單一、大型的神經(jīng)網(wǎng)絡(luò)用來(lái)讀取句子并輸出翻譯

翻譯

NMT在WMT義務(wù)上超過了最好的結(jié)果

這一局部次要引見了深度神經(jīng)網(wǎng)絡(luò)對(duì)于成績(jī)停止分類的實(shí)例,以及在統(tǒng)計(jì)機(jī)器翻譯和對(duì)話中深度學(xué)習(xí)的運(yùn)用,對(duì)于語(yǔ)義表達(dá)學(xué)習(xí)和人造言語(yǔ)的理解也有所提及。

錄制

l  ITG模型

l  短語(yǔ)翻譯分?jǐn)?shù)=矢量點(diǎn)積

深度學(xué)習(xí)在統(tǒng)計(jì)機(jī)器翻譯和會(huì)話中的運(yùn)用 |微軟IJCAI2026演講PPT

微軟鉆研院在IJCAI2026的Tutorial上講述了本人將深度學(xué)習(xí)、深度神經(jīng)網(wǎng)絡(luò)運(yùn)用于不同場(chǎng)景的情況,之前第一局部提到了其運(yùn)用于語(yǔ)義理解上的一些閱歷和播種,本文為第二局部。

將MT當(dāng)成廣泛的序列到序列的翻譯,瀏覽源頭;累積隱形狀;生成指標(biāo)。其中<EOS>是中止遞歸過程的符號(hào)。在練習(xí)中,反向?yàn)g覽源句子會(huì)導(dǎo)致更好的MT結(jié)果。在文本中停止訓(xùn)練,并利用SGD優(yōu)化指標(biāo)能夠性。