亚洲AⅤ自偷自拍视频_亚洲欧洲精品一区二区_中日韩AV丰满少妇无码_亚洲欧美日韩一区天堂

當(dāng)前位置: 首頁 > 內(nèi)訓(xùn)課程 > 課程內(nèi)容
廣告1
相關(guān)熱門公開課程更多 》
相關(guān)熱門內(nèi)訓(xùn)課程更多 》
相關(guān)最新下載資料

人工智能之最新自然語言處理技術(shù)與實(shí)戰(zhàn)

課程編號(hào):37662

課程價(jià)格:¥25000/天

課程時(shí)長:4 天

課程人氣:664

行業(yè)類別:IT網(wǎng)絡(luò)     

專業(yè)類別:人工智能 

授課講師:葉梓

  • 課程說明
  • 講師介紹
  • 選擇同類課
【培訓(xùn)對(duì)象】
1.希望從事NLP工作的IT技術(shù)人員、開發(fā)人員等。 2.高校、科研院涉及NLP工作的學(xué)生和研究人員。

【培訓(xùn)收益】
1.掌握NLP基礎(chǔ); 2.分詞;詞法、句法分析 3.文本向量化 4.HMM與CRF 5.基于深度學(xué)習(xí)NLP算法; 6.神經(jīng)語言模型 7.詞嵌入方法 8.基于大規(guī)模語料預(yù)訓(xùn)練的詞嵌入

課程大綱
第一天:傳統(tǒng)的NLP
一、NLP基礎(chǔ)知識(shí)
1、自然語言處理簡介
2、中文NLP的主要任務(wù)
3、常見的NLP系統(tǒng)
4、NLP的研究機(jī)構(gòu)與資源
二、中文分詞
1、基于字符串匹配的分詞
2、統(tǒng)計(jì)分詞法與分詞中的消歧
3、命名實(shí)體識(shí)別
4、常用分詞工具:JIEBA
三、文本的相似性
1、VSM
2、TF-IDF
3、初步情感分析
四、隱馬爾科夫模型
1、形式化定義
2、三個(gè)問題
3、評(píng)估問題與向前向后算法
4、解碼問題:維特比算法
5、學(xué)習(xí)問題:Baum-Welch算法
五、條件隨機(jī)場
1、最大熵原理
2、無向圖模型
3、最大團(tuán)上的勢函數(shù)
4、工具:CRF++

第二天:從傳統(tǒng)到現(xiàn)代
一、從LSA到LDA
1、LSA與SVD分解
2、pLSA
3、LDA
二、神經(jīng)網(wǎng)絡(luò)語言模型
1、維數(shù)的詛咒
2、n-gram語言模型
3、NNLM的具體實(shí)現(xiàn)
4、改進(jìn)的思路
三、word2vec
1、one-hot與Distributed
2、CBOW
3、skip-gram
4、Hierachical Softmax
5、Negative Sampling
四、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
1、RNN的基礎(chǔ)架構(gòu)
2、RNN的示例
3、LSTM
4、GRU

第三天:預(yù)訓(xùn)練模型之一(變形金剛、芝麻街、獨(dú)角獸及其他)
一、GloVe
1、與word2vec的區(qū)別
2、統(tǒng)計(jì)共現(xiàn)矩陣
3、用GloVe訓(xùn)練詞向量
二、Transformer
1、所有你需要的僅僅是“注意力”
2、Transformer中的block
3、自注意力與多頭注意力
4、位置編碼(為什么可以拋棄RNN)
三、三大特征抽取器的比較
1、CNN、RNN與Transformer的比較
2、融合各種模型
四、Elmo
1、雙向語言模型
2、工作原理
3、Elmo的應(yīng)用場景
五、GPT
1、“一定會(huì)有人用它干壞事”
2、GPT的內(nèi)部架構(gòu)
3、Transformer的演示
4、自注意力機(jī)制的改進(jìn)
5、GPT的應(yīng)用場景

第四天:預(yù)訓(xùn)練模型之二(站上BERT的肩頭)
一、BERT的前世今生
1、之前介紹的模型回顧
2、現(xiàn)代NLP的最新應(yīng)用場景
3、條條大路通BERT
二、BERT詳解
1、原理與方法
2、BERT的應(yīng)用場景
3、BERT源碼簡介
三、站在BERT肩膀上的新秀們
1、ERNIE
2、XLnet 

咨詢電話:
0571-86155444
咨詢熱線:
  • 微信:13857108608
聯(lián)系我們