能讓你輕松的實(shí)現(xiàn)自然語(yǔ)言處理的5個(gè)Python庫(kù)
一、
自然語(yǔ)言是指人類相互交流的語(yǔ)言,而自然語(yǔ)言處理是將數(shù)據(jù)以可理解的形式進(jìn)行預(yù)處理,使計(jì)算機(jī)能夠理解的一種方法。簡(jiǎn)單地說,自然語(yǔ)言處理(NLP)是幫助計(jì)算機(jī)用自己的語(yǔ)言與人類交流的過程。
自然語(yǔ)言處理是最廣泛的研究領(lǐng)域之一。許多大公司在這個(gè)領(lǐng)域投資很大。NLP為公司提供了機(jī)會(huì),讓他們能夠根據(jù)消費(fèi)者的情緒和文本很好地了解他們。NLP的一些最佳用例是檢測(cè)假電子郵件、對(duì)假新聞進(jìn)行分類、情感分析、預(yù)測(cè)你的下一個(gè)單詞、自動(dòng)更正、聊天機(jī)器人、個(gè)人助理等等。
解決任何NLP任務(wù)前要知道的7個(gè)術(shù)語(yǔ)
標(biāo)記:它是將整個(gè)文本分割成小標(biāo)記的過程。占卜是根據(jù)句子和單詞兩個(gè)基礎(chǔ)來完成的。
text = "Hello there, how are you doing today? The weather is great today. python is awsome" ##sentece tokenize (Separated by sentence) ['Hello there, how are you doing today?', 'The weather is great today.', 'python is awsome'] ##word tokenizer (Separated by words) ['Hello', 'there', ',', 'how', 'are', 'you', 'doing', 'today', '?', 'The', 'weather', 'is', 'great', 'today', '.','python', 'is', 'awsome']
停止詞:一般來說,這些詞不會(huì)給句子增加太多的意義。在NLP中,我們刪除了所有的停止詞,因?yàn)樗鼈儗?duì)分析數(shù)據(jù)不重要。英語(yǔ)中總共有179個(gè)停止詞。
詞干提?。核峭ㄟ^去掉后綴和前綴將一個(gè)單詞還原為詞根的過程。
詞形還原:它的工作原理與詞干法相同,但關(guān)鍵的區(qū)別是它返回一個(gè)有意義的單詞。主要是開發(fā)聊天機(jī)器人、問答機(jī)器人、文本預(yù)測(cè)等。
WordNet:它是英語(yǔ)語(yǔ)言名詞、動(dòng)詞、形容詞和副詞的詞匯數(shù)據(jù)庫(kù)或詞典,這些詞被分組為專門為自然語(yǔ)言處理設(shè)計(jì)的集合。
詞性標(biāo)注:它是將一個(gè)句子轉(zhuǎn)換為一個(gè)元組列表的過程。每個(gè)元組都有一個(gè)形式(單詞、標(biāo)記)。這里的標(biāo)簽表示該單詞是名詞、形容詞還是動(dòng)詞等等。
text = 'An sincerity so extremity he additions.' -------------------------------- ('An', 'DT'), ('sincerity', 'NN'), ('so', 'RB'), ('extremity', 'NN'), ('he', 'PRP'), ('additions', 'VBZ')]
詞袋:它是一個(gè)將文本轉(zhuǎn)換成某種數(shù)字表示的過程。比如獨(dú)熱編碼等。
sent1 = he is a good boy sent2 = she is a good girl | | girl good boy sent1 0 1 1 sent2 1 0 1
現(xiàn)在,讓我們回到我們的主題,看看可以幫助您輕松預(yù)處理數(shù)據(jù)的庫(kù)。
二、NLTK
毫無疑問,它是自然語(yǔ)言處理最好和使用最多的庫(kù)之一。NLTK是自然語(yǔ)言工具包的縮寫。由Steven Bird 和Edward Loper開發(fā)的。它帶有許多內(nèi)置的模塊,用于標(biāo)記化、詞元化、詞干化、解析、分塊和詞性標(biāo)記。它提供超過50個(gè)語(yǔ)料庫(kù)和詞匯資源。
安裝:pip install nltk
讓我們使用NLTK對(duì)給定的文本執(zhí)行預(yù)處理
import nltk #nltk.download('punkt') from nltk.tokenize import word_tokenize from nltk.corpus import stopwords from nltk.stem import PorterStemmer import re ps = PorterStemmer() text = 'Hello there,how are you doing today? I am Learning Python.' text = re.sub("[^a-zA-Z0-9]"," ",text) text = word_tokenize(text) text_with_no_stopwords = [ps.stem(word) for word in text if word not in stopwords.words('english')] text = " ".join(text_with_no_stopwords) text -----------------------------------------------OUTPUT------------------------------------ 'hello today I learn python'
三、TextBlob
Textblob是一個(gè)簡(jiǎn)化的文本處理庫(kù)。它提供了一個(gè)簡(jiǎn)單的API,用于執(zhí)行常見的NLP任務(wù),如詞性標(biāo)記、情感分析、分類、翻譯等。
安裝:pip install textblob
四、spacy
這是python中最好用的自然語(yǔ)言處理庫(kù)之一,它是用cpython編寫的。它提供了一些預(yù)訓(xùn)練的統(tǒng)計(jì)模型,并支持多達(dá)49種以上的語(yǔ)言進(jìn)行標(biāo)記化。它以卷積神經(jīng)網(wǎng)絡(luò)為特征,用于標(biāo)記、解析和命名實(shí)體識(shí)別。
安裝:pip install spacy
import spacy nlp = spacy.load('en_core_web_sm') text = "I am Learning Python Nowdays" text2 = nlp(text) for token in text2: print(token,token.idx) ------------------------------OUTPUT----------------------- I 0 am 2 Learning 5 Python 14 Nowdays 21
五、Gensim
它是一個(gè)Python庫(kù),專門用于識(shí)別兩個(gè)文檔之間的語(yǔ)義相似性。它使用向量空間建模和主題建模工具包來尋找文檔之間的相似之處。它是設(shè)計(jì)用來處理大型文本語(yǔ)料庫(kù)的算法。
安裝:pip install gensim
六、CoreNLP
Stanford CoreNLP的目標(biāo)是簡(jiǎn)化對(duì)一段文本應(yīng)用不同語(yǔ)言工具的過程。這個(gè)庫(kù)運(yùn)行速度非??欤⑶以陂_發(fā)中工作得很好。
安裝:pip install stanford-corenlp
到此這篇關(guān)于5個(gè)Python庫(kù)就能讓你輕松的實(shí)現(xiàn)自然語(yǔ)言預(yù)處理的文章就介紹到這了,更多相關(guān)Python庫(kù)自然語(yǔ)言預(yù)處理內(nèi)容請(qǐng)搜索本站以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持本站!
版權(quán)聲明:本站文章來源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請(qǐng)保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場(chǎng),如有內(nèi)容涉嫌侵權(quán),請(qǐng)聯(lián)系alex-e#qq.com處理。