p>
}
self.log('正在查詢買粉絲[ %s ]相關文章' % nickname)
# 打開搜索的買粉絲買粉絲文章列表頁
response = requests.get(search_url, 買粉絲okies=self.買粉絲okies, headers=headers, params=params)
time.sleep(2)
for per in response.json().get('app_msg_list', []):
print('title ---> %s' % per.get('title'))
print('link ---> %s' % per.get('link'))
# print('買粉絲ver ---> %s' % per.get('買粉絲ver'))
except Exception as e:
traceback.print_exc()
if __name__ == '__main__':
spider = Spider()
spider.login()
spider.get_article('python')
代碼只是作為學習使用,沒有做分頁查詢之類。實測過接口存在訪問頻次限制,一天幾百次還是沒啥問題,太快或者太多次訪問就會被封24小時。
cmd → pip install re → 回車
cmd → pip install requests → 回車
cmd → pip install beautifulsoup4 → 回車
import requests
import re
from bs4 import BeautifulSoup
r = requests.get("買粉絲://買粉絲.haomahao.買粉絲/")
parttern = "1[35789]\d{ 9}"
import requests
import re
from bs4 import BeautifulSoup
def down():
r = requests.get("買粉絲://買粉絲.haomahao.買粉絲/") #調用網頁
r.en買粉絲ding = r.apparent_en買粉絲ding #更改網頁編碼,防止出現亂碼
#print(r.text)
bs = BeautifulSoup(r.text,"買粉絲.parser")
str1 = bs.getText() #將BeautifulSoup提出出來的寫完text
parttern = "1[35789]\d{ 9}" #編寫手機號的正則表達式
list = re.findall(parttern,str1)
#print(list) #調試正則是否正確
f = open("手機號.txt",mode="w",en買粉絲ding="utf-8") #寫入文件
f.write("\n".join(list))
f.close()
if __name__ == "__main__":
down()
【導語】對于一個軟件工程開發項目來說,一定是從獲取數據開始的。不管文本怎么處理,機器學習和數據發掘,都需求數據,除了通過一些途徑購買或許下載的專業數據外,常常需求咱們自己著手爬數據,爬蟲就顯得格外重要,那么Python編程網頁爬蟲東西集有哪些呢?下面就來給大家一一介紹一下。
1、 Beautiful Soup
客觀的說,Beautifu Soup不完滿是一套爬蟲東西,需求協作urllib運用,而是一套HTML / XML數據分析,清洗和獲取東西。
2、Scrapy
Scrapy相Scrapy, a fast high-level screen scraping and web crawling framework
for
Python.信不少同學都有耳聞,課程圖譜中的許多課程都是依托Scrapy抓去的,這方面的介紹文章有許多,引薦大牛pluskid早年的一篇文章:《Scrapy
輕松定制網絡爬蟲》,歷久彌新。
3、 Python-Goose
Goose最早是用Java寫得,后來用Scala重寫,是一個Scala項目。Python-Goose用Python重寫,依靠了Beautiful
Soup。給定一個文章的URL, 獲取文章的標題和內容很便利,用起來非常nice。
以上就是Python編程網頁爬蟲工具集介紹,希望對于進行Python編程的大家能有所幫助,當然Python編程學習不止需要進行工具學習,還有很多的編程知識,也需要好好學起來哦,加油!