新聞中心
本文轉載自微信公眾號「Python技術」,作者派森醬。轉載本文請聯系Python技術公眾號。

創(chuàng)新互聯建站服務項目包括榆陽網站建設、榆陽網站制作、榆陽網頁制作以及榆陽網絡營銷策劃等。多年來,我們專注于互聯網行業(yè),利用自身積累的技術優(yōu)勢、行業(yè)經驗、深度合作伙伴關系等,向廣大中小型企業(yè)、政府機構等提供互聯網行業(yè)的解決方案,榆陽網站推廣取得了明顯的社會效益與經濟效益。目前,我們服務的客戶以成都為中心已經輻射到榆陽省份的部分城市,未來相信會繼續(xù)擴大服務區(qū)域并繼續(xù)獲得客戶的支持與信任!
在路上發(fā)現好多人都喜歡用耳機聽小說,同事居然可以一整天的帶著一只耳機聽小說。小編表示非常的震驚。今天就用 Python 下載聽小說 tingchina.com的音頻。
書名和章節(jié)列表
隨機點開一本書,這個頁面可以使用 BeautifulSoup 獲取書名和所有單個章節(jié)音頻的列表。復制瀏覽器的地址,如:https://www.tingchina.com/yousheng/disp_31086.htm。
- from bs4 import BeautifulSoup
- import requests
- import re
- import random
- import os
- headers = {
- 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36'
- }
- def get_detail_urls(url):
- url_list = []
- response = requests.get(url, headers=headers)
- response.encoding = 'gbk'
- soup = BeautifulSoup(response.text, 'lxml')
- name = soup.select('.red12')[0].strong.text
- if not os.path.exists(name):
- os.makedirs(name)
- div_list = soup.select('div.list a')
- for item in div_list:
- url_list.append({'name': item.string, 'url': 'https://www.tingchina.com/yousheng/{}'.format(item['href'])})
- return name, url_list
音頻地址
打開單個章節(jié)的鏈接,在 Elements 面板用章節(jié)名稱作為搜索詞,在底部發(fā)現了一個 script,這一部分就是聲源的地址。
在 Network 面板可以看到,聲源的 url 域名和章節(jié)列表的域名是不一樣的。在獲取下載鏈接的時候需要注意這一點。
- def get_mp3_path(url):
- response = requests.get(url, headers=headers)
- response.encoding = 'gbk'
- soup = BeautifulSoup(response.text, 'lxml')
- script_text = soup.select('script')[-1].string
- fileUrl_search = re.search('fileUrl= "(.*?)";', script_text, re.S)
- if fileUrl_search:
- return 'https://t3344.tingchina.com' + fileUrl_search.group(1)
下載
驚喜總是突如其來,把這個 https://t3344.tingchina.com/xxxx.mp3 放入瀏覽器中運行居然是 404。
肯定是少了關鍵性的參數,回到上面 Network 仔細觀察 mp3 的 url,發(fā)現在 url 后面帶了一個 key 的關鍵字。如下圖,這個 key 是來自于 https://img.tingchina.com/play/h5_jsonp.asp?0.5078556568562795 的返回值,可以使用正則表達式將 key 取出來。
- def get_key(url):
- url = 'https://img.tingchina.com/play/h5_jsonp.asp?{}'.format(str(random.random()))
- headers['referer'] = url
- response = requests.get(url, headers=headers)
- matched = re.search('(key=.*?)";', response.text, re.S)
- if matched:
- temp = matched.group(1)
- return temp[len(temp)-42:]
最后的最后在 __main__ 中將以上的代碼串聯起來。
- if __name__ == "__main__":
- url = input("請輸入瀏覽器書頁的地址:")
- dir,url_list = get_detail_urls()
- for item in url_list:
- audio_url = get_mp3_path(item['url'])
- key = get_key(item['url'])
- audio_url = audio_url + '?key=' + key
- headers['referer'] = item['url']
- r = requests.get(audio_url, headers=headers,stream=True)
- with open(os.path.join(dir, item['name']),'ab') as f:
- f.write(r.content)
- f.flush()
總結
這個 Python 爬蟲比較簡單,小編的每個月 30 元的流量都不夠用,又了這個小程序在地鐵上就可以不用流量聽小說了。
本文名稱:用 50 行代碼寫個聽小說的爬蟲
網頁網址:http://www.fisionsoft.com.cn/article/dphppoi.html


咨詢
建站咨詢
