批量下载懒散人收听书mp3文件

  懒散人收听书是壹个不错的在线收听书网站, 近日到用电脑网页在收听。规划把音频文件给下载取机上,往日的空余时间收听收听。不外面网页版并不供下载干用。

  ?

  条要装置app后才干下载。

  ?

  装了app也不得不壹个壹个地去下载,因此干脆壹次度过下载整顿个的音频吧。

  ?

  方法很骈杂,代码很短。 你也却以看得懂。

  ?

  以财经郎眼的节目音频为例。 其他的节目情节方法差不多的。

  ?

  阅读器翻开页面:

  http://www.lrts.me/book/32551

  ?

  然后按F12翻开调试窗口,我用的是chrome

  ?

  然后看到网页底儿子下拥有下壹页的按钮,点击下壹页,看看每壹页的url. 就能找到详细的下壹页的url.

  (待续)

  ?

  ?

  python代码:

  # coding: utf-8

  # http://30daydo.com

  import urllib

  import os

  import requests

  import time

  from lxml import etree

  from header_toolkit import getheader

  def spider():

  curr=os.getcwd()

  target_dir=os.path.join(curr,’data’)

  if not os.path.exists(target_dir):

  os.mkdir(target_dir)

  for i in range(1, 100, 10):

  url=’http://www.lrts.me/ajax/playlist/2/32551/%d’ % i

  headers={

  ’User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36’}

  s=requests.get(url=url, headers=headers)

  tree=etree.HTML(s.text)

  nodes=tree.xpath(‘//*[starts-with(@class,”clearfix section-item section”)]’)

  print len(nodes)

  for node in nodes:

  filename=node.xpath(‘http://30daydo.com/article//div[@class=”column1 nowrap”]/span/text()’)[0]

  link=node.xpath(‘http://30daydo.com/article//input[@name=”source” and @type=”hidden”]/@value’)[0]

  print link

  post_fix=link.split(‘.’)[-1]

  full_path=filename+’.’+post_fix

  urllib.urlretrieve(link, filename=os.path.join(target_dir,full_path))

  time.sleep(1)

  if __name__==’__main__’:

  spider()

  抓取的情节:

  ?

  ?

  原创文字,转载请注皓出产处:

  http://30daydo.com/article/231

  ?

  ?

  需寻求下载的打包数据却以剩邮箱容许私信。

  ?