python爬虫-vmgirls-正则表达式 概述 分析网页 代码操作 任务完成  

本次爬虫任务是爬取图片网站图片,网址是https://www.vmgirls.com/

python爬虫-vmgirls-正则表达式
概述
分析网页
代码操作
任务完成
 


分析网页

第一步,打开需要爬取的页面https://www.vmgirls.com/13344.html

打开F12,随便选择一张图片查看图片,操作如下

python爬虫-vmgirls-正则表达式
概述
分析网页
代码操作
任务完成
 

 第二步,寻找所需下载图片的地址,并分析最优的方式

python爬虫-vmgirls-正则表达式
概述
分析网页
代码操作
任务完成
 

 第三步,得出结论,可以通过获取每张图片的url地址,进行保存图片的动作


代码操作

请求网页

第一步,我们请求网页并打印网页返回的请求

import requests
'''请求网页'''
response = requests.get('https://www.vmgirls.com/13344.html', headers=headers)#请求网址并得到一个回复
print(response.text)

发现出现403 Forbidden,我们需要寻找原因

# <html>
# <head><title>403 Forbidden</title></head>
# <body>
# <center><h1>403 Forbidden</h1></center>
# <hr><center>Her</center>
# </body>
# </html>

我们插入一个代码

print(response.request.headers)

发现问题所在,网页返回的信息中表示,我们发送的请求来源于一个爬虫程序,所以我们需要伪装一个header,

# {'User-Agent': 'python-requests/2.23.0',
# 'Accept-Encoding': 'gzip, deflate',
# 'Accept': '*/*',
# 'Connection': 'keep-alive'}

怎么做,打开浏览器,指定网页,F12查看浏览器发送的headerspython爬虫-vmgirls-正则表达式
概述
分析网页
代码操作
任务完成
 

 复制heades到代码中

import requests
'''请求网页'''
headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.163 Safari/537.36'
}

response = requests.get('https://www.vmgirls.com/13344.html', headers=headers)#请求网址并得到一个回复
print(response.text)
print(response.request.headers)

能够正常得到网页返回的信息了


 解析网页

解析网页本次使用正则表达式

导入re库

import re

urls = re.findall('<a href="(.*?)" alt=".*?" title=".*?">', html)
print(urls)

得到5个图片的url链接

['https://static.vmgirls.com/image/2019/12/2019122210292813-scaled.jpeg',

'https://static.vmgirls.com/image/2019/12/2019122210294290-scaled.jpeg',

'https://static.vmgirls.com/image/2019/12/2019122210295639-scaled.jpeg',

'https://static.vmgirls.com/image/2019/12/2019122210300913-scaled.jpeg',

'https://static.vmgirls.com/image/2019/12/2019122210301954-scaled.jpeg']


保存图片

将所有的图片保存为文件格式

for url in urls:
    response = requests.get(url, headers=headers)
    # 将url中后面的数字字段截取出来作为图片的文件名
    file_name = url.split('/')[-1]
    # 以二进制格式打开一个文件只用于写入。如果该文件已存在则将其覆盖。如果该文件不存在,创建新文件。
    with open(file_name,'wb') as f:
    # 文件写入每一个response返回的内容,最终保存的即为图片,图片地址在该py文件相同目录
        f.write(response.content)

此时需要考虑到两个问题

1.访问频次

2.文件应该需要保存在但个文件夹中,问不是散乱的存放

修改代码如下

import os
#
获得文件夹名 dir_name = re.findall('<h1 class="post-title h3">(.*?)</h1>', html)[-1] # 判断文件夹是否存在,并创建文件夹 if not os.path.exists(dir_name): os.makedirs(dir_name) # 遍历所有的url,将所有的url单独保存 for url in urls: # 放置访问频次太高,设置访问频率,需要导入time模块 time.sleep(1) response = requests.get(url, headers=headers) # 将url中后面的数字字段截取出来作为图片的文件名 file_name = url.split('/')[-1] # 以二进制格式打开一个文件只用于写入。如果该文件已存在则将其覆盖。如果该文件不存在,创建新文件。 # 由于加入了文件夹的步骤,所以with open(file_path,wb)as f中file_path需要带上文件夹 # with open(file_name,'wb') as f: with open(dir_name+'/'+file_name, 'wb') as f: # 文件写入每一个response返回的内容,最终保存的即为图片,图片地址在该py文件相同目录 f.write(response.content) # 由于这种方式文件是一个个单独的存放在目录下面,并没有较好的分类,我们需要加入一个分类的步骤 # 根据网页中的名称设置文件夹名为dir_name = re.findall('<h1 class="post-title h3">(.*?)</h1>')[-1] # 若想创建文件夹,需要导入os库 # 判断文件夹是否存在

任务完成

完整代码

import requests
import re
import time
import os

'''请求网页'''

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.163 Safari/537.36'
}

response = requests.get('https://www.vmgirls.com/13344.html', headers=headers)#请求网址并得到一个回复
html = response.text

"""
print(response.text)

# <html>
# <head><title>403 Forbidden</title></head>
# <body>
# <center><h1>403 Forbidden</h1></center>
# <hr><center>Her</center>
# </body>
# </html>

# 发现了403 Forbidden,也就是这个系统设置了反爬虫,所以需要改变
# 我们查看一下返回的headers,也就是请求的头信息

print(response.request.headers)

# {'User-Agent': 'python-requests/2.23.0',
# 'Accept-Encoding': 'gzip, deflate',
# 'Accept': '*/*',
# 'Connection': 'keep-alive'}

# 发现这是用python端请求,理所当然的被网页拒绝了,所以我们需要一个伪装的headers,伪装成浏览器发送的请求
# 怎么做,打开浏览器,指定网页,F12查看浏览器发送的headers
# {user-agent: Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.163 Safari/537.36}

# 制作伪装的headers
# headers = {'user-agent: Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.163 Safari/537.36'}
# 注意headers是一个字典,不是字符串,所以格式为"user-agent":"头部具体信息"

# 将headers放置到网页请求的前面,即response前
# 同时response里面带上headers
# 程序运行之后发现可以正常运行

"""

'''解析网页'''

# 解析网页本次使用正则表达式
# 导入re库


# 获得文件夹名
dir_name = re.findall('<h1 class="post-title h3">(.*?)</h1>', html)[-1]
# 判断文件夹是否存在,并创建文件夹
if not  os.path.exists(dir_name):
    os.makedirs(dir_name)


# 获得所有图片的url链接
urls = re.findall('<a href="(.*?)" alt=".*?" title=".*?">', html)
print(urls)



"""保存图片"""


# 遍历所有的url,将所有的url单独保存
for url in urls:

    # 放置访问频次太高,设置访问频率,需要导入time模块
    time.sleep(1)
    response = requests.get(url, headers=headers)
    # 将url中后面的数字字段截取出来作为图片的文件名
    file_name = url.split('/')[-1]

    # 以二进制格式打开一个文件只用于写入。如果该文件已存在则将其覆盖。如果该文件不存在,创建新文件。
    # 由于加入了文件夹的步骤,所以with open(file_path,wb)as f中file_path需要带上文件夹
    # with open(file_name,'wb') as f:
    with open(dir_name+'/'+file_name, 'wb') as f:
        # 文件写入每一个response返回的内容,最终保存的即为图片,图片地址在该py文件相同目录
        f.write(response.content)

# 由于这种方式文件是一个个单独的存放在目录下面,并没有较好的分类,我们需要加入一个分类的步骤
# 根据网页中的名称设置文件夹名为dir_name = re.findall('<h1 class="post-title h3">(.*?)</h1>')[-1]
# 若想创建文件夹,需要导入os库
# 判断文件夹是否存在

图片结果

python爬虫-vmgirls-正则表达式
概述
分析网页
代码操作
任务完成