900字范文,内容丰富有趣,生活中的好帮手!
900字范文 > python爬取url_python爬虫之爬取谷歌url

python爬取url_python爬虫之爬取谷歌url

时间:2019-05-28 20:05:01

相关推荐

python爬取url_python爬虫之爬取谷歌url

前言:python使用selenium库时需要安装chromedriver以及对应的chrome版本

代码块

from selenium import webdriver

from mon.by import By #获取元素

from selenium.webdriver.support.ui import WebDriverWait #设置获取元素超时时间,如果获取失败则抛出异常

from selenium.webdriver.support import expected_conditions as EC #获取元素

from mon.keys import Keys #输入键盘值

from mon.exceptions import TimeoutException # 超时获取元素报错原因

import time #设置延迟

import re #正则表达式模块

from pyquery import PyQuery as pq

browser = webdriver.Chrome()#打开google浏览器

urls = []

def chushi(keyword): #初始化

keyword = str(keyword)

browser.get("")

wait = WebDriverWait(browser, 10) #设置获取元素的超时时间为10s

input = wait.until(EC.presence_of_element_located((By.NAME,"q"))) #获取属性name为q的元素

input.send_keys(keyword) #输出键盘值

input.send_keys(Keys.ENTER) #输出回车键

time.sleep(3) #等待3s

geturl()

def geturl():

html = browser.page_source

list1 = re.findall('(.*?)

urls.extend(set(list1)) #set:删除列表里的重复值 extend:在列表末尾添加内容

def next_page():

try:

time.sleep(3)

wait = WebDriverWait(browser, 10)

button = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,"#pnnext > span:nth-child(2)")))

button.click() #模拟鼠标右键点击

time.sleep(1)

geturl()

except TimeoutError:

print("请求失败,正在重新请求")

next_page()

def save_url():

with open("url.txt",'w+') as f:

url = "\n".join(urls) #str.join:给列表里的内容之间加个换行符输出成字符串

f.write(url)

if __name__ == '__main__':

page = int(input("请输入页数"))

keyword = input('请输入关键字')

if page == 1:

chushi(keyword)

next_page()

else:

chushi(keyword)

for i in range(0, page - 1):

next_page()

save_url()

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。