微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

python实现爬虫

# -*-coding:utf-8 -*-
import io
import sys
#改变标准输出认编码(改变中文输出的乱码问题)
sys.stdout=io.TextIOWrapper(sys.stdout.buffer,encoding=‘utf8‘)
  •   selenium+chrome 浏览器进行爬虫
  • 下载chrome的浏览器驱动(http://chromedriver.storage.googleapis.com/index.html)下载响应chrome浏览器版本(浏览器的版本 在chrome://version/这个网页可以看到)的即可(win32 就行)安装到C:\Program Files (x86)\Google\Chrome\Application  下面(exe文件

    分享图片

  • #导入selenium的浏览器驱动接口
    from selenium import webdriver
    from time import sleep
    #驱动路径 记得前面加r 防止字符转义
    #!!!注意这里必须把驱动程序中的路径写完整,后面必须加上这个chromedriver.exe  否则会报错 执行不成功
    driver = webdriver.Chrome("C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe")
    #用driver打开百度页面  后面的地址是百度的地址
    driver.get(http://www.baidu.com)
    # 查找页面的“设置”选项,发送一个你要搜索的值,并进行点击
    # 获取页面名为wrapper的id标签的文本内容
    data = driver.find_element_by_id("wrapper").text
    print(data.encode(GB18030))
    # 打印页面标题 "百度一下,你就知道"
    print(driver.title)
    # 生成当前页面快照并保存
    driver.save_screenshot("baidu.png")
    driver.find_element_by_id(kw).send_keys(人民币)
    sleep(2)
    #并进行点击
    driver.find_element_by_id(su).click()
    sleep(4)
    #退出驱动程序
    driver.quit()

    (参考:https://blog.csdn.net/u010986776/article/details/79266448

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐