当我们打开一个网页进行信息搜索时,少不了要对它进行点击和输入信息等操作,有的网页还可能需要你先登录才能开始其他操作。这篇博客就带大家来了解一下如何编写一段python代码实现打开并登录网页、对网页进行点击、输入信息等操作。
在开始之前,我们需要一些准备工作,一个能够编写并运行python代码的IDE(如:IDLE、PyCharm)、安装Python第三方函数库 Selenium、安装浏览器驱动。如何安装Selenium、浏览器驱动以及相应的一些介绍,这里放一个
链接
仅供大家参考,这里需要
注意
的是你下载的浏览器驱动的版本和你使用的浏览器版本应该是对应的。
接下来我们开始第一步:打开一个网页,这里以baidu.com为例,在python源程序中输入并运行下列代码:
from selenium import webdriver
driver = webdriver.Chrome()
driver.get('https://www.baidu.com')
运行结果如下:
以百度搜索主页为例,我们在使用时,需要在搜索框中输入我们需要搜索的信息,那我们怎么捕捉到页面中的搜索框并在其中输入信息呢?这时我们需要使用到selenium库中的 元素定位方法 ,这里我们希望通过 XPath 定位搜索框在网页中的 <input> 标签 ,调用find_element_by_xpath()方法,在参数中输入 路径表达式 来定位搜索框,代码如下:
调用selenium库中的find_element_by_xpath()方法定位搜索框,
同时使用send_keys()方法在其中输入信息
driver.find_element_by_xpath('//*[@id="kw"]').send_keys('this is a test')
运行结果如下:

那么大家现在可能会有一个疑问是,应该如何获取搜索框的路径表达式呢?我们按 F12 或右键打开网页的元素审查窗口,点击窗口顶部的元素选择按钮,之后选中搜索框,此时已定位到搜索框在网页中的 <input> 标签,右键选择Copy XPath即可。详细步骤看图:

在搜索框中输入将要搜索的信息之后,需要点击搜索按钮进行搜索,搜索按钮的路径表达式获取方式与步骤二一致,代码如下:
调用selenium库中的find_element_by_xpath()方法定位搜索按钮,
同时使用click()方法对按钮进行点击
driver.find_element_by_xpath('//*[@id="su"]').click()
运行结果如下:

步骤①至③完整代码如下:
from selenium import webdriver
driver = webdriver.Chrome()
driver.get('https://www.baidu.com')
调用selenium库中的find_element_by_xpath()方法定位搜索框,
同时使用send_keys()方法在其中输入信息
driver.find_element_by_xpath('//*[@id="kw"]').send_keys('this is a test')
调用selenium库中的find_element_by_xpath()方法定位搜索按钮,
同时使用click()方法对按钮进行点击
driver.find_element_by_xpath('//*[@id="su"]').click()
如果你对上述三个基础操作有了足够清楚的认识,那么如何实现打开并登录一个网页,你的心里一定有了一些想法,下面以登录 智慧树学习平台 为例,看看和你想的一样嘛?代码如下:
from selenium import webdriver
import time
driver = webdriver.Chrome()
driver.get('https://www.zhihuishu.com/')
考虑到网页打开的速度取决于每个人的电脑和网速,
使用time库sleep()方法,让程序睡眠5秒
time.sleep(5)
driver.find_element_by_xpath('//*[@id="notLogin"]/span/a[1]').click()
driver.find_element_by_xpath('//*[@id="lUsername"]').send_keys('账号')
driver.find_element_by_xpath('//*[@id="lPassword"]').send_keys('密码')
driver.find_element_by_xpath('//*[@id="f_sign_up"]/div[1]/span').click()
登录界面如下:
随着网络的普及和信息爆炸式增长,我们可以通过网络来获取各种各样的数据。而Python作为一门强大而灵活的编程语言,可以帮助我们快速地从HTML网页中提取数据。本文将介绍Python爬虫的入门知识,并详细讲解如何使用Python爬虫来爬取HTML网页上的数据。1.了解HTML和网页结构2.安装和导入相关依赖库3.发送http请求获取网页内容4.解析HTML网页内容5.定位内容和提取数据6.保存抓取的数据在开始编写爬虫之前,了解HTML和网页的结构是非常重要的。
webbrowser.open(url, new=0, autoraise=True)
webbrowser.open_new(url)
webbrowser.open_new_tab(url)
上面三种方法任意一种都可以,在python2.7下测试通过,不过这个要在windows下测试哦
我们需要了解webbrowser.open()方法:
webbrowser.open(url,
有些网页需要你登录之后才可以访问,你需要提供账户和密码。只要在发送http请求时,带上含有正常登陆的cookie就可以了。1、首先我们要先了解cookie的工作原理。Cookie是由服务器端生成,发送给User-Agent(一般是浏览器),浏览器会将Cookie的key/value保存到某个目录下的文本文件内,下次请求同一网站时就发送该Cookie给服务器(前提是浏览器设置为启用cookie)。C...
python——使用代码完成网页登录等相关操作
1.以网站http://192.168.10.188:8080/为例,完成登录及发布一个任务操作:
# webdriver--浏览器驱动,需要下载,搭建好环境。想要使用代码直接完成网页操作,必须下载对应的浏览器驱动,在脚本开始处例导入这个浏览器驱动。
from selenium import webdriver
from time import sleep # 导入此方法,可以使操作间间隔一段时间再进行
driver=webdrive
webbrowser.open(url, new=0, autoraise=True) 在系统的默认浏览器中访问url地址,如果new=0, url会在同一个。如果new=1,新的浏览器窗口会被打开;new=2 新的浏览器tab会被打开。webbrowser.get()方法:可以获取到系统浏览器的操作对象。
临近国庆七天小长假,大家是不是都想好去哪里玩了?
想必大家都收到了很多单位领导,学校老师发来的注意安全的通知吧?什么防火防盗防小三… …
今天我来跟大家讲讲网络安全吧,我下面讲的内容,大家可以看得懂,也希望大家可以认真地看完:
网络爬虫,爬服务型网站很简单,不需要登陆操作,遇到需要登陆的情况时,会稍微有点难度,但是,也是可以实现的.我今天的目标是某学校WiFi验证登陆界面:
可以看到,我在图上标...
自动化网站登录和执行操作对于许多网络爬虫、数据抓取和测试自动化任务来说是一个常见的需求。Python和Selenium库的组合可以让我们轻松实现这一目标。在本文中,我们将深入探讨如何使用Python和Selenium自动登录网站,并演示如何执行一些常见的操作,如填写表单、点击按钮和抓取数据。首先,确保您已经安装了Python和Selenium库。接下来,您需要下载与您的浏览器版本匹配的WebDriver。WebDriver是Selenium用于控制浏览器的工具。
思路:创建登入界面(login),再创建登入成功与登入失败界面(loginsuccess与loginfail),再创建注册成功界面(registersuccess)与注册界面(register)以及总控制文件(check)通过form标签的action将他们连接起来。
首先我们来看看效果
登入界面(login)
登入成功与登入失败(loginsuccess与loginfail)
注册界面(register)
注册成功(registersuccess)
创建项目,再添加框