0
点赞
收藏
分享

微信扫一扫

Python使用selenium来自动化提交表单

提问:怎么用selenium来自动化提交表单

回答:

Python使用selenium来自动化提交表单_selenium自动化提交表单

from selenium import webdriver
from selenium.webdriver.common.keys import Keys

# 创建一个Chrome浏览器实例
driver = webdriver.Chrome(executable_path='path/to/chromedriver')

# 打开目标网页
driver.get('https://www.example.com/form')

# 定位表单元素(根据实际网页结构调整)
username_input = driver.find_element_by_name('username')
password_input = driver.find_element_by_name('password')
submit_button = driver.find_element_by_xpath('//input[@type="submit"]')

# 输入用户名和密码
username_input.send_keys('your_username')
password_input.send_keys('your_password')

# 提交表单
submit_button.click()

# 关闭浏览器
driver.quit()

Python使用selenium来自动化提交表单_selenium自动化提交表单_02

提问:

username_input = driver.find_element_by_name('username')

password_input = driver.find_element_by_name('password')

submit_button = driver.find_element_by_xpath('//input[@type="submit"]')

其中的 driver.find_element_by_name('username')和 driver.find_element_by_xpath('//input[@type="submit"]')分别是什么意思


回答:

driver.find_element_by_name('username') 和 driver.find_element_by_xpath('//input[@type="submit"]') 是用于在网页中定位元素的方法。

driver.find_element_by_name('username'):这个方法是通过元素的 name 属性来查找元素。它会返回页面上第一个匹配给定 name 属性的元素。在这个例子中,它是用来找到名为 'username' 的输入框元素。

driver.find_element_by_xpath('//input[@type="submit"]'):这个方法是通过 XPath 表达式来查找元素。XPath 是一种在结构化文档(如 HTML/XML)中查找信息的语言。这个表达式会匹配所有类型为 'submit' 的 input 元素。在这个例子中,它是用来找到提交按钮元素。

'''
提问:
username_input = driver.find_element_by_name('username')
password_input = driver.find_element_by_name('password')
submit_button = driver.find_element_by_xpath('//input[@type="submit"]')
其中的 driver.find_element_by_name('username')和 driver.find_element_by_xpath('//input[@type="submit"]')分别是什么意思
'''
'''
回答:
driver.find_element_by_name('username') 和 driver.find_element_by_xpath('//input[@type="submit"]') 是用于在网页中定位元素的方法。
driver.find_element_by_name('username'):这个方法是通过元素的 name 属性来查找元素。它会返回页面上第一个匹配给定 name 属性的元素。在这个例子中,它是用来找到名为 'username' 的输入框元素。
driver.find_element_by_xpath('//input[@type="submit"]'):这个方法是通过 XPath 表达式来查找元素。XPath 是一种在结构化文档(如 HTML/XML)中查找信息的语言。这个表达式会匹配所有类型为 'submit' 的 input 元素。在这个例子中,它是用来找到提交按钮元素。
'''

# 示例代码

from selenium import webdriver

# 创建一个浏览器驱动实例
driver = webdriver.Chrome()

# 打开一个网页
driver.get('http://www.example.com')

# 通过 name 属性查找用户名输入框并输入文本
username_input = driver.find_element_by_name('username')
username_input.send_keys('your_username')

# 通过 XPath 表达式查找密码输入框并输入文本
password_input = driver.find_element_by_xpath('//input[@type="password"]')
password_input.send_keys('your_password')

# 通过 XPath 表达式查找提交按钮并点击
submit_button = driver.find_element_by_xpath('//input[@type="submit"]')
submit_button.click()



安装PIP包:pip install selenium -i  https://pypi.tuna.tsinghua.edu.cn/simple

安装驱动程序: https://chromedriver.storage.googleapis.com/index.html


下面是学习微软技术栈的21.9 Python 使用Selenium库


selenium模拟打开页面

当需要使用浏览器模拟时,首先要调用webdriver.Chrome(executable_path=WebPath)函数并传入驱动程序路径,此时即可打开驱动程序与谷歌浏览器链接,接着就可以通过各类函数操控浏览器行为。

from selenium import webdriver
from selenium.webdriver.common.by import By

WebPath = "C:/Users/admin/AppData/Local/Google/Chrome/Application/chromedriver.exe"

if __name__ == "__main__":
    driver = webdriver.Chrome(executable_path=WebPath)

    # 设置窗口大小为1275*765
    driver.set_window_size(1275, 765)

    # 设置窗体为全屏
    driver.maximize_window()

    # 获得窗口大小
    get_size = driver.get_window_size()
    print("获取窗口大小: {}".format(get_size))

    # 获取当前窗体句柄
    handle = driver.current_window_handle
    print("当前句柄: {}".format(handle))

    # 打开链接并得到页面源代码
    url = "https://www.baidu.com"
    driver.get(url)
    url_source = str(driver.page_source)
    # print("页面源代码: {}".format(url_source))

    # 定位a标签并点击,跳转到贴吧
    click_url = driver.find_element(By.XPATH, '//*[@id="s-top-left"]/a[4]')
    click_url.click()

    # 打开页面后输出所有窗体句柄
    all_handles = driver.window_handles
    print("当前所有窗体句柄: {}".format(all_handles))

    input("输入回车结束")
    driver.quit()

上述代码片段中,首先通过set_window_size()函数将浏览器页面设置为1275*765接着再调用maximize_window()设置为全屏,通过得到当前窗体句柄,并通过get()函数让浏览器打开一个页面,最后通过xpath语法定位到//*[@id="s-top-left"]/a[4]标签(贴吧)上,并点击鼠标左键,打开页面后并输出所有窗体,如下图所示:

Python使用selenium来自动化提交表单_selenium自动化提交表单_03

selenium切换窗口句柄

如上代码执行后虽然打开了百度百科,但是窗体的句柄其实还是停留在了百度首页上,定位的元素还是在百度上,此时就需要切换窗体句柄,也就是将当前句柄切换到百度贴吧页面上,此时才可读取该页面的完整源代码信息。

通过使用all_handles[-1]的方式切换到最后一个窗体上,也就是对应的百度贴吧页面,接着再执行switch_to.window(new_handle_tieba)函数实现窗口句柄的切换功能,代码如下所示:

from selenium import webdriver
from selenium.webdriver.common.by import By

WebPath = "C:/Users/admin/AppData/Local/Google/Chrome/Application/chromedriver.exe"

if __name__ == "__main__":
    driver = webdriver.Chrome(executable_path=WebPath)

    # 设置窗口大小为1275*765
    driver.set_window_size(1275, 765)

    # 打开链接并得到页面源代码
    url = "https://www.baidu.com"
    driver.get(url)

    # 定位a标签并点击,跳转到贴吧
    click_url = driver.find_element(By.XPATH, '//*[@id="s-top-left"]/a[4]')
    click_url.click()

    # 打开页面后输出所有窗体句柄
    all_handles = driver.window_handles
    print("当前所有窗体句柄: {}".format(all_handles))

    # 从所有句柄的集合中,获取最后那个,也就是最新的
    new_handle_tieba = all_handles[-1]

    # 执行切换操作
    driver.switch_to.window(new_handle_tieba)

    # 切换后查看现在的句柄
    now_handles = driver.current_window_handle
    print("贴吧窗体句柄: {}".format(now_handles))

    # 得到贴吧源代码
    url_source = str(driver.page_source)
    print(url_source)

    input("输入回车结束")
    driver.quit()

运行后可自行查询当前句柄所在位置,如下图所示:

Python使用selenium来自动化提交表单_selenium自动化提交表单_04

selenium前进后退刷新

在控制页面时可能需要使用页面前进后退与刷新功能,前进时可以调用driver.forward()函数实现,后退调用driver.back()函数,而刷新则可调用driver.refresh()函数,功能如下案例所示:

from selenium import webdriver
from selenium.webdriver.common.by import By

WebPath = "C:/Users/admin/AppData/Local/Google/Chrome/Application/chromedriver.exe"

if __name__ == "__main__":
    driver = webdriver.Chrome(executable_path=WebPath)

    # 设置窗口大小为1275*765
    driver.set_window_size(1275, 765)

    # 打开链接
    driver.get(url="https://www.baidu.com")
    driver.get(url="https://www.lyshark.com")

    # 后退上一页,等待3秒
    driver.implicitly_wait(3)
    driver.back()

    # 前进下一页,等待3秒
    driver.implicitly_wait(3)
    driver.forward()

    # 刷新页面,等待3秒
    driver.implicitly_wait(3)
    driver.refresh()

    # 获取当前页面句柄,并切换过去
    handle = driver.current_window_handle
    driver.switch_to.window(handle)

    # 得到源代码
    url_source = str(driver.page_source)
    print(url_source)

    # 关闭当前窗口
    driver.close()

    input("输入回车结束")
    driver.quit()

运行后观察输出效果,如下图所示;

Python使用selenium来自动化提交表单_selenium自动化提交表单_05

selenium自动页面采集

如下是一个综合案例,在案例中通过使用三种解析库实现了对百度页面中特定关键字的采集,当运行后可自行判断是否存在安全验证,如果存在可自行手动绕过检测,并输入y此时即可实现关键字的采集,当采集完成后自动柏村委html格式文件。

import re,argparse,requests
from selenium import webdriver
from bs4 import BeautifulSoup
from queue import Queue

WebPath = "C:/Users/admin/AppData/Local/Google/Chrome/Application/chromedriver.exe"

if __name__ == "__main__":
    parser = argparse.ArgumentParser()
    parser.add_argument("--search",dest="search",help="输入要搜索的语法,inurl:lyshark")
    args = parser.parse_args()
    if args.search:
        driver = webdriver.Chrome(executable_path=WebPath)
        driver.set_window_size(1024,768)

        queue = Queue()

        # 生成链接
        for item in range(0,1000,10):
            queue.put('https://www.baidu.com/s?wd={}&pn={}'.format(str(args.search),str(item)))

        # 每次吐出一个
        for item in queue.queue:
            driver.get(item)
            ret = str(driver.page_source)

            # 是否有验证
            if driver.title == "百度安全验证":
                print("请用户完成验证,并输入y: ")
                is_true = input()
                if is_true != "y":
                    driver.close()

            soup = BeautifulSoup(ret,'html.parser')
            urls = soup.find_all(name='a',attrs={'data-click':re.compile(('.')),'class':None})
            for item in urls:
                try:
                    get_url = requests.get(url=item['href'],headers=head,timeout=5)
                    print(get_url)
                    if get_url.status_code == 200:
                        title = re.findall('<title>(.+)</title>', get_url.text)
                        print("[+] 抓取URL: {} 抓取标题: {}".format(get_url.url,title))
                        with open("save.html","a+") as fp:
                            fp.write("<a rel="nofollow" href={}>{}</a><br>".format(get_url.url,title))
                except Exception:
                    pass
    else:
        parser.print_help()

运行上述代码,观察输出效果,此时会自动抓取特定页面中的链接,并存储到本地:

Python使用selenium来自动化提交表单_selenium自动化提交表单_06



举报

相关推荐

0 条评论