一日一技:Python多线程的事件监控

设想这样一个场景:

创新互联建站于2013年成立,先为奇台等服务建站,奇台等地企业,进行企业商务咨询服务。为奇台企业网站制作PC+手机+微官网三网同步一站式服务解决您的所有建站问题。

你创建了10个子线程,每个子线程分别爬一个网站,一开始所有子线程都是阻塞等待。一旦某个事件发生:例如有人在网页上点了一个按钮,或者某人在命令行输入了一个命令,10个爬虫同时开始工作。

肯定有人会想到用Redis来实现这个开关:所有子线程全部监控Redis中名为start_crawl的字符串,如果这个字符串不存在,或者为0,那么就等待1秒钟,再继续检查。如果这个字符串为1,那么就开始运行。

代码片段可以简写为:

 
 
 
 
  1. import time
  2. import redis
  3. client = redis.Redis()
  4. while client.get('start_crawl') != 1:
  5.     print('继续等待')
  6.     time.sleep(1)

这样做确实可以达到目的,不过每一个子线程都会频繁检查Redis。

实际上,在Python的多线程中,有一个Event模块,天然就是用来实现这个目的的。

Event是一个能在多线程中共用的对象,一开始它包含一个为False的信号标志,一旦在任一一个线程里面把这个标记改为True,那么所有的线程都会看到这个标记变成了True。

我们通过一段代码来说明它的使用方法:

 
 
 
 
  1. import threading
  2. import time
  3. class spider(threading.Thread):
  4.     def __init__(self, n, event):
  5.         super().__init__()
  6.         self.n = n
  7.         self.event = event
  8.     def run(self):
  9.         print(f'第{self.n}号爬虫已就位!')
  10.         self.event.wait()
  11.         print(f'信号标记变为True!!第{self.n}号爬虫开始运行')
  12. eve = threading.Event()
  13. for num in range(10):
  14.     crawler = spider(num, eve)
  15.     crawler.start()
  16. input('按下回车键,启动所有爬虫!')
  17. eve.set()
  18. time.sleep(10)

运行效果如下图所示:

在这段代码中,线程spider在运行以后,会运行到self.event.wait()这一行,然后10个子线程会全部阻塞在这里。而这里的self.event,就是主线程中eve = threading.Event()生成的对象传入进去的。

在主线程里面,当执行了eve.set()后,所有子线程的阻塞会被同时解除,于是子线程就可以继续运行了。

本文转载自微信公众号「未闻Code」,可以通过以下二维码关注。转载本文请联系未闻Code公众号。

分享文章:一日一技:Python多线程的事件监控
路径分享:http://www.shufengxianlan.com/qtweb/news44/243544.html

网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联