一日一技:等待多个线程同时结束的两种方法

我们在写多线程代码的时候,可能会需要等待多个线程同时结束,然后再进行后续的流程。例如,我做了一个聚合搜索引擎,用户输入一个关键词,我需要同时在很多个搜索引擎上搜索,然后把搜索结果汇总以后返回给用户。

示例代码如下:

 
 
 
 
  1. @app.get('/api/search')
  2. def search(keyword: str):
  3.     google_result = requests.get('Google 搜索地址').text
  4.     baidu_result = requests.get('百度搜索地址').text
  5.     bing_result = requests.get('Bing搜索地址').text
  6.     result = combine(google_result, baidu_result, bing_result)
  7.     return {'success': True, 'result': result}

从上面这段代码,大家可能会发现一个问题,就是在请求多个搜索引擎的时候是串行的,先访问 Google,访问完成再访问百度,访问完成最后访问 Bing。这样显然会浪费大量的时间。

如果你不会async/await,那么为了解决这个问题,你能想到的显然就是使用多线程。使用3个线程同时访问 Google、百度和 Bing,然后把结果汇总传入combine函数,不就解决问题了吗?

如果仅仅是启动多个线程,那么做法很简单:

 
 
 
 
  1. import threading
  2. def get_url(url):
  3.     result = requests.get(url, headers=HEADERS).text
  4.     return result
  5. @app.get('/api/search')
  6. def search(keyword: str):
  7.     google_thead = threading.Thread(target=get_url, 'Google 搜索地址')
  8.     baidu_thread = threading.Thread(target=get_url, '百度搜索地址')
  9.     bing_thread = threading.Thread(target=get_url, 'Bing搜索地址')
  10.     google_thread.start()
  11.     baidu_thread.start()
  12.     bing_thread.start()
  13.     ...

现在问题来了,三个线程确实已经启动了,但你怎么知道到什么时候为止,所有线程都运行完毕?

这里我们给出几个方法。

使用 join

调用线程的.join()方法,就可以卡住主线程,直到这个子线程运行完毕才能让主线程继续运行后面的代码。所以我们可以修改代码为:

 
 
 
 
  1. import threading
  2. def get_url(url):
  3.     result = requests.get(url, headers=HEADERS).text
  4.     return result
  5. @app.get('/api/search')
  6. def search(keyword: str):
  7.     google_thead = threading.Thread(target=get_url, 'Google 搜索地址')
  8.     baidu_thread = threading.Thread(target=get_url, '百度搜索地址')
  9.     bing_thread = threading.Thread(target=get_url, 'Bing搜索地址')
  10.     google_thread.start()
  11.     baidu_thread.start()
  12.     bing_thread.start()
  13.     
  14.     google_thread.join()
  15.     baidu_thread.join()
  16.     bing_thread.join()

但等一等,我怎么拿到子线程的返回呢?在默认情况下,你确实拿不到返回的数据。所以你需要传入一个东西去子线程接收结果。所以代码可以改为:

 
 
 
 
  1. import threading
  2. def get_url(url, output):
  3.     result = requests.get(url, headers=HEADERS).text
  4.     output.append(result)
  5. @app.get('/api/search')
  6. def search(keyword: str):
  7.     result = []
  8.     google_thead = threading.Thread(target=get_url, args=['Google 搜索地址', result])
  9.     baidu_thread = threading.Thread(target=get_url, args=['百度搜索地址', result])
  10.     bing_thread = threading.Thread(target=get_url, args=['Bing搜索地址', result])
  11.     google_thread.start()
  12.     baidu_thread.start()
  13.     bing_thread.start()
  14.     
  15.     google_thread.join()
  16.     baidu_thread.join()
  17.     bing_thread.join()
  18.     combine(*result)

因为线程是共享内存的,所以他们可以直接修改主线程传入的列表。

在使用.join()的时候,需要小心不要把.join()放错了地方,否则你的多线程就会变成单线程。详情可以看我的这篇文章: 等一等,你的多线程可别再乱 join 了。

ThreadPoolExecutor

Python 自带了一个concurrent模块,它就是专门用来处理并发问题的。我们也可以使用这个模块中的ThreadPoolExecutor来解决问题:

 
 
 
 
  1. from concurrent.futures import ThreadPoolExecutor, as_completed
  2. def get_url(url):
  3.     result = requests.get(url, headers=HEADERS).text
  4.     return result
  5. @app.get('/api/search')
  6. def search(keyword: str):
  7.     tasks = []
  8.     with ThreadPoolExecutor() as executor:
  9.         for url in ['Google 搜索地址', '百度搜索地址', 'Bing搜索地址']
  10.             task = executor.submit(get_url, url)
  11.             tasks.append(task)
  12.         result = [x.result() for x in as_completed(tasks)]
  13.  
  14.     combine(*result)
  15.     ...

concurrent.futures里面的as_completed函数接收一个列表,列表里面是多个并发任务。当所有并发任务都运行结束时,它才会返回一个可迭代对象。对它进行迭代以后,每个元素的.result()就是每个子线程运行的返回结果。

其他方法

除了上面两个方法外,还可以使用multiprocessing.dummy里面的Pool来实现更简单的多线程。

本文转载自微信公众号「未闻Code」,可以通过以下二维码关注。转载本文请联系未闻Code公众号。

本文标题:一日一技:等待多个线程同时结束的两种方法
分享链接:http://www.shufengxianlan.com/qtweb/news48/328748.html

网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联