300字范文,内容丰富有趣,生活中的好帮手!
300字范文 > 千图成像python_爬取英雄联盟所有皮肤图片实现千图成像~

千图成像python_爬取英雄联盟所有皮肤图片实现千图成像~

时间:2021-05-15 10:33:06

相关推荐

千图成像python_爬取英雄联盟所有皮肤图片实现千图成像~

:点击上方[Python爬虫数据分析挖掘]→右上角[...]→[设为星标⭐]

前文

本文主要分为两个部分

一部分是爬虫,这边是选择爬取英雄联盟官网英雄资料中的英雄皮肤图片,如下为新英雄seraphine的页面,包含英雄对应的所有皮肤;

另一部分是图片的合成,先将所有英雄皮肤图片拼接成为一张图作为背景,然后与另一张图片进行合成,效果如下:

爬虫

思路整理

F12打开控制台后刷新页面(/data/info-defail.shtml?id=147),既然是找图片,直接在img标签下找就好了;

获取到图片的地址之后(/images/lol/act/img/skin/big147001.jpg),接着再往下找,在xhr标签下,找到了包含皮肤图片地址的接口(/images/lol/act/img/js/hero/147.js),测试一下,可以直接访问,没啥限制;

多看几个英雄的页面就能发现,这个147其实就是对应英雄的ID,如果我们有英雄的ID,直接拼接成新的接口地址就可以,接着继续往下找能获取英雄ID的接口;

在资料库首页刷新,有个叫hero_list(/images/lol/act/img/js/heroList/hero_list.js)的就很明显,从返回的内容来看,确实包含了我们需要的英雄ID;

这样思路就很清晰了,先从hero_list获取所有英雄的ID,然后拼接成单个英雄信息的接口访问获取到皮肤图片的地址,下载图片完事~

完整代码

为了速度快点,加了一个异步,实测6S爬取完所有的皮肤~

#!/usr/bin/env python# -*- coding: utf-8 -*-#@Author:李运辰# @File : crawler.py# @Version : Python 3.7# @Time : -11-30 23:05import requestsimport asyncioimport osfrom aiohttp import ClientSessionimport aiohttpimport jsonfrom datetime import datetimeasync def skins_downloader(semaphore, hero_id, hero_name):async with semaphore:url = '/images/lol/act/img/js/hero/{}.js'.format(hero_id)dir_name = 'skins/{}'.format(hero_name)if not os.path.exists(dir_name):os.mkdir(dir_name)async with ClientSession(connector=aiohttp.TCPConnector(ssl=False)) as session:async with session.get(url) as response:response = await response.read()for skin in json.loads(response)['skins']:if skin['mainImg']:img_url = skin['mainImg']# kda女团皮肤名带斜杠,replace掉path = os.path.join(dir_name, '{}.jpg'.format(skin['name'].replace('/', ''), ))async with session.get(img_url) as skin_response:with open(path, 'wb') as f:print('\rDownloading [{:^10}] {:<20}'.format(hero_name, skin['name']), end='')f.write(await skin_response.read())def hero_list():return requests.get('/images/lol/act/img/js/heroList/hero_list.js').json()['hero']async def run():semaphore = asyncio.Semaphore(30)heroes = hero_list()tasks = []for hero in heroes:tasks.append(asyncio.ensure_future(skins_downloader(semaphore, hero['heroId'], hero['title'])))await asyncio.wait(tasks)if __name__ == '__main__':start_time = datetime.now()loop = asyncio.get_event_loop()loop.run_until_complete(run())loop.close()end_time = datetime.now()time_diff = (end_time - start_time).secondsprint('\nTime cost: {}s'.format(time_diff))

每个英雄对应一个文件夹~

图片合成

图片尺寸处理

因为最后图片合成需要保持一样的尺寸,所以第一步我们先把主图的尺寸resize成我们想要的;

英雄皮肤的图片都是980*500,我们把皮肤图片尺寸缩小10倍也就是98*50,然后保证每行有50张子图,这样便得到了我们需要resize的宽度(98*50),然后根据主图本身的长宽比计算出我们需要resize的高度,具体代码如下:

mask_img = Image.open('/home/kesci/work/skins/league of legend.jpeg')# 获取图片本身宽度、高度width, height = mask_img.size# 计算resize后的尺寸,注意取整to_width = 98 * 50to_height = ((to_width / width) * height // 50) * 50mask_img = mask_img.resize((int(to_width), int(to_height)), Image.ANTIALIAS)# 显示图片plt.figure(figsize=(25,15))plt.imshow(mask_img)plt.axis('off')plt.show()

子图拼接

接下来便是把英雄图片拼接成一张图片,尺寸与之前主图尺寸保持一致;

读取所有皮肤图片将尺寸resize为98*50,转为np.array格式缓存到list中共后面调用;

skin_array_collection = []for fpath, dirname, fnames in os.walk('/home/kesci/work/skins'):if not dirname:for fn in fnames:try:skin_array_collection.append(np.array(Image.open(os.path.join(fpath, fn)).convert('RGB').resize((98, 50), Image.ANTIALIAS)))except OSError:print('读取文件出错:「{}」'.format(os.path.join(fpath, fn)))

将刚刚的array随机组合到一起,转为图片就好了~

w_times, h_times = int(to_width / 98), int(to_height / 50)bg_img = np.zeros_like(np.array(mask_img))for i in tqdm(range(w_times), desc='MERGE'):for j in range(h_times):bg_img[j * 50:(j + 1) * 50, i * 98:(i + 1) * 98, :] = random.choice(skin_array_collection)bg_img = Image.fromarray(bg_img)# 显示图片plt.figure(figsize=(25,15))plt.imshow(bg_img)plt.axis('off')plt.show()

图片合成

这边使用了Pillow中的Image.blend,将主图和刚才生成的皮肤背景图合成到一起,通过alpha参数控制背景的透明程度;

img = Image.blend(bg_img, mask_img, alpha=0.8)img.save('/home/kesci/work/skins/out_put.jpeg')# 显示图片plt.figure(figsize=(25,15))plt.imshow(img)plt.axis('off')plt.show()

效果如下:

学习累了听听歌,今天单曲循环不知道多少次了,分享给你们

-END -

【各种爬虫源码获取方式】

识别文末二维码,回复:爬虫源码

欢迎关注公众号:Python爬虫数据分析挖掘,方便及时阅读最新文章

记录学习python的点点滴滴;

回复【开源源码】免费获取更多开源项目源码;

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。