Python-王者荣耀自动刷金币+爬取英雄信息+图片

时间:2022-09-22 10:50:48

   前提:本文主要功能是

        1.用python代刷王者荣耀金币

        2.爬取英雄信息

        3.爬取王者荣耀图片之类的。

    (全部免费附加源代码)

   思路:第一个功能是在基于去年自动刷跳一跳python代码上面弄的,思路来源陈想大佬,主要是图片识别像素,然后本机运行模拟器即可,第二、三功能是python基本爬虫功能。3个功能整合了一下。

   实现效果如下:

  Python-王者荣耀自动刷金币+爬取英雄信息+图片

    

   

Python-王者荣耀自动刷金币+爬取英雄信息+图片

Python-王者荣耀自动刷金币+爬取英雄信息+图片

/***************************************************************************************************************************************************************************************************/

  1.自动刷王者荣耀金币(主要):

    配置环境

      adb环境配置: https://www.cnblogs.com/yc8930143/p/8259486.html 

i.            pip 安装PIL模块

ii.            pip安装six模块

iii.            pip安装shutil模块

iv.            pip安装subprocess模块

v.            pip安装numpy模块

vi.            pip安装matplotlib模块

    模拟器或者手机什么的只要adb device 能识别就行,端口什么的不影响,然后命令行在文件根目录下运行即可。

    过程:

      基本环境弄好后,代码就是search_jump的像素识别(大小为模拟器或手机界面大小),在一定范围内进行点击,然后循环点击即可,感觉可以用到其他APP上面(比如全名K歌签到领取鲜花等等)或者服务器上装一个windows系统,这样就可以一直跑了.

    注意:并不是只有一个automain.py代码,其中涉及到其他文件夹下的函数调用,主要就是模拟点击功能的实现吧。

  代码解析:

    screent_shot(屏幕截图):screen_way是截图方式,通过pull_screenshot和check_screenshot进行屏幕截图,便于后面图片像素分析(读者也可自己加入选择部分截图功能)

    yes_or_no:基本连接手机或模拟器函数,判断电脑是否连接上外设

    然后就是search_jump,game_next等基本函数了,感觉还是蛮容易理解的,给出源代码吧

链接: https://pan.baidu.com/s/1PXDPduSEUbAw-pOvrypM4A 提取码: am7s

  2.爬取图片和验证码(次要)

    识别官网API接口即可,然后简单处理信息,对于爬虫还算一个比较好的入门,给出完整代码

picture.py代码:

核心API接口就是:http://gamehelper.gm825.com/wzry/hero/list?game_id=7622   ,然后用户简单分析一下json数据即可

    

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time : 2018/9/24 17:11
# @Author : Empirefree
# @File : 爬取照片.py
# @Software: PyCharm
import requests
import os
from urllib.request import urlretrieve def download(url):
headers = {
'Accept-Charset': 'UTF-8',
'Accept-Encoding': 'gzip, deflate',
'Connection': 'Keep-Alive'
}
res = requests.get(url, headers=headers).json()
hero_num = len(res['list'])
print('[Hero Num]:%d' % hero_num)
for hero in res['list']:
pic_url = hero['cover']
hero_name = hero['name'] + '.jpg'
filename = './images/' + hero_name
if 'images' not in os.listdir():
os.makedirs('images')
urlretrieve(url=pic_url, filename=filename)
print('[INFO]:Get %s picture...' % hero['name']) if __name__ == '__main__':
print('**************************************************************************')
print('*****************!!!欢迎使用王者荣耀小助手!!!*************************')
print('*****************作者:Empirefree *********************')
print('*****************工具: Pycharm *********************')
print('*****************时间: 2018/9/24 17:11 *********************')
print('**************************************************************************')
download("http://gamehelper.gm825.com/wzry/hero/list?game_id=7622")
print('**************************************************************************')
print('照片已下载到您images目录下,请保证有网条件下执行本程序')
print('**************************************************************************')
n = input('回车结束........')

    info.py代码

    分析:和上述代码差不多,也是接口分析问题: http://gamehelper.gm825.com/wzry/equip/list?game_id=7622 ,个人感觉比较好用的就是网络图片下载的语句

    下载图片:urlretrieve()

 

    

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time : 2018/9/24 17:49
# @Author : Empirefree
# @File : info.py
# @Software: PyCharm
import requests
import time class Spider():
def __init__(self):
self.headers = {
'Accept-Charset': 'UTF-8',
'Accept-Encoding': 'gzip, deflate',
'Connection': 'Keep-Alive'
}
self.weapon_url = "http://gamehelper.gm825.com/wzry/equip/list?game_id=7622"
self.heros_url = "http://gamehelper.gm825.com/wzry/hero/list?game_id=7622"
self.hero_url = "http://gamehelper.gm825.com/wzry/hero/detail?hero_id={}"
print('*' * 60)
print('[INFO]:王者荣耀助手...')
print('[Usage]:请输入英雄ID获取英雄信息...')
print('[Author]:Empirefree')
print('*' * 60)
# 外部调用函数
def run(self):
heroId_exist = self._Get_HeroId()
heroId = input('\nEnter the Hero ID:')
if heroId not in heroId_exist:
print('[Error]:HeroId inexistence...')
return
weapon_info = self._Get_WeaponInfo()
self._Get_HeroInfo(weapon_info, heroId)
# 获得英雄ID
def _Get_HeroId(self):
res = requests.get(url=self.heros_url, headers=self.headers)
heros = res.json()['list']
num = 0
heroId_list = []
for hero in heros:
num += 1
print('%sID: %s' % (hero['name'], hero['hero_id']), end='\t\t\t')
heroId_list.append(hero['hero_id'])
if num == 3:
num = 0
print('')
return heroId_list
# 获取武器信息
def _Get_WeaponInfo(self):
res = requests.get(url=self.weapon_url, headers=self.headers)
weapon_info = res.json()['list']
return weapon_info
# 获得出装信息
def _Get_HeroInfo(self, weapon_info, heroId):
def seek_weapon(equip_id, weapon_info):
for weapon in weapon_info:
if weapon['equip_id'] == str(equip_id):
return weapon['name'], weapon['price']
return None
res = requests.get(url=self.hero_url.format(heroId), headers=self.headers).json()
print('[%s History]: %s' % (res['info']['name'], res['info']['history_intro']))
num = 0
for choice in res['info']['equip_choice']:
num += 1
print('\n[%s]:\n %s' % (choice['title'], choice['description']))
total_price = 0
for weapon in choice['list']:
weapon_name, weapon_price = seek_weapon(weapon['equip_id'], weapon_info)
print('[%s Price]: %s' % (weapon_name, weapon_price))
if num == 3:
print('')
num = 0
total_price += int(weapon_price)
print('[Ultimate equipment price]: %d' % total_price) if __name__ == '__main__':
while True:
Spider().run()
time.sleep(5)

    到此算是整理完王者荣耀写过的代码了,QAQ。

Python-王者荣耀自动刷金币+爬取英雄信息+图片的更多相关文章

  1. python协程gevent案例:爬取斗鱼美女图片

    分析 分析网站寻找需要的网址 用谷歌浏览器摁F12打开开发者工具,然后打开斗鱼颜值分类的页面,如图: 在里面的请求中,最后发现它是以ajax加载的数据,数据格式为json,如图: 圈住的部分是我们需要 ...

  2. Python爬虫(二十)_动态爬取影评信息

    本案例介绍从JavaScript中采集加载的数据.更多内容请参考:Python学习指南 #-*- coding:utf-8 -*- import requests import re import t ...

  3. python爬虫---实现项目(一) Requests爬取HTML信息

    上面的博客把基本的HTML解析库已经说完了,这次我们来给予几个实战的项目. 这次主要用Requests库+正则表达式来解析HTML. 项目一:爬取猫眼电影TOP100信息 代码地址:https://g ...

  4. [python] 常用正则表达式爬取网页信息及分析HTML标签总结【转】

    [python] 常用正则表达式爬取网页信息及分析HTML标签总结 转http://blog.csdn.net/Eastmount/article/details/51082253 标签: pytho ...

  5. Python爬虫初探 - selenium+beautifulsoup4+chromedriver爬取需要登录的网页信息

    目标 之前的自动答复机器人需要从一个内部网页上获取的消息用于回复一些问题,但是没有对应的查询api,于是想到了用脚本模拟浏览器访问网站爬取内容返回给用户.详细介绍了第一次探索python爬虫的坑. 准 ...

  6. Python爬取招聘信息,并且存储到MySQL数据库中

    前面一篇文章主要讲述,如何通过Python爬取招聘信息,且爬取的日期为前一天的,同时将爬取的内容保存到数据库中:这篇文章主要讲述如何将python文件压缩成exe可执行文件,供后面的操作. 这系列文章 ...

  7. Python爬取网页信息

    Python爬取网页信息的步骤 以爬取英文名字网站(https://nameberry.com/)中每个名字的评论内容,包括英文名,用户名,评论的时间和评论的内容为例. 1.确认网址 在浏览器中输入初 ...

  8. Python爬虫学习(6): 爬取MM图片

    为了有趣我们今天就主要去爬取以下MM的图片,并将其按名保存在本地.要爬取的网站为: 大秀台模特网 1. 分析网站 进入官网后我们发现有很多分类: 而我们要爬取的模特中的女模内容,点进入之后其网址为:h ...

  9. python 爬虫入门----案例爬取上海租房图片

    前言 对于一个net开发这爬虫真真的以前没有写过.这段时间学习python爬虫,今天周末无聊写了一段代码爬取上海租房图片,其实很简短就是利用爬虫的第三方库Requests与BeautifulSoup. ...

随机推荐

  1. python爬虫—爬取百度百科数据

    爬虫框架:开发平台 centos6.7 根据慕课网爬虫教程编写代码 片区百度百科url,标题,内容 分为4个模块:html_downloader.py 下载器 html_outputer.py 爬取数 ...

  2. LeetCode 26 Remove Duplicates from Sorted Array

    Problem: Given a sorted array, remove the duplicates in place such that each element appear only onc ...

  3. rest-assured : Restful API 测试利器 - 真正的黑盒单元测试(跟Spring-Boot更配哦,更新至spring-boot1.4.1)

    { "Author":"tomcat and jerry", "URL" :"http://www.cnblogs.com/tom ...

  4. charset的获取方法

      1.解析http请求的返回值: 2.通过解析html的meta标签里面的数据: 3.通过cpdetector(java环境下)来自动验证: ---------------------------- ...

  5. LeetCode Perfect Squares

    原题链接在这里:https://leetcode.com/problems/perfect-squares/ 题目: Given a positive integer n, find the leas ...

  6. python学习笔记9(对文件的操作)

    一.文件对象 我理解的文件对象就是一个接口,通过这个接口对文件进行相关操作. 二.相关函数 [1].内建函数:open() 提供了初始化输入/输出(I/O)操作的通用接口,成功打开一个文件后会返回一个 ...

  7. poj3415

    很久以前写的,忘补结题报告了两串相连中间用特殊的分隔符然后求height,由于要求求公共子串大于等于k的个数,并且只要位置不同即可因此不难想到在名次上对height分组,一组内的height保证&gt ...

  8. Anniversary party POJ - 2342 (树形DP)

    题目链接:  POJ - 2342 题目大意:给你n个人,然后每个人的重要性,以及两个人之间的附属关系,当上属选择的时候,他的下属不能选择,只要是两个人不互相冲突即可.然后问你以最高领导为起始点的关系 ...

  9. 记第一次XSS实战

    前两天偶然挖到一个XSS,在我低谷期的时候给了我些动力,遂写下这篇博客记录 随手在一个搜索框中测试,发现有反应 观察一下标签,需要">把前面的闭合,然后<a 把后面的标签闭合 结 ...

  10. retry示例

    #!/usr/bin/python2.7 # -*- coding: utf-8 -*- import time import exceptions def func(): # a,b = None ...