import time, datetime, re, subprocess, sys, os, win32net, win32api, win32con, win32netcon, win32security, pymysql, time, \
wmi, requests, ctypes, json
import schedule, shutil, datetime, time
import winreg, math
from glob import glob
import subprocess as sp
import traceback, re def getFileVersion(file_name):
try:
info = win32api.GetFileVersionInfo(file_name, os.sep)
ms = info['FileVersionMS']
ls = info['FileVersionLS']
version = '%d.%d.%d.%d' % (win32api.HIWORD(ms), win32api.LOWORD(ms), win32api.HIWORD(ls), win32api.LOWORD(ls))
return version
except Exception as e:
return "None" softwareVersion = getFileVersion("D:\Program Files (x86)\JD\dd_workbench\dd_workbench.exe") print(softwareVersion)
相关文章
- python 打包exe文件,闪退原因踩坑汇总
- python 获取当前文件路径
- python打开.exe文件
- python怎么打开exe文件_如何让Python脚本成为在Windows环境中运行的exe文件
- Java获取exe文件详细信息:产品名称,产品版本等
- python pandas读取csv文件指定行_python pandas获取csv指定行 列的操作方法
- 使用py2exe将python脚本转换成exe可执行文件
- python如何制作exe文件_Python制作exe文件简单流程
- python:获取csv文件指定的几行
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount: