// http://www.outofmemory.cn
function ExpandEnvironment(const strValue: string): string;
var
chrResult: array[..] of Char;
wrdReturn: DWORD;
begin
wrdReturn := ExpandEnvironmentStrings(PChar(strValue), chrResult, );
if wrdReturn = then
Result := strValue
else
begin
Result := Trim(chrResult);
end;
end;
使用范例
EditPath.Text := ExpandEnvironment('%systemroot%\Temp\');
在windows下输入如下结果
C:\Windows\Temp\
相关文章
- 专家系统的基本概念解析——基于《人工智能原理与方法》的深度拓展-五、总结与展望
- 硬核科普丨2025年安全、高效网络准入控制系统深度解析-一、网络准入控制系统的概念
- 问题一:操作系统是什么?你知道哪些操作系统?怎么看自己的操作系统?电脑上怎么找到环境变量?问题二:Java开发工具还有哪些?问题三:软件公司有哪些?
- Delphi解析修改Json文件,基于superobject.pas(ISuperObject)
- 《TCP/IP 详解 卷1:协议》第 11 章:名称解析和域名系统
- Java环境变量(Env)和系统属性(Property)
- 深入解析Java模块系统:Root Modules与Java EE的融合之道
- Linux操作系统下三种配置环境变量的方法(Linux查看环境变量当前信息和查看命令)
- Linux系统中环境变量的设置
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount: