-
进入apache服务器官网http://httpd.apache.org/,这里我们以下载稳定版的httpd 2.4.25为例,点击"Files for Microsoft Windows"。
- 大致意思是说apache本身不提供已编译的安装包,只提供源码,如果你自己无法编译,可以选择下面这些官方推荐的第三方提供编译的网站。
-
其中后两个是有名的wamp以及xampp集成环境,如果只想下载apache可以选择前三个网站,这里我们第一个ApacheHaus为例。
-
打开ApacheHaus之后你会发现这个网站上有各种windows版本,可以尽情选择你要下载的版本。
-
x86是32位的(默认,省略),x64是64位的,根据自己的操作系统选择下载,同时也要注意visual studio的版本
-
解压后是一个压缩包,把他移动到你想放置的地方,注意,路径不要带空格。
- 修改conf中httpd.conf配置文件中ServerRoot路径,注意,路径最后没有“\”。
-
运行→cmd→以管理员权限运行,进入到apache下面的bin目录,输入
httpd -k install (卸载httpd -k uninstall)
把apache安装成windows后台服务。
-
利用ApacheMonitor来启动apache或者直接在服务管理器services.msc中启动
注意,在cmd下,使用httpd.exe -w -n "Apache2.4" -k start 来启动命令可以看到报错细节,用于排错特别有用。
-
更多操作请参考附带的说明文档readme_first.html。
-
安装成功后,在浏览器中输入localhost,出现如下页面表示成功
针对大家遇到的一些问题做下简单总结
由于apache默认是监听80端口,如果你的电脑iis是启动状态,并且也使用了80端口,apache将无法正常启动,需要先停止iis,另外迅雷也可能会使用80端口,所以也要关闭迅雷。查看80端口是否被占用,命令行下输入:
netstat -aon|findstr "80"
如果看到如图的结果,说明80端口已被使用,需要先关闭相关软件,或者修改apache默认的监听端口
打开apache目录下的conf/httpd.conf 搜索 "Listen 80"
修改为Listen 8088
保存之后再重新启动apache
服务无法正常安装,首先确定软件32位和64位是否和自己的系统匹配
其次,看电脑有没有安装软件相应的运行包,比如你下载的是VC9版本,那么你需要先安装Microsoft Visual C++ 2008 Redistributable ,同理VC11版本你需要安装Microsoft Visual C++ 2012 Update 4 Redistributable Package (X86 & x64)
在ApacheHaus网站的最底部提供了相应的Visual Studio Redistributable Packages下载链接
说明:本文转载自http://jingyan.baidu.com/article/29697b912f6539ab20de3cf8.html,部分内容有做修改,替换了一些图片,所有如果出现版本号不一致的问题请无视,不影响下载和安装过程。我的安装环境是win7 x64
相关文章
- Apache2.4 下载和安装 - Win10
- 如何在windows下载和安装Apache
- PySpark安装及WordCount实现(基于Ubuntu)-安装Java: PySpark需要Java运行环境。你可以使用以下命令安装OpenJDK: sudo apt update sudo apt install default-jre default-jdk 安装Scala: PySpark还需要Scala,可以使用以下命令安装: sudo apt install scala 安装Python: 如果你的系统没有Python,可以安装Python 3: sudo apt install python3 安装Apache Spark: 下载并解压Apache Spark。你可以在Apache Spark官网下载最新版本的Spark。 wget https://downloads.apache.org/spark/spark-x.y.z/spark-x.y.z-bin-hadoopx.y.tgz tar -xzvf spark-x.y.z-bin-hadoopx.y.tgz 将 spark-x.y.z-bin-hadoopx.y替换为你下载的实际版本。 设置环境变量: 在 .bashrc或 .zshrc文件中设置Spark和PySpark的环境变量: export SPARK_HOME=/path/to/spark-x.y.z-bin-hadoopx.y export PATH=$PATH:$SPARK_HOME/bin export PYSPARK_PYTHON=python3 记得使用实际的Spark路径。 安装PySpark: 使用pip安装PySpark: pip install pyspark 实现WordCount:
- windows 下载和安装Qt Creator
- windows11专业版密钥的获取、安装和使用、查看及使用次数查询(2024原版系统镜像iso下载 X64位家庭版升级专业版永久)
- Windows和Linux下apache-artemis-2.10.0安装配置
- Node.js windows版本 下载和安装(详细步骤)
- 如何在 Windows Azure 的虚拟机 ubuntu 上面安装和配置 openVPN(一)
- metro 应用 原理_从Windows 8中的Windows应用商店下载,安装和更新Metro-Style应用
- kinect for windows SDK 2.0下载和kinect 2安装调试