使用 nginx + fastDFS搭建静态资源服务器(集群)

时间:2024-04-07 22:41:11

需求分析

某视频网站拥有大量的视频/文件/图片提供给用户下载.为了解决海量文件存储以及传输访问的瓶颈问题,需要使用分布式文件系统对海量视频和图片进行管理.

分布式文件系统

文件系统是负责管理和存储文件的系统软件,它是操作系统和硬件驱动之间的桥梁,操作系统通过文件系统提供的接口去存取文件,用户通过操作系统访问磁盘上的文件。
常见的文件系统:FAT16/FAT32、NTFS、HFS、UFS、APFS、XFS、Ext4.

什么是分布式文件系统?
是指文件系统管理的物理存储资源不一定直接连接再本地节点上,而是通过计算机网络节点相连.分布式文件系统的设计基于客户机/服务器模式.

在什么背景下产生的 ?
分布式文件系统是面对互联网的需求而产生,互联网时代对海量数据如何存储?靠简单的增加硬盘的个数已经满足不了我们的要求,因为硬盘传输速度有限但是数据在急剧增长,另外我们还要要做好数据备份、数据安全等.
采用分布式文件系统可以将多个地点的文件系统通过网络连接起来,组成一个文件系统网络,结点之间通过网络进行通信,一台文件系统的存储和传输能力有限,我们让文件在多台计算机上存储,通过多台计算共同传输.
使用 nginx + fastDFS搭建静态资源服务器(集群)主流的分布式文件系统
NFS:
网络文件系统.它允许网络中的计算机之间通过TCP/IP网络共享资源. 在NFS应用中,本地NFS的客户端应用可以透明地读写位于远端NFS服务器上地文件,就像访问本地文件一样;
使用 nginx + fastDFS搭建静态资源服务器(集群)
GFS:
googleFS 是一个可扩展的分布式文件系统,用于大型的,分布式的,对大量数据进行访问的应用.
使用 nginx + fastDFS搭建静态资源服务器(集群)GFS采用主从结构,一个GFS集群由一个master和大量的chunkserver组成。
master存储了数据文件的元数据,一个文件被分成了若干块存储在多个chunkserver中。
用户从master中获取数据元信息,从chunkserver存储数据。

HDFS
Hadoop分布式文件系统.
使用 nginx + fastDFS搭建静态资源服务器(集群)HDFS采用主从结构,一个HDFS集群由一个名称结点和若干数据结点组成。
名称结点存储数据的元信息,一个完整的数据文件分成若干块存储在数据结点。
客户端从名称结点获取数据的元信息及数据分块的信息,得到信息客户端即可从数据块来存取数据。

FastDFS
FastDFS是用c语言编写的一款开源的分布式文件系统,它是由淘宝资深架构师余庆编写并开源。FastDFS专为互联
网量身定制,充分考虑了冗余备份、负载均衡、线性扩容等机制,并注重高可用、高性能等指标,使用FastDFS很
容易搭建一套高性能的文件服务器集群提供文件上传、下载等服务。
为什么要使用fastDFS呢?
上边介绍的NFS、GFS都是通用的分布式文件系统,通用的分布式文件系统的优点的是开发体验好,但是系统复杂
性高、性能一般,而专用的分布式文件系统虽然开发体验性差,但是系统复杂性低并且性能高。fastDFS非常适合
存储图片等那些小文件,fastDFS不对文件进行分块,所以它就没有分块合并的开销,fastDFS网络通信采用
socket,通信速度很快。

FastDFS

FastDFS架构包括 Tracker server和Storageserver。客户端请求Tracker server进行文件上传、下载,通过Tracker
server调度最终由Storage server完成文件上传和下载。
使用 nginx + fastDFS搭建静态资源服务器(集群)Tracker
Tracker Server作用是负载均衡和调度,通过Tracker server在文件上传时可以根据一些策略找到Storage server提
供文件上传服务。可以将tracker称为追踪服务器或调度服务器。
FastDFS集群中的Tracker server可以有多台,Tracker server之间是相互平等关系同时提供服务,Tracker server
不存在单点故障。客户端请求Tracker server采用轮询方式,如果请求的tracker无法提供服务则换另一个tracker。

Storage
Storage Server作用是文件存储,客户端上传的文件最终存储在Storage服务器上,Storage server没有实现自己
的文件系统而是使用操作系统的文件系统来管理文件。可以将storage称为存储服务器。
Storage集群采用了分组存储方式。storage集群由一个或多个组构成,集群存储总容量为集群中所有组的存储容
量之和。一个组由一台或多台存储服务器组成,组内的Storage server之间是平等关系,不同组的Storage server
之间不会相互通信,同组内的Storage server之间会相互连接进行文件同步,从而保证同组内每个storage上的文件
完全一致的。一个组的存储容量为该组内的存储服务器容量最小的那个,由此可见组内存储服务器的软硬件配置最
好是一致的。
采用分组存储方式的好处是灵活、可控性较强。比如上传文件时,可以由客户端直接指定上传到的组也可以由
tracker进行调度选择。一个分组的存储服务器访问压力较大时,可以在该组增加存储服务器来扩充服务能力(纵向
扩容)。当系统容量不足时,可以增加组来扩充存储容量(横向扩容)。

Storage状态收集
Storage server会连接集群中所有的Tracker server,定时向他们报告自己的状态,包括磁盘剩余空间、文件同步
状况、文件上传下载次数等统计信息。

文件上传
使用 nginx + fastDFS搭建静态资源服务器(集群)客户端上传文件后存储服务器将文件ID返回给客户端,此文件ID用于以后访问该文件的索引信息。文件索引信息
包括:组名,虚拟磁盘路径,数据两级目录,文件名。
文件id: group1/M00/00/00/wKgBCF7KYsSAGE4JAABKhfKyg7s44.jpeg
组名:文件上传后所在的storage组名称,在文件上传成功后由storage服务器返回,需要客户端自行保存
虚拟磁盘路径:storage配置的虚拟路径.
数据两级目录:storage服务器在每个虚拟磁盘路径下创建的两级目录,用于存储数据文件.
文件名:与文件上传时不同。是由存储服务器根据特定信息生成,文件名包含:源存储服务器IP地址、文件创建时间戳、文件大小、随机数和文件拓展名等信息。

文件下载流程
使用 nginx + fastDFS搭建静态资源服务器(集群)1.通过组名tracker能够很快的定位到客户端需要访问的存储服务器组是group1,并选择合适的存储服务器提供客户端访问。
2.存储服务器根据“文件存储虚拟磁盘路径”和“数据文件两级目录”可以很快定位到文件所在目录,并根据文件名找到客户端需要访问的文件。

环境搭建

实验环境:Ubuntu
部署: tracker 和 storage server部署在同一机器(192.168.1.8)

1 安装依赖库
sudo apt-get install openssl libssl-dev
sudo apt-get install libpcre3 libpcre3-dev
sudo apt-get install zlib1g-dev

2 安装libevent
wget https://github.com/downloads/libevent/libevent/libevent-2.0.2-alpha.tar.gz .
tar zxvf libevent-2.0.2-alpha.tar.gz
cd libevent-2.0.2-alpha/
./configure --prefix=/usr
make
make install

3 安装libfastcommon
下载libfastcommonV1.0.7.tar.gz
tar -zxvf libfastcommonV1.0.7.tar.gz
cd libfastcommon-1.0.7
./make.sh
./make.sh install
libfastcommon安装好后会自动将库文件拷贝至/usr/lib64下,由于FastDFS程序引用/usr/lib目录所以需要将/usr/lib64下的库文件软连接到/usr/lib下
ln -s /usr/lib64/libfdfsclient.so /usr/lib/libfdfsclient.so

4 安装 tracker
下载FastDFS_v5.05.tar.gz拷贝至/usr/local/下
tar zxvf FastDFS_v5.05.tar.gz
cd FastDFS/
./make.sh
./make.sh install
cd /etc/fdfs/
cp tracker.conf.sample tracker.conf
修改配置
vim tracker.conf
bind_addr=192.168.1.8
port=22122
base_path=/home/fastdfs/tracker
http.server_port=8080
启动 /usr/bin/fdfs_trackerd /etc/fdfs/tracker.conf start

5 安装storage
同tracker安装
由于本实验在同一机器,省略安装步骤
cd /etc/fdfs/
cp nginx.conf nginx-storage.conf
cp storage.conf.sample storage.conf
vim storage.conf
bind_addr=192.168.1.8
port=23000
group_name=group1
base_path=/home/fastdfs/storage
store_path0=/home/fastdfs/storage/storage0/ #文件存储的目录
#如果有多个挂载磁盘则定义多个store_path,如下
#store_path1=…
#store_path2=…
tracker_server=192.168.1.8:22122
#如果有多个则配置多个tracker
http.server_port=8081 #可以通过 http访问文件内容
启动
/usr/bin/fdfs_storaged /etc/fdfs/storage.conf start

6 测试
到目前位 tracker 和 storage 都启动了,以及可以实现文件上传下载了.
下面通过fdfs_test 测试fastDFS的功能
cd /etc/fdfs/
cp client.conf.sample client.conf
vim client.conf
base_path=/home/fastdfs/client
tracker_server=192.168.1.8:22122 #tracker server地址
/usr/bin/fdfs_test /etc/fdfs/client.conf upload ~/1.jpeg #上传1.jpeg 文件
在 /home/fastdfs/storage/storage0/data/00/00 下可以看到 生成新的文件 wKgBCF7KYsSAGE4JAABKhfKyg7s44.jpeg

7 在Storage上安装nginx
在storage server上安装nginx的目的是对外通过http访问storage server上的文件。使用nginx的模块FastDFS-nginx-module的作用是通过http方式访问storage中的文件,当storage本机没有要找的文件时向源storage主机代理请求文件。

7.1 安装FastDFS-nginx-module
下载FastDFS-nginx-module_v1.16.tar.gz
tar zxvf fastdfs-nginx-module_v1.16.tar.gz
cd fastdfs-nginx-module/src/
cp mod_fastdfs.conf /etc/fdfs/
vim /etc/fdfs/mod_fastdfs.conf
base_path=/home/fastdfs/storage
tracker_server=192.168.1.8:22122
storage_server_port=23000
group_name=group1
store_path0=/home/fastdfs/storage/storage0
url_have_group_name=true #url中包含group名称
将libfdfsclient.so拷贝至/usr/lib下
cp /usr/lib64/libfdfsclient.so /usr/lib/

7.2 安装nginx
wget http://nginx.org/download/nginx-1.17.10.tar.gz .
tar zxvf nginx-1.17.10.tar.gz
cd nginx-1.17.10/
./configure --prefix=/etc/nginx --sbin-path=/usr/sbin/nginx --modules-path=/usr/lib/nginx/modules --conf-path=/etc/nginx/nginx.conf --error-log-path=/var/log/nginx/error.log --http-log-path=/var/log/nginx/access.log --pid-path=/var/run/nginx.pid --lock-path=/var/run/nginx.lock --http-client-body-temp-path=/var/cache/nginx/client_temp --http-proxy-temp-path=/var/cache/nginx/proxy_temp --http-fastcgi-temp-path=/var/cache/nginx/fastcgi_temp --http-uwsgi-temp-path=/var/cache/nginx/uwsgi_temp --http-scgi-temp-path=/var/cache/nginx/scgi_temp --user=nginx --group=nginx --with-compat --with-file-aio --with-threads --with-http_addition_module --with-http_auth_request_module --with-http_dav_module --with-http_flv_module --with-http_gunzip_module --with-http_gzip_static_module --with-http_mp4_module --with-http_random_index_module --with-http_realip_module --with-http_secure_link_module --with-http_slice_module --with-http_ssl_module --with-http_stub_status_module --with-http_sub_module --with-http_v2_module --with-mail --with-mail_ssl_module --with-stream --with-stream_realip_module --with-stream_ssl_module --with-stream_ssl_preread_module --add-module=/root/fastdfs/fastdfs-nginx-module/src
make
make install
useradd -s /sbin/nologin -M nginx
id nginx
mkdir -p /var/cache/nginx/
拷贝 tracker server安装问了里的 mime.types http.conf 到 /etc/fdfs/
cp ./fastdfs/FastDFS/conf/http.conf /etc/fdfs/
cp ./fastdfs/FastDFS/conf/mime.types /etc/fdfs

配置nginx
vim nginx-storage.conf
server {
listen 8081;
server_name 192.168.1.8;
location /group1/M00 {
root /home/fastdfs/storage/storage0/data;
ngx_fastdfs_module;
}
}

启动 nginx
/usr/sbin/nginx -c /etc/nginx/nginx-storage.conf

下面可以通过 http访问
http://192.168.1.8:8081/group1/M00/00/00/wKgBCF7KYsSAGE4JAABKhfKyg7s44.jpeg

nginx代理访问静态资源

使用ngix代理,它的作用是
1 代理访问storage上的文件,实现负载均衡.
2 解耦clients和storage之间依赖. 水平扩展 storage组之后,只需系统管理员在ngix代理上新增扩展的storage信息,对用户来说是不可见.
具体架构如下所示:
使用 nginx + fastDFS搭建静态资源服务器(集群) 配置nginx 代理服务器
vim /etc/nginx/nginx-lb.conf
upstream img_server_pool {
server 192.168.1.8:8081 weight=10;
}
server {
listen 8080;
server_name img.xysc.com;
location /group1/ {
proxy_pass http://img_server_pool;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}

启动代理服务器:
/usr/sbin/nginx -c /etc/nginx/nginx-lb.conf

下面可以通过代理访问文件资源了
http://192.168.1.8:8080/group1/M00/00/00/wKgBCF7KYsSAGE4JAABKhfKyg7s44.jpeg