FastDFS 集群搭建_fastdfs在线扩容-程序员宅基地

技术标签: FastDFS  Nginx  Linux  集群  JavaWeb  

FastDFS 集群搭建

前言

于前几天搭建了 FastDFS 单机版来使用,而实际应用中,一般使用的都是集群版本的 FastDFS,相比于单机版,大体的搭建差不多,只不过配置文件的内容有所不同。


前期规划

  • Nginx 服务器一台,用于作为 HTTP 访问的入口
    • 本次虚拟机的 IP 为 192.168.229.167
  • Tracker 集群,这里配置两台 Tracker 服务器
    • IP 分别为 192.168.229.170,192.168.229.171
    • 在 Tracker 上部署 Nginx,提供 HTTP 访问的反向代理、负载均衡以及缓存等
  • Storage 集群,这里配置两台 Storage 服务器,分为两个组
    • 同一组的 Storage 服务器存储的数据相同
    • 同一组的数据存储容量取决于该组中存储容量最小的那台
    • IP 为 192.168.229.175,192.168.229.176
    • 部署 Nginx 以及 FastDFS 的 Nginx 扩展模块,提供访问与下载服务等

操作文件时,将直接使用相关的 api 连接到 Tracker 服务器中进行增删改查。访问时,则使用 Nginx 服务器做负载均衡转发请求到 Tracker 服务器,由 Tracker 服务器中的 Nginx 再转发给 Storage 服务器进行处理。

本次练习的环境

  • 虚拟机工具 :VMware Workstations 14 Pro
  • 操作系统 :CentOS 7 64位
    • 为了方便起见,这里已经将防火墙关闭了
    • 实际应用中,则开启防火墙,开放相应的端口即可

前期准备的安装包有:

libfastcommon(这里使用 1.0.38 版本):https://github.com/happyfish100/libfastcommon/releases

FastDFS(这里使用 5.11 版本):https://github.com/happyfish100/fastdfs/releases

fastdfs-nginx-module(这里使用 1.16 版本):https://github.com/happyfish100/fastdfs-nginx-module/releases

ngx_cache_purge(这里使用 2.3 版本):http://labs.frickle.com/files/

Nginx(这里使用 1.15.1 版本):http://nginx.org/en/download.html

安装软件

  • Nginx 服务器
    • ngx_cache_purge
    • Nginx
  • Tracker 服务器
    • libfastcommon
    • FastDFS
    • Nginx
    • ngx_cache_purge
  • Storage 服务器
    • libfastcommon
    • FastDFS
    • Nginx
    • ngx_cache_purge
    • fastdfs-nginx-module

根据上面的列表将相关的软件拷贝到各个服务器中的 /root 目录下,并进行解压操作(由于以上的软件我下载的都是 tar.gz 压缩格式的,故统一使用命令:tar zxvf XXX.tar.gz 来进行解压操作。


安装 FastDFS

FastDFS 的安装其实很简单,在上一回的文章已经讲过了(FastDFS 单机版环境搭建),Tracker 服务器和 Storage 服务器都需要安装 FastDFS,这里快速的过一遍。

# 在线安装依赖环境
yum install gcc gcc-c++ make automake autoconf libtool pcre* zlib openssl openssl-devel
# 进入 root 目录下
cd /root
# 解压 libfastcommon 压缩包
tar zxvf libfastcommon-1.0.38.tar.gz
# 进入 libfastcommon 文件夹中,编译 libfastcommon 以及安装
cd libfastcommon-1.0.38
./make.sh && ./make.sh install
# 由于 libfastcommon 安装的路径在 /usr/lib64/ 
# 但是 FastDFS 主程序设置的 lib 目录是在 /usr/local/lib,所以需要创建软链接
# 不过试了一下,不创建也没问题,可能是使用的版本更新了,亦或者因为我的 CentOS7 是 64 位的
# 如果 FastDFS 安装有问题,则运行以下四条命令重新安装 FastDFS
# ln -s /usr/lib64/libfastcommon.so /usr/local/lib/libfastcommon.so 
# ln -s /usr/lib64/libfastcommon.so /usr/lib/libfastcommon.so 
# ln -s /usr/lib64/libfdfsclient.so /usr/local/lib/libfdfsclient.so 
# ln -s /usr/lib64/libfdfsclient.so /usr/lib/libfdfsclient.so

# FastDFS 安装
cd /root
# 解压 FastDFS 压缩包,编译以及安装
tar zxvf fastdfs-5.11.tar.gz
cd fastdfs-5.11
./make.sh && ./make.sh install

到此,FastDFS 就安装好了,接下来就是配置了。


Tracker 服务器配置

两台 Tracker 服务器配置是相同的,这里以其中一台为例

# 创建 Tracker 的存储日志和数据的根目录
mkdir -p /home/fastdfs/tracker
cd /etc/fdfs
cp tracker.conf.sample tracker.conf
# 配置 tracker.conf
vi tracker.conf

在这里,tracker.conf 只是修改一下 Tracker 存储日志和数据的路径

# 启用配置文件(默认为 false,表示启用配置文件)
disabled=false
# Tracker 服务端口(默认为 22122)
port=22122
# 存储日志和数据的根目录
base_path=/home/fastdfs/tracker

这里,Tracker 服务就可以正常使用了.不过我们也可以顺带配置一下 Tracker 服务器中客户端配置文件

mkdir -p /home/fastdfs/client
# 修改 Tracker 服务器客户端配置文件
cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf
vi /etc/fdfs/client.conf

client.conf 中修改 base_path 和 Tracker 服务器的 IP 地址与端口号即可

# 存储日志文件的基本路径
base_path=/home/fastdfs/client
# Tracker 服务器 IP 地址与端口号
tracker_server=192.168.229.170:22122
tracker_server=192.168.229.171:22122

Storage 服务器配置

这里的两台 Storage 服务器配置大体上相同,不同的分组,主要就是 group_name 的配置不同,其它配置基本一致。同一组的 Storage 服务器配置大体上一致。

# 创建 Storage 的存储日志和数据的根目录
mkdir -p /home/fastdfs/storage
cd /etc/fdfs
cp storage.conf.sample storage.conf
# 配置 storage.conf
vi storage.conf

在这里,storage.conf 只是修改一下 storage 存储日志和数据的路径

# 启用配置文件(默认为 false,表示启用配置文件)
disabled=false
# 组名,第一组为 group1,以此递增
group_name=group1
# Storage 服务端口(默认为 23000)
port=23000
# 数据和日志文件存储根目录
base_path=/home/fastdfs/storage
# 存储路径,访问时路径为 M00
# store_path1 则为 M01,以此递增到 M99(如果配置了多个存储目录的话,这里只指定 1 个)
store_path0=/home/fastdfs/storage
# Tracker 服务器 IP 地址和端口,单机搭建时也不要写 127.0.0.1
# tracker_server 可以多次出现,如果有多个,则配置多个
tracker_server=192.168.229.170:22122
tracker_server=192.168.229.171:22122

在这里,192.168.229.175 的 group_name 为 group1,192.168.229.175 为 group2


启动 Tracker 服务以及 Storage 服务

启动服务时,先启动 Tracker 服务,再启动 Storage 服务器

# 启动 Tracker 服务
# 其它操作则把 start 改为 stop、restart、reload、status 即可。Storage 服务相同
/etc/init.d/fdfs_trackerd start
# 启动 Storage 服务
/etc/init.d/fdfs_storaged start
# 可以通过 fdfs_monitor 查看集群的情况
# 查看 Storage 是否已经注册到 Tracker 服务器中
# 当查看到 ip_addr = 192.168.229.175 (localhost.localdomain)  ACTIVE
# ACTIVE 表示成功
/usr/bin/fdfs_monitor /etc/fdfs/storage.conf

此时应该可以看到有两个分组,而且都是 ACTIVE 状态的。


Storage 服务器安装 Nginx

接下来,每台 Storage 都如下安装与配置 Nginx

# 配置 fastdfs-nginx-module 模块,这里使用的是 1.16 版本
# 修改 fastdfs-nginx-module 的 config 配置文件
vi /root/fastdfs-nginx-module/src/config

CORE_INCS="$CORE_INCS /usr/local/include/fastdfs /usr/local/include/fastcommon/" 中的 local 去掉,修改为 CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/" 。然后保存即可

# Nginx 以及模块安装
cd /root/nginx-1.15.1
# 添加 fastdfs-nginx-module 模块和 ngx_cache_purge 模块
./configure --add-module=/root/fastdfs-nginx-module/src --add-module=/root/ngx_cache_purge-2.3
# 编译以及安装
make && make install

# fastdfs-nginx-module 和 FastDFS 配置文件修改
# 复制 FastDFS 的部分配置文件到 /etc/fdfs
cd /root/fastdfs-5.11/conf/
cp http.conf mime.types /etc/fdfs/
# 复制 fastdfs-nginx-module 源码中的配置文件到  /etc/fdfs 中
cp /root/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/
vi /etc/fdfs/mod_fastdfs.conf

mod_fastdfs.conf 配置如下

# Storage 日志文件
base_path=/home/fastdfs/storage
# Tracker 服务器IP和端口修改,如果有多个就配置多个
tracker_server=192.168.229.170:22122
tracker_server=192.168.229.171:22122
# Storage 服务器端口(默认为 23000)
storage_server_port=23000

# 当前 Storage 服务器的组名
group_name=group1

# 请求的 url 中是否包含 group 名称,改为 true,包含 group
url_have_group_name = true
# 配置 Storage 存储目录信息,修改 store_path0 的信息,有多个存储目录就配置多个
# 必须和 storage.conf 中的配置一致
store_path0=/home/fastdfs/storage

# 有多少个分组
group_count = 2
# 每个小组的信息
[group1]
group_name=group1
storage_server_port=23000
store_path_count=1
store_path0=/home/fastdfs/storage
[group2]
group_name=group2
storage_server_port=23000
store_path_count=1
store_path0=/home/fastdfs/storage

以上需要注意的还是组名那里,在这里,192.168.229.175 的 group_name 为 group1,192.168.229.175 为 group2

接下来就是配置 Nginx 了

vi /usr/local/nginx/conf/nginx.conf

在配置文件中添加一个 server

server {
    listen       8888;
    server_name  localhost;

    # 配置为支持 group0-group9,以及 M00-M99,以便于以后扩容
    # 由于配置了 ngx_fastdfs_module 模块,当该服务器找不到文件时,则会去文件的源服务器中寻找
    location ~/group([0-9])/M([0-9])([0-9]) {
        ngx_fastdfs_module;
    }
}

到此,Storage 服务器就配置完毕了


Tracker 服务器安装 Nginx

Tracker 服务器的安装与配置就简单些,两台 Tracker 服务器的配置执行相同的操作即可

# Nginx 以及模块安装
cd /root/nginx-1.15.1
# 添加 ngx_cache_purge 模块
./configure --add-module=/root/ngx_cache_purge-2.3
# 编译以及安装
make && make install

# 配置 Nginx
vi /usr/local/nginx/conf/nginx.conf

配置如下

# 设置 group1 的服务器
upstream fdfs_group1 {
    server 192.168.229.175:8888 weight=1 max_fails=2 fail_timeout=30s;
    # server 192.168.229.177:8888 weight=1 max_fails=2 fail_timeout=30s;
}
# 设置 group2 的服务器
upstream fdfs_group2 {
    server 192.168.229.176:8888 weight=1 max_fails=2 fail_timeout=30s;
    # server 192.168.229.178:8888 weight=1 max_fails=2 fail_timeout=30s;
}

server {
    listen  8000;
    server_name localhost;

    # 请求为 group1 的转发给 group1 的服务器组进行处理
    location ~/group1/M([0-9])([0-9]) {
        proxy_pass http://fdfs_group1;
    }

    # 请求为 group2 的转发给 group2 的服务器组进行处理
    location ~/group2/M([0-9])([0-9]) {
        proxy_pass http://fdfs_group2;
    }
}

Nginx 服务器配置

Nginx 服务器作为该 FastDFS 集群的统一入口,进行负载均衡处理

# 安装 Nginx 依赖环境
yum install gcc gcc-c++ make automake autoconf libtool pcre* zlib openssl openssl-devel
# Nginx 以及模块安装
cd /root/nginx-1.15.1
# 添加 ngx_cache_purge 模块
./configure --add-module=/root/ngx_cache_purge-2.3
# 编译以及安装
make && make install

# 配置 Nginx
vi /usr/local/nginx/conf/nginx.conf

Nginx 配置如下

# 设置 tracker
upstream fdfs_tracker {
    server 192.168.229.170:8000 weight=1 max_fails=2 fail_timeout=30s;
    server 192.168.229.171:8000 weight=1 max_fails=2 fail_timeout=30s;
}

server {
    listen  80;
    server_name localhost;

    # 将所有 FastDFS 请求转发给 Tracker 集群处理
    location ~/group([0-9])/M([0-9])([0-9]) {
        proxy_pass http://fdfs_tracker;
    }
}

启动 Nginx 服务

# 启动 Nginx
/usr/local/nginx/sbin/nginx
# 重启 Nginx
/usr/local/nginx/sbin/nginx -s reload
# 停止 Nginx
/usr/local/nginx/sbin/nginx -s stop

集群扩容

关于扩容,有两种方式。

  1. 第一种常见于 Storage 服务器添加新的硬盘,然后修改配置文件进行扩容。不过要注意的是,同一组的最大容量取决于容量最小的那台服务器。
  2. 第二种扩容则是添加服务器,设置为新的组。

参考资料及扩展资料


后记

搭建好了就是启动各个服务器中的服务即可。在此就不测试了,和单机版的使用类似。集群版到此也就告一段落了。建议是先试试配置单机版,然后再来配置一下集群的版本。关于 FastDFS,计划还会码一篇 Java 的使用笔记。

在实践中成长!

HochenChong

2018-7-13

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/hochenchong/article/details/81072797

智能推荐

数据结构之线段树(Segment Tree)_线段树 max-程序员宅基地

文章浏览阅读826次。线段树的概念线段树(Segment Tree)也是一棵树,只不过元素的值代表一个区间。常用区间的统计操作,比如一个区间的最大值(max),最小值(min),和(sum)等等。线段树是一种平衡二叉搜索树(完全二叉树),它将一个线段区间划分成一些单元区间。对于线段树中的每一个非叶子节点[a,b],它的左儿子表示的区间为[a,(a+b)/2],右儿子表示的区间为[(a+b)/2+1,b],..._线段树 max

prbs测试-程序员宅基地

文章浏览阅读625次。PRBS检测主要应用在设备开局或维护期间,在没有合适误码仪的情况下,使能了PRBS检测功能的设备自行发送PRBS码流,PRBS码流通过被测试网络,经远端设备环回(远端设备需要配置环回),经过PRBS监视模块的处理,判断发送与接收的PRBS码流是否相同,以此来判定被测试网络链路或设备是否正常.前提条件,在对接设备中,在配置用户侧PRBS检测前,需在对端设置远端环回,在配置网络侧PRBS检测前,需在对端设置本地环回。(2) 查看retimer芯片的prbs误码(retimer hrx测误码统计)_prbs

Matlab的证书失效解决办法_matlab选定的许可证文件路径无效-程序员宅基地

文章浏览阅读1.1w次。很多人发现自己的matlab打不开,证书失效了(很多破解版的matlab证书截止2017年失效)献上方法:打开matlab的license,删掉。换成本博客中的license。(一般安装位置为C:\Program Files\MATLAB\R2008b\licenses)一步即可!亲测有效。后续还有关于matlab问题的更新,都是博主亲身经历,希望能尽绵薄之力。_matlab选定的许可证文件路径无效

数据分析python代码开发工程化编写逻辑-个人总结_python工程化-程序员宅基地

文章浏览阅读1.1k次。团队开发git提交提交方法注意细节Byte-compiled / optimized / DLL filesC extensionsDistribution / packagingPyCharm filesJupyter NotebookUnit test / coverage reportsSphinx documentationDjangoFlask:thinking:协同开发细节模块管理根目录train.pypred.pydata配置argparseyaml_python工程化

动态规划--最优二叉搜索树_最优二叉搜索树算法实现-程序员宅基地

文章浏览阅读2k次。假期 2020.01.19题目描述最优二叉搜索树简单说来,就是使查找的过程消耗的次数最小,即大数据存储与查找方面的较优性能的算法。此处举例数字的存储与查找,如下图:其中pi为搜索概率,qi为不成功概率;思路分析对于寻找最优问题的算法,动态规划一直都是比较好的算法,这儿也是采用动态规划的算法实现该问题的解决。动态规划问题,一般是需要判断问题时候有最优子结构,那么此处设存在序列{s..._最优二叉搜索树算法实现

web.py 的基本使用方法_web.py怎么引用-程序员宅基地

文章浏览阅读450次。最近要快速做一些DEMO,所以直接用了web.py做后台web服务,记录下最基本最简单使用方法,理解一下它的逻辑。web.py的介绍就不说了,一搜就有,直接开始。我的环境是这样的:系统:ubuntu 22.04python: 3.8 (conda环境)如果大家用下来和我经历的不一样,那就再琢磨琢磨,总会解决的~_web.py怎么引用

随便推点

VS Code配置C/C++环境(附原理说明)_vs c/c++ build在哪里-程序员宅基地

文章浏览阅读2.4k次,点赞15次,收藏56次。VS Code 配置C/C++环境VS Code简介VS Code 插件安装安装C/C++编译器MinGW配置系统环境变量环境变量配置作用说明配置成功验证配置VS Code(重点)调试配置原理说明(授人以渔,一定要看)结语VS Code简介最近重新回顾一下C语言,只是写几个小程序,也就没有安装Visual Studio这个大家伙,选择了轻量编程工具VS Code。个人比较喜欢VS Code这种..._vs c/c++ build在哪里

Ubuntu 16.04 一系列软件安装命令,包括QQ、搜狗、Chrome、vlc、网易云音乐安装方法_6.ubuntu安装三方软件(比如搜狗拼音)命令是什么。-程序员宅基地

文章浏览阅读1.6w次,点赞2次,收藏10次。1 简介Ubuntu 16.04安装完后,还需要做一些配置才能愉快的使用,包括添加软件源、安装搜狗输入法、Chrome浏览器、网易云音乐、配置快捷键、安装git等等,下面就跟着我来配置吧,just do it2 版本选择如果你是小白,不想折腾,可以直接选择安装deepin linux,中文名”深度Linux”,这个是国内目前最好用的Linux之一,开箱即用,常用软件都安装好了,甚至连最新版的..._6.ubuntu安装三方软件(比如搜狗拼音)命令是什么。

CNN中全连接层是什么样的?_cnn 模型全连接层 标识符号-程序员宅基地

文章浏览阅读3w次,点赞10次,收藏10次。名称:全连接。意思就是输出层的神经元和输入层的每个神经元都连接。例子: AlexNet 网络中第一个全连接层是这样的:layer { name: "fc6" type: "InnerProduct" bottom: "pool5" top:"fc6" param { lr_mult: 1 decay_mult: 1 } par_cnn 模型全连接层 标识符号

Android studio 系统存储数据SharedPreferences_android studio写一个有数据存取相关功能的-程序员宅基地

文章浏览阅读815次。SharePreferences类是一个轻量级的存储类,特别适合用于保存软件配置参数。使用SharedPreferences保存数据,其背后是用xml文件存放数据。保存路径:找到DeviceFileExplorer /data/data/PACKAGE_NAME/shared_prefs目录下。private SharedPreferences sharepreferences;//实例化 SharedPreferencesprivate SharedPreferences...._android studio写一个有数据存取相关功能的

SpringBoot-秒杀系统概述_springboot架构 接入层-程序员宅基地

文章浏览阅读410次。说到“秒杀”,恐怕大多数人想到的就是“双11”,“促销”,”买买买“等火爆的场面吧大家为了打折商品蜂拥而至,造成了电商网站一片繁华的景象。但作为程序员的我们,看到的却是高并发和可靠性。无论你处在软件开发的哪个阶段,都希望能够设计一套属于自己的秒杀系统。..._springboot架构 接入层

马化腾的电商梦,只能靠它来实现了~-程序员宅基地

文章浏览阅读655次,点赞23次,收藏18次。腾讯总裁刘炽平也曾称,腾讯在电商方面仍有非常大的发展空间,但仍希望能够循序渐进,一步一个脚印,逐渐打造适合自身的基础设施,在用户体验与商家投资回报率中找寻最佳平衡点。而视频号的话,没有什么引流品之类的低价品,只做利润品,商家拿着低价引流品去对接视频号主播,只会被主播看不起,认为没有实力。从视频号小店本身来看,当流量持续从商家的私域引入到小店成交,并促成源源不断的交易后,更便于养成用户在小店持续购买的习惯。现在已经在做视频号店铺的商家,和已经在做视频号的带货达人,都表示抖快淘目前是一片红海,

推荐文章

热门文章

相关标签