话说前阵子,我那小破站,访问量突然大点,结果卡的跟蜗牛似的。这哪行,用户体验差,谁还来?我这暴脾气,必须得整整!
然后我就开始琢磨,这问题出在哪儿?后来一想,肯定是服务器顶不住呗。这就像啥,就一个服务员,一下子来十几个客人,他一个人忙不过来,那上菜速度肯定慢。
咋解决?多找几个服务员呗!这放服务器上,就叫“负载均衡”。
行动起来,搞起!
第一步,选工具。我这人比较喜欢简单直接的,就选Nginx。这玩意儿配置起来不麻烦,而且挺好使。
第二步,准备服务器。我这小站也没多少钱,就在原来那云服务器上又开两台配置差不多的。这样,我就有三台服务器,可以开始折腾。
- 服务器A:主要处理用户请求。
- 服务器B:备用服务器1号。
- 服务器C:备用服务器2号。
第三步,配置Nginx。
在服务器A上,我打开Nginx的配置文件,把服务器B和服务器C的IP地址啥的都加进去。这样,Nginx就知道把请求往哪儿发。
大概就是这样配置一下(具体参数我就不写那么详细,大家伙儿都懂):
upstream mywebsite {
server 服务器B的IP地址;
server 服务器C的IP地址;
server {
listen 80;
server_name 我的域名;
location / {
proxy_pass http://mywebsite;
第四步,重启Nginx,让配置生效。
第五步,测试!这步可关键,得看看效果咋样。
我用自己电脑,还有朋友的手机,一起访问我的网站。你猜怎么着?速度快多!
然后,我又试着把其中一台服务器停掉,看看网站还能不能正常访问。结果,完全没问题!Nginx自动把请求发到其他服务器上,厉害!
这下,我这小破站也能扛住点流量。虽然不是啥大项目,但折腾的过程还是挺有意思的。而且以后再遇到类似问题,我就知道咋办!
,对,我还顺便用那个啥Page Speed测一下,页面加载速度确实快不少,嘿感觉自己又厉害一点点!
这回就分享到这儿,下次有啥好玩的,再跟大家唠唠!