重构代理商平台

公司的后台系统是2008年老大写的,因为是面向过程的程序,维护起来比较麻烦。所以现在得找一个大家都喜欢用的框架,Google了一下,发现Laravel是排名第一位的。昨天搭建了环境,发现还是不错的。

693726b0-d816-4da6-9a72-46046bb3b944

 

 

 

 

PS.

其实她的文档比Phalcon 难看多了,我一直推荐用Phalcon,因为之前也用Phalcon开发过三个小项目。无奈团队成员不喜欢用Phalcon。

没办法。

 

 

如何屏蔽Yisou Spider

症状:

最近公司的一个放在AWS SG的购物网站,发现有好多访问来源是YiSou Spider,把机器拖得很慢,而且这个YiSou Spider也不按照标准的robot.txt规则抓取,连续好几天一直抓,简直是一个DDOS攻击,所以只能IP屏蔽了。

 

 

 

寻找解决方案:

网上参考了一些资料(http://www.tuicool.com/articles/ayeyqa)。

1.怎么抓住这个YisouSpider爬虫?
2.直接封YisouSpider方法。
3.检测配置有效性

怎么抓住这个YisouSpider爬虫?

Nginx为例,日志文件为

access.log
cat grep access.log
命令
cat access.log | grep -i "YisouSpider" | awk '{print $1}' > iplog.txt

将他的抓取ip日志保存起来。
分析统计,连续的IP,C段IP计算,这蜘蛛它的IP资源挺多啊!

cat iplog.txt | awk -F'.' '{print $1"."$2"."$3".0"}' | sort | uniq -c | sort -r -n > stat_ip.log

我的机器是这样的:

以下是我的机器的搜索引擎蜘蛛爬虫IP地址

127 42.120.160.0
112 42.156.139.0
111 42.156.138.0
110 42.48.109.0
108 42.156.136.0
107 42.120.161.0
102 218.75.177.0
85 42.156.137.0
23 218.65.212.0
开始用iptables屏蔽:

iptables -I INPUT -s 42.120.160.0/24 -j DROP
iptables -I INPUT -s 42.156.139.0/24 -j DROP
iptables -I INPUT -s 42.156.138.0/24 -j DROP
iptables -I INPUT -s 42.48.109.0/24 -j DROP
iptables -I INPUT -s 42.156.136.0/24 -j DROP
iptables -I INPUT -s 42.120.161.0/24 -j DROP
iptables -I INPUT -s 218.75.177.0/24 -j DROP
iptables -I INPUT -s 42.156.137.0/24 -j DROP
iptables -I INPUT -s 218.65.212.0/24 -j DROP

 

最后:

记得保存 service iptables save 然后service iptables start,经过这几步操作后,就再也看不到Yisou了

提醒:

不过发现网站变慢了,没事,再加一条规则: -A INPUT -i lo -j ACCEPT 全部搞定。

Redis 配置

Redis 配置

Redis 的配置文件位于 Redis 安装目录下,文件名为 redis.conf。

你可以通过 CONFIG 命令查看或设置配置项。


语法

Redis CONFIG 命令格式如下:

redis 127.0.0.1:6379> CONFIG GET CONFIG_SETTING_NAME

实例

redis 127.0.0.1:6379> CONFIG GET loglevel

1) "loglevel"
2) "notice"

使用 * 号获取所有配置项:

实例

redis 127.0.0.1:6379> CONFIG GET *

  1) "dbfilename"
  2) "dump.rdb"
  3) "requirepass"
  4) ""
  5) "masterauth"
  6) ""
  7) "unixsocket"
  8) ""
  9) "logfile"
 10) ""
 11) "pidfile"
 12) "/var/run/redis.pid"
 13) "maxmemory"
 14) "0"
 15) "maxmemory-samples"
 16) "3"
 17) "timeout"
 18) "0"
 19) "tcp-keepalive"
 20) "0"
 21) "auto-aof-rewrite-percentage"
 22) "100"
 23) "auto-aof-rewrite-min-size"
 24) "67108864"
 25) "hash-max-ziplist-entries"
 26) "512"
 27) "hash-max-ziplist-value"
 28) "64"
 29) "list-max-ziplist-entries"
 30) "512"
 31) "list-max-ziplist-value"
 32) "64"
 33) "set-max-intset-entries"
 34) "512"
 35) "zset-max-ziplist-entries"
 36) "128"
 37) "zset-max-ziplist-value"
 38) "64"
 39) "hll-sparse-max-bytes"
 40) "3000"
 41) "lua-time-limit"
 42) "5000"
 43) "slowlog-log-slower-than"
 44) "10000"
 45) "latency-monitor-threshold"
 46) "0"
 47) "slowlog-max-len"
 48) "128"
 49) "port"
 50) "6379"
 51) "tcp-backlog"
 52) "511"
 53) "databases"
 54) "16"
 55) "repl-ping-slave-period"
 56) "10"
 57) "repl-timeout"
 58) "60"
 59) "repl-backlog-size"
 60) "1048576"
 61) "repl-backlog-ttl"
 62) "3600"
 63) "maxclients"
 64) "4064"
 65) "watchdog-period"
 66) "0"
 67) "slave-priority"
 68) "100"
 69) "min-slaves-to-write"
 70) "0"
 71) "min-slaves-max-lag"
 72) "10"
 73) "hz"
 74) "10"
 75) "no-appendfsync-on-rewrite"
 76) "no"
 77) "slave-serve-stale-data"
 78) "yes"
 79) "slave-read-only"
 80) "yes"
 81) "stop-writes-on-bgsave-error"
 82) "yes"
 83) "daemonize"
 84) "no"
 85) "rdbcompression"
 86) "yes"
 87) "rdbchecksum"
 88) "yes"
 89) "activerehashing"
 90) "yes"
 91) "repl-disable-tcp-nodelay"
 92) "no"
 93) "aof-rewrite-incremental-fsync"
 94) "yes"
 95) "appendonly"
 96) "no"
 97) "dir"
 98) "/home/deepak/Downloads/redis-2.8.13/src"
 99) "maxmemory-policy"
100) "volatile-lru"
101) "appendfsync"
102) "everysec"
103) "save"
104) "3600 1 300 100 60 10000"
105) "loglevel"
106) "notice"
107) "client-output-buffer-limit"
108) "normal 0 0 0 slave 268435456 67108864 60 pubsub 33554432 8388608 60"
109) "unixsocketperm"
110) "0"
111) "slaveof"
112) ""
113) "notify-keyspace-events"
114) ""
115) "bind"
116) ""

编辑配置

你可以通过修改 redis.conf 文件或使用 CONFIG set 命令来修改配置。

语法

CONFIG SET 命令基本语法:

redis 127.0.0.1:6379> CONFIG SET CONFIG_SETTING_NAME NEW_CONFIG_VALUE

实例

redis 127.0.0.1:6379> CONFIG SET loglevel "notice"
OK
redis 127.0.0.1:6379> CONFIG GET loglevel

1) "loglevel"
2) "notice"

参数说明

redis.conf 配置项说明如下:

1. Redis默认不是以守护进程的方式运行,可以通过该配置项修改,使用yes启用守护进程

daemonize no

2. 当Redis以守护进程方式运行时,Redis默认会把pid写入/var/run/redis.pid文件,可以通过pidfile指定

pidfile /var/run/redis.pid

3. 指定Redis监听端口,默认端口为6379,作者在自己的一篇博文中解释了为什么选用6379作为默认端口,因为6379在手机按键上MERZ对应的号码,而MERZ取自意大利歌女Alessia Merz的名字

port 6379

4. 绑定的主机地址

bind 127.0.0.1

5.当 客户端闲置多长时间后关闭连接,如果指定为0,表示关闭该功能

timeout 300

6. 指定日志记录级别,Redis总共支持四个级别:debug、verbose、notice、warning,默认为verbose

loglevel verbose

7. 日志记录方式,默认为标准输出,如果配置Redis为守护进程方式运行,而这里又配置为日志记录方式为标准输出,则日志将会发送给/dev/null

logfile stdout

8. 设置数据库的数量,默认数据库为0,可以使用SELECT <dbid>命令在连接上指定数据库id

databases 16

9. 指定在多长时间内,有多少次更新操作,就将数据同步到数据文件,可以多个条件配合

save <seconds> <changes>

Redis默认配置文件中提供了三个条件:

save 900 1

    save 300 10

    save 60 10000

分别表示900秒(15分钟)内有1个更改,300秒(5分钟)内有10个更改以及60秒内有10000个更改。

 

10. 指定存储至本地数据库时是否压缩数据,默认为yes,Redis采用LZF压缩,如果为了节省CPU时间,可以关闭该选项,但会导致数据库文件变的巨大

rdbcompression yes

11. 指定本地数据库文件名,默认值为dump.rdb

dbfilename dump.rdb

12. 指定本地数据库存放目录

dir ./

13. 设置当本机为slav服务时,设置master服务的IP地址及端口,在Redis启动时,它会自动从master进行数据同步

slaveof <masterip> <masterport>

14. 当master服务设置了密码保护时,slav服务连接master的密码

masterauth <master-password>

15. 设置Redis连接密码,如果配置了连接密码,客户端在连接Redis时需要通过AUTH <password>命令提供密码,默认关闭

requirepass foobared

16. 设置同一时间最大客户端连接数,默认无限制,Redis可以同时打开的客户端连接数为Redis进程可以打开的最大文件描述符数,如果设置 maxclients 0,表示不作限制。当客户端连接数到达限制时,Redis会关闭新的连接并向客户端返回max number of clients reached错误信息

maxclients 128

17. 指定Redis最大内存限制,Redis在启动时会把数据加载到内存中,达到最大内存后,Redis会先尝试清除已到期或即将到期的Key,当此方法处理 后,仍然到达最大内存设置,将无法再进行写入操作,但仍然可以进行读取操作。Redis新的vm机制,会把Key存放内存,Value会存放在swap区

maxmemory <bytes>

18. 指定是否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。因为 redis本身同步数据文件是按上面save条件来同步的,所以有的数据会在一段时间内只存在于内存中。默认为no

appendonly no

19. 指定更新日志文件名,默认为appendonly.aof

appendfilename appendonly.aof

20. 指定更新日志条件,共有3个可选值:
no:表示等操作系统进行数据缓存同步到磁盘(快)
always:表示每次更新操作后手动调用fsync()将数据写到磁盘(慢,安全)
everysec:表示每秒同步一次(折衷,默认值)

appendfsync everysec

 

21. 指定是否启用虚拟内存机制,默认值为no,简单的介绍一下,VM机制将数据分页存放,由Redis将访问量较少的页即冷数据swap到磁盘上,访问多的页面由磁盘自动换出到内存中(在后面的文章我会仔细分析Redis的VM机制)

vm-enabled no

22. 虚拟内存文件路径,默认值为/tmp/redis.swap,不可多个Redis实例共享

vm-swap-file /tmp/redis.swap

23. 将所有大于vm-max-memory的数据存入虚拟内存,无论vm-max-memory设置多小,所有索引数据都是内存存储的(Redis的索引数据 就是keys),也就是说,当vm-max-memory设置为0的时候,其实是所有value都存在于磁盘。默认值为0

vm-max-memory 0

24. Redis swap文件分成了很多的page,一个对象可以保存在多个page上面,但一个page上不能被多个对象共享,vm-page-size是要根据存储的 数据大小来设定的,作者建议如果存储很多小对象,page大小最好设置为32或者64bytes;如果存储很大大对象,则可以使用更大的page,如果不 确定,就使用默认值

vm-page-size 32

25. 设置swap文件中的page数量,由于页表(一种表示页面空闲或使用的bitmap)是在放在内存中的,,在磁盘上每8个pages将消耗1byte的内存。

vm-pages 134217728

26. 设置访问swap文件的线程数,最好不要超过机器的核数,如果设置为0,那么所有对swap文件的操作都是串行的,可能会造成比较长时间的延迟。默认值为4

vm-max-threads 4

27. 设置在向客户端应答时,是否把较小的包合并为一个包发送,默认为开启

glueoutputbuf yes

28. 指定在超过一定的数量或者最大的元素超过某一临界值时,采用一种特殊的哈希算法

hash-max-zipmap-entries 64

    hash-max-zipmap-value 512

29. 指定是否激活重置哈希,默认为开启(后面在介绍Redis的哈希算法时具体介绍)

activerehashing yes

30. 指定包含其它的配置文件,可以在同一主机上多个Redis实例之间使用同一份配置文件,而同时各个实例又拥有自己的特定配置文件

include /path/to/local.conf

为公司新的英国分支安装Phalcon,Nginx,PHP,MySQL环境

rpm -Uvh http://mirror.webtatic.com/yum/el6/latest.rpm

安装php5.4

yum install php54w.x86_64 php54w-cli.x86_64 php54w-common.x86_64 php54w-gd.x86_64 php54w-ldap.x86_64 php54w-mbstring.x86_64 php54w-mcrypt.x86_64 php54w-mysql.x86_64 php54w-pdo.x86_64 php54w-devel

安装php-fpm
yum install php54w-fpm

安装Phalcon2.0

git clone –depth=1 git://github.com/phalcon/cphalcon.git
cd cphalcon/build
sudo ./install

安装MySQL
yum install mysql mysql-server #输入Y即可自动安装,直到安装完成
/etc/init.d/mysqld start #启动MySQL
chkconfig mysqld on #设为开机启动

mysql_secure_installation #为root账户设置密码

安装nginx
yum install nginx #安装nginx 根据提示输入y进行安装
chkconfig nginx on #设置nginx开机启动
service nginx start #启动nginx

Linux 挂载硬盘

1.查看硬盘

fdisk -l

2.格式化硬盘

mkfs.ext3 /dev/vdb

3.挂载硬盘

mount /dev/vdb /mnt/data/

4.修改分区表

vim /etc/fstab

/dev/vdb                /mnt/data               ext3    defaults        0 0

 

解决 Nginx 502 : child 3230 exited on signal 15 (SIGTERM) after 130.008684 seconds from start问题

有一台机器,因为脚本执行时间比较长,导致nginx 502. 只有重启机器才管用。后来发现原来是因为系统文件打开数量限制,导致php-fpm 无法重启

后台日志好多Warning:

[21-May-2016 03:47:21] WARNING: [pool www] child 3195, script ‘/mnt/data/web/xxx/index.php’ (request: “GET /index.php”) execution timed out (31.359929 sec), terminating
[21-May-2016 03:47:21] WARNING: [pool www] child 3191, script ‘/mnt/data/web/xxx/index.php’ (request: “GET /index.php”) execution timed out (35.040343 sec), terminating

[21-May-2016 03:47:21] WARNING: [pool www] child 3189 exited on signal 15 (SIGTERM) after 110.009368 seconds from start
[21-May-2016 03:47:21] NOTICE: [pool www] child 3236 started
[21-May-2016 03:47:21] WARNING: [pool www] child 3191 exited on signal 15 (SIGTERM) after 110.009318 seconds from start
[21-May-2016 03:47:21] NOTICE: [pool www] child 3237 started
[21-May-2016 03:47:21] WARNING: [pool www] child 3195 exited on signal 15 (SIGTERM) after 90.009370 seconds from start

以下是解决方案:

1、提升服务器的文件句柄打开

打开

/etc/security/limits.conf : (增加)
*    soft    nofile    51200
*    hard    nofile    51200
# vi /etc/security/limits.conf 加上
* soft nofile 51200
* hard nofile 51200

2、提升nginx的进程文件打开数

nginx.conf : worker_rlimit_nofile 51200;

3、修改php-fpm.conf文件,主要需要修改2处。

命令 ulimit -n 查看限制的打开文件数,php-fpm.conf 中的选项rlimit_files 确保和此数值一致。

<value name="max_requests">10240</value>

<value name="rlimit_files">51200</value>

4、# vi /etc/sysctl.conf

底部添加

fs.file-max=51200

注:

file-max与ulimit的关系与差别

1. file-max的含义

man proc,可得到file-max的描述:

fs.file-max : 该文件指定了可以分配的文件句柄的最大数目 fs.file-max 为512 乘以 processes (如128个process则为 65536);

/proc/sys/fs/file-max

              This  file defines a system-wide limit on the number of open files for all processes.  (See
              also setrlimit(2),  which  can  be  used  by  a  process  to  set  the  per-process  limit,
              RLIMIT_NOFILE,  on  the  number  of  files it may open.)  If you get lots of error messages
              about running out of file handles, try increasing this value:

即file-max是设置 系统所有进程一共可以打开的文件数量 。同时一些程序可以通过setrlimit调用,设置每个进程的限制。如果得到大量使用完文件句柄的错误信息,是应该增加这个值。

也就是说,这项参数是系统级别的。

echo 6553560 > /proc/sys/fs/file-max

或修改 /etc/sysctl.conf, 加入

fs.file-max = 6553560

重启生效

2. ulimit的

Provides control over the resources available to the shell and to processes started by it, on systems that allow such control.

即设置当前shell以及由它启动的进程的资源限制。

显然,对服务器来说,file-max, ulimit都需要设置,否则就可能出现文件描述符用尽的问题,为了让机器在重启之后仍然有效,强烈建立作以下配置,以确保file-max, ulimit的值正确无误:

1. 修改/etc/sysctl.conf, 加入

fs.file-max = 6553560

2.系统默认的ulimit对文件打开数量的限制是1024,修改/etc/security/limits.conf并加入以下配置,永久生效

* soft nofile 65535 
* hard nofile 65535

修改完之后,重启即可生效

 

升级Win10系统后导致xampp无法启动

升级完Win10系统后,发现原来安装的Xampp软件包无法启动,Google了一下,原来是因为系统自带的服务World Wide Web Publishing Service占用了80端口,停止服务,禁用服务。重新启动,Xampp正常运行。

具体步骤可以参考如下:

  1. Go to Start and type “services.msc”
  2. Locate “World Wide Web Publishing Service”
  3. Right-click on that entry, select “Stop”, then restart XAMPP.

[转]Xtrabackup安装及使用

Xtrabackup安装及使用

简介:
Xtrabackup是一个对InnoDB做数据备份的工具,支持在线热备份(备份时不影响数据读写),是商业备份工具InnoDB Hotbackup的一个很好的替代品。
Xtrabackup有两个主要的工具:xtrabackup、innobackupex
(1)xtrabackup只能备份InnoDB和XtraDB两种数据表,而不能备份MyISAM数据表
(2)innobackupex-1.5.1则封装了xtrabackup,是一个脚本封装,所以能同时备份处理innodb和myisam,但在处理myisam时需要加一个读锁
(3)使用帮助:http://www.percona.com/docs/wiki/percona-xtrabackup:start

环境:CentOS 5.4,xtrabackup-1.6.tar.gz

1、首先从http://www.percona.com/下载
wget http://www.percona.com/downloads/XtraBackup/XtraBackup-1.6/Linux/binary/i686/xtrabackup-1.6.tar.gz

2、检查服务器是否安装了Mysql版本,如果没有就要安装好mysql
my.cnf中必须有datadir=/var/lib/mysql

3、开始安装xtrabackup
1)解压
cd /qeedoodb/setup
tar zxvf xtrabackup-1.6.tar.gz
2)拷贝innobackupex、xtrabackup、xtrabackup_51 工具到/usr/bin
cp /qeedoodb/setup/xtrabackup-1.6/bin/innobackupex /usr/bin/innobackupex
cp /qeedoodb/setup/xtrabackup-1.6/bin/xtrabackup  /usr/bin/xtrabackup
cp /qeedoodb/setup/xtrabackup-1.6/bin/xtrabackup_51  /usr/bin/xtrabackup_51

4、备份并打包压缩
innobackupex –user=root –password=123456 –defaults-file=/etc/my.cnf –database=zztx –stream=tar /data/back_data/ 2>/data/back_data/zztx.log | gzip     1>/data/back_data/zztx.tar.gz

说明:
–database=zztx 单独对zztx数据库做备份 ,若是不添加此参数那就那就是对全库做备份
2>/data/back_data/zztx.log  输出信息写入日志中
1>/data/back_data/zztx.tar.gz 打包压缩存储到该文件中

此处可以写个脚本做备份(backup.sh)
#!/bin/sh
echo “开始备份…”`date`
log=zztx01_`date +%y%m%d%H%M`.log
str=zztx01_`date +%y%m%d%H%M`.tar.gz
innobackupex –user=root –password=123456 –defaults-file=/etc/my.cnf –database=zztx –stream=tar /data/back_data/ 2>/data/back_data/$log | gzip 1>/data/back_data/$str
echo “备份完毕…”`date`

5、恢复数据
1) 先停止数据库:service mysqld stop
2) 解压 tar -izxvf zztx.tar.gz -C /data/back_data/db/   (没有db ,需要mkdir /data/back_data/db/)
3) 恢复 innobackupex –user=root –password –defaults-file=/etc/my.cnf  –apply-log /data/back_data/db/  (–apply-log选项的命令是准备在一个备份上启动mysql服务)
innobackupex –user=root –password –defaults-file=/etc/my.cnf  –copy-back /data/back_data/db/  (–copy-back 选项的命令从备份目录拷贝数据,索引,日志到my.cnf文件里规定的初始位置。)
4) 赋权 chown -R mysql.mysql /var/lib/mysql/*
5) 重启数据库 service mysqld restart
6) 删除垃圾 cd /var/lib/mysql/  && rm xtrabackup*
进入数据库查看,一切OK~

原文出自:http://www.cnblogs.com/cosiray/archive/2012/03/02/2376595.html

我自己的命令:

innobackupex –user=mysql –password –defaults-file=/home/mysql/data/backup-my.cnf –apply-log /home/mysql/data

官方提供的重置Mysql root帐号的密码的几种方案

PLEASE REMEMBER TO SET A PASSWORD FOR THE MySQL root USER !
To do so, start the server, then issue the following commands:

/usr/bin/mysqladmin -u root password ‘new-password’
/usr/bin/mysqladmin -u root -h localhost.localdomain password ‘new-password’

Alternatively you can run:
/usr/bin/mysql_secure_installation

which will also give you the option of removing the test
databases and anonymous user created by default.  This is
strongly recommended for production servers.

See the manual for more instructions.

You can start the MySQL daemon with:
cd /usr ; /usr/bin/mysqld_safe &

You can test the MySQL daemon with mysql-test-run.pl
cd /usr/mysql-test ; perl mysql-test-run.pl