【┳═一水浒Q传2登陆的时候不能连接到大话水浒服务器爆满怎么办?儿エ丷┓ㄈ ...

当前访客身份:游客 [
遇到那些你暂时不能战胜的、克服的、容忍的、宽容的,就告诉自己,凡是不能杀死你的,最终都会让你变得更强!!
:不好意思刚看到... 是的都要安装 确切一点是:B机...
:hi,是不是两台机器都要安装svn ?
:性能都一样,只是内存占用少,就像两台电脑,另一...
:引用来自“总是好心情”的评论到底哪个性能好?一...
:到底哪个性能好?一会一变
:引用来自“zhanghuichao5”的评论谢谢 客气了! 共...
:我弄了半天都没找到一个好一点的方法,只能先这样...
:这算什么解决办法
:很喜欢,今天也看了这一段!鸟哥的
今日访问:77
昨日访问:76
本周访问:374
本月访问:1493
所有访问:23689
列表模式: |
zabbix使用邮件报警大致分为以下几个步骤:1:安装 msmtp&xz -d &msmtp-1.6.2.tar.xz& (1.6.2的版本使用xz和tar压缩的)tar xvf &msmtp-1.6.2.tarcd&msmtp-1.6.2./configure --prefix=/usr/local/msmtpmake && make install配置参数&vi /usr/local/msmtp/etc/msmtprc & 如果没有文件需要自己创建account defaulthost port 25from auth logintls offuser password logfile /var/log/mmlog2:安装mutt&yum install mutt修改配置文件vi /etc/Muttrcset sendmail="/usr/local/msmtp/bin/msmtp" &set use_from=yes &set realname="" & &你的发送邮箱地址&set editor="vi"注释;安装mutt工具的原因是直接使用msmtp发送邮件以后,收到的邮件内容为空3:测试邮件发送与修改msmtp 、mutt 的权限调整(很重要一般收不到邮件可能是这里有问题)测试脚本[zabbix
src]$ cat /usr/local/zabbix-2.4.5/share/zabbix/alertscripts/send_mail.sh & &(脚本的位置需要在zabbix_server.conf文件中配置)#!/bin/bashecho "$3" | /usr/bin/mutt -s "$2" $1测试命令 &cd&/usr/local/zabbix-2.4.5/share/zabbix/alertscripts/./send_mail.sh
&"邮件主题...." &"邮件内容......."root 用户执行上面的命令进行发送邮件一般都没有问题。。但是你运行zabbix_server服务的用户一般都不是root. 所以测试成功以后不对一些文件做权限配置qq邮箱一般不能够收到发送的邮件. &需要配置权限的文件有如下两个1: 发送邮件的shell脚本 /usr/local/zabbix-2.4.5/share/zabbix/alertscripts/send_mail.sh &权限如下zabbix这个用户有执行权限就可以了[zabbix@master src]$ ll /usr/local/zabbix-2.4.5/share/zabbix/alertscripts/send_mail.sh-rwxr-xr-x 1 zabbix zabbix 49 7月 & 8 16:22 /usr/local/zabbix-2.4.5/share/zabbix/alertscripts/send_mail.sh2: &/home/zabbix/.msmtprc &这个隐藏文件是拷贝的/usr/local/msmtp/etc/msmtprc文件, 不通的用户会访问自己家目录下的隐藏.msmtprc文件!! &权限是600 &因为里面有邮箱的登陆密码所以别人是不让读的.&[zabbix@master src]$ ll /home/zabbix/.msmtprc-rw------- 1 zabbix zabbix 144 7月 & 8 14:27 /home/zabbix/.msmtprc如果保证切换成zabbix用户以后也能都执行./send_mail.sh 来发送邮件,并且qq邮箱能够正常接收那就应该是OK了!4:在zabbix里面进行配置.&1.添加示 "示警媒介类型"媒介2:配置用户的邮件帐号,我测试用的是qq邮箱帐号.为用户添加接收报警邮件的邮箱注意: 类型 要选择上一步配置的"示警媒介类型" 的名称3:去查看触发器里面的各各监控项目的名称,设置监控的时候需要使用.触发器触发器名称4:添加"动作" &添加"动作"添加执行动作的条件满足条件后执行的内容到此邮件报警就配置结束了,你可以根据自己监控的项目测试是否可以收到报警邮件了.
发布于 10小时前,
阅读(0) | 评论(0) |
投票(0) | 收藏(0)
nginx SSL证书配置步骤如下:第一步: 本地创建两个文件server.key 和 server.csr执行下面的命令。。会让填写一个信息,最后会生成server.key 和 server.csr 两个文件。openssl req -new -newkey rsa:2048 -nodes -keyout server.key -out server.csrserver.key &: &这个文件在配置nginx SSL证书的时候会用到需要保存好。server.csr : 这个文件用来去证书办法机构申请合法证书。购买证书一般要钱,比较廉价的可以看这个:也有免费的&,参考:第二步: 证书的申请申请合法证书的过程略过, 我这里最终获得了一个nginx可以使用的pem结尾的文件。。第三步: 证书在nginx中的使用server {& & listen 443;& && & ssl_certificate /var/ssl/mydomain.& & ssl_certificate_key /var/ssl/mydomain.}
发布于 1周前,
阅读(27) | 评论(0) |
投票(0) | 收藏(6)
环境介绍:1:机器三台 ,IP/hostname 如下, &&hostname的设置很重要zookeeper / codis的通信都会用到,所以要配置好三台机器的hosts文件.10.221.8.220 机器的hostname为&Redis110.221.8.221&机器的hostname为&Redis210.221.8.222&机器的hostname为&Redis3三台机器的/etc/hosts 文件添加如下解析10.221.8.220 & &Redis110.221.8.1.221 & &Redis210.221.8.1.222 & &Redis32: 三台机器的系统都是centos 6.5 已经安装基本服务.yum -y install gcc gcc-c++ make glibc glibc-devel glib2 glib2-devel patch autoconf automake(安装基本编译工具)yum -y install ntp wget unzip vixie-cron ntsysv openssh-clients sysstat irqbalance subversion(安装常用系统软件,按需)yum update -y (更新软件包)3:使用三台机器做codis集群的服务部署如图:服务的部署第一步: zookeeper的安装zookeeper的安装请参考& 注意: 三台机器上的zookeeper都已启动第二步:golang环境的部署1: 下载golang&wget
2: 解压go1.4.1.linux-amd64.tar.gz移动go目录到/usr/local/ 目录下.3:进入&/usr/local/go/src 目录执行下面的命令bash&all.bash4:配置golang的环境变量, 修改/etc/profile &(我的jdk与golang的环境变量如下)ZOOKEEPER_HOME=/usr/local/zookeeper-3.3.6GOROOT=/usr/local/goJAVA_HOME=/usr/local/jdk1.8CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarexport GOPATH=/usr/local/codisexport PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$ZOOKEEPER_HOME/bin:$GOROOT/bin5:下载codis&&&&go /wandoulabs/codis&&&&如果报错:&go: missing Git command. See http://golang.org/s/gogetcmd&&&&安装git即可解决: &yum install git第三步:codis的部署域服务的启动1:codis的安装与配置cd&/usr/local/codis//wandoulabs/codis执行 bootstrap.sh脚本进行codis的安装 (需要等一下)sh&bootstrap.sh安装结束后会在 codis/bin 文件夹生成 codis-config, codis-proxy 两个可执行文件, (另外, bin/assets 文件夹是 codis-config 的 dashboard http 服务需要的前端资源, 需要和 codis-config 放置在同一文件夹下)&mkdir -p /usr/local/codis/{logs,conf,scripts} & #log目录存放日志,conf 目录存放codis-server的配置文件与config.ini配置文件,scripts目录存放codis服务的启动脚本.cp -rf bin /usr/local/codis/&&&&#bin目录里面是一些可执行文件与dashboard http 服务需要的前端资源.cp config.ini /usr/local/codis/conf/&&&&#config.ini &是codis的配置文件cp ./extern/redis-test/conf/6379.conf /usr/local/codis/conf/ &#6379.conf &是codis-server的配置文件修改config.ini文件,修改好的config.ini文件内容如下[root@Redis1 codis]# cat bin/config.ini | grep -v "^#" | grep -v "^$"coordinator=zookeeperzk=10.221.8.220:.8.221:.8.222:2181&&&&&&&&#三台机器的zookeeper的ip域端口product=codisdashboard_addr=10.221.8.220:18087&&&&&&&&#codis 架构中提供web操作界面服务的机器的ip与端口,(Redis1中的redis-config服务提供的web操作界面)所以是Redis1机器的ippassword=backend_ping_period=5session_max_timeout=1800session_max_bufsize=131072session_max_pipeline=1024zk_session_timeout=30proxy_id=Redis1_proxy&&&&#codis启动代理服务的代理ID,这个代理id不能与其他机器的代理id一样.net_timeout=52:创建脚本启动codis服务的启动创建 codis &web操作界面的启动脚本(只需要在Redis1 机器上创建这个脚本,因为dashboard http&服务只在这个机器上启动)[root@Redis1 codis]# vi /usr/local/codis/scripts/start_dashboard.sh#!/bin/shCODIS_HOME=/usr/local/codisnohup $CODIS_HOME/bin/codis-config -c $CODIS_HOME/conf/config.ini -L $CODIS_HOME/logs/dashboard.log dashboard --addr=:18087 --http-log=$CODIS_HOME/logs/requests.log &&/dev/null &创建slots的初始化脚本(只需要在Redis1 机器上创建这个脚本,因为codis的slot只需要初始化一次)[root@RedisA codis]# vi /usr/local/codis/scripts/initslot.sh#!/bin/shCODIS_HOME=/usr/local/codisecho "slots initializing..."$CODIS_HOME/bin/codis-config -c $CODIS_HOME/conf/config.ini slot init -fecho "done"创建codis-proxy的启动脚本 (只需在Redis2和Redis3上面创建这个脚本,因为codis-proxy服务只在这两个机器上启动)注意: &在Redis3上把下面脚本里面的Redis2全部改成Redis3.这个代理id是在各个机器codis的config.ini文件里面配置的注意:运行服务之前先创建proxy的日志文件,不然会报错. &touch /usr/local/codis/logs/Redis2_proxy.logvi /usr/local/codis/scripts/start_proxy.sh#!/bin/shCODIS_HOME=/usr/local/codisecho "shut down Redis2_proxy..."$CODIS_HOME/bin/codis-config -c $CODIS_HOME/conf/config.ini proxy offline Redis2_proxyecho "done"echo "start new Redis2_proxy..."nohup $CODIS_HOME/bin/codis-proxy --log-level error -c $CODIS_HOME/conf/config.ini -L $CODIS_HOME/logs/Redis2_proxy.log &--cpu=8 --addr=0.0.0.0:19000 --http-addr=0.0.0.0:11000 &echo "done"echo "sleep 3s"sleep 3tail -n 30 $CODIS_HOME/logs/Redis2_proxy.log修改Redis2和Redis3的codis-server的配置文件&/usr/local/codis/conf/6379.conf & (我修改了三个地方,可以安装自己的需要修改)logfile "/usr/local/codis/logs/codis_server.log"dir /usr/local/codis/datamaxmemory 1G按照上面的服务部署如图来启动机器上启动Redis1 上需要运行的服务:sh /usr/local/codis/scripts/start_dashboard.shsh /usr/local/codis/scripts/initslot.sh & (这个初始化slot的脚本在哪台机器执行都可以我就放到Redis1上执行了,)Redis1 上面需要启动一个codis-server的HA服务,用来自动切换codis-server的主从.这一步放到后面这里先不实现.Redis2 上需要运行的服务:sh /usr/local/codis/scripts/start_proxy.sh/usr/local/codis/bin/codis-server /usr/local/codis/conf/6379.conf &Redis3 上需要运行的服务:sh /usr/local/codis/scripts/start_proxy.sh/usr/local/codis/bin/codis-server /usr/local/codis/conf/6379.conf &codis 的&HA (codisHA只需要在Redis1上部署)codis的HA 分为 codis-prosy层的 HA &和 &codis-server成的 HAcodis-server 层的HA的实现:获取codis-server HA .go /ngaut/codis-ha编译codis-server HAcd &/data/go//ngaut/codis-hago build移动编译后的codis-ha文件到&/usr/local/codis/bincp &&codis-ha &/usr/local/codis/bincodis-server HA 的启动方法codis-ha --codis-config=dashboard地址:18087 --productName=集群项目名称codis-ha 启动以后 ,任何一个组里面的codis-server master 挂掉以后,都会自动切换一个slave为master.codis-proxy 层的HA的实现:proxy本身是无状态的,所以proxy本身的HA是比较好做的,因为连接到任何一个活着的proxy上都是一样的,我们可以使用LVS和HA Proxy来做负载均衡.豌豆荚针对java客户端开发了一个jodis, jodis是jedis的一个连接池,很简单,就是监听zk上面的存活proxy列表,挨个返回jedis对象,达到负载均衡和HA的效果.使用joids需要从zookeeper获取存活的proxy列表,所以需要配置zookeeper的IP与端口. &zookeeper的ip:端口是可以配置多个的,使用逗号隔开就可以了..这样整个架构就没有单点问题了...具体的链接代码:&JedisResourcePool jedisPool = new RoundRobinJedisPool("Redis1:2181,Redis2:2181,Redis3:2181", 30000, "/zk/codis/db_codis/proxy", new JedisPoolConfig());& & & & try (Jedis jedis = jedisPool.getResource()) {& & & & & & jedis.set("foo", "bar");& & & & & & String value = jedis.get("foo");& & & & & & System.out.println(value);& & & & }& & }注释:"Redis1:2181,Redis2:2181,Redis3:2181"&&&&#zookeeper主机的hostname与zookeeper服务开启的客户端链接端口,多个zookeeper主机之间用逗号分割,这样就解决了单点问题。30000&&&&#超时时间的设定&"/zk/codis/db_codis/proxy"&&&&#zookeeper中存储 codis代理的位置。Codis作者黄东旭细说分布式Redis架构设计和踩过的那些坑/art/314_all.htm
发布于 2周前,
阅读(10) | 评论(0) |
投票(0) | 收藏(0)
&&&&FastDFS之Binlog同步
基于FastDFS&5.03/5.04
一、Binlog同步概述
& & & FastDFS中为了维护文件的多个副本,会在同组的Storage之间互相同步文件,也就是一个备份过程,若一组有三台机器,那么互相备份后,一个文件就有三个副本。本篇将主要描述Binlog同步的相关概念,与同步逻辑,以及一些注意事项。
1、Binlog结构
1)目录结构
& & &&在Storage.conf配置文件中,有一个配置如下:base_path=/data/zcs/fdfs_Storage_base
在Storaged程序启动时会创建一个&base_path/data/sync&目录,该目录中的文件都是和Storaged之间的同步相关的,如:
10.0.1.1_23000.mark10.0.1.2_23000.mark&binlog.000binlog.index
binlog.index&##记录当前使用的Binlog文件序号,如为1,则表示使用binlog.001
binlog.000##真实地Binlog文件
10.0.1.1_23000.mark##同步状态文件,记录本机到10.0.1.1的同步状态
2)Mark文件内容描述
& & &&对于10.0.1.1_23000.mark文件,本篇相关的内容有如下两项:
binlog_index=0##表示上次同步给10.0.1.1机器的最后一条binlog文件索引
binlog_offset=116##表示上次同步给10.0.1.1机器的最后一条binlog偏移量,若程序重启了,也只要从这个位置开始向后同步即可。
3)Binlog文件内容描述
& & &&对于binlog.000文件,是有一条条binlog日志组成的,如下:
&c&M01/00/00/CgAHl1SJUR6AZqSHAAAF1vgN0rw59.conf
&C&M00/00/00/CgAFklSJUqaAL7hBAAAF1vgN0rw38.conf
&C&M01/00/00/CgAFklSJUvGAL96CAAAF1vgN0rw96.conf
其中的每一条记录都是使用空格符分成三个字段,分别为:
& & &&#&&表示文件upload时间戳
& & &&#&第二个字段表示文件创建方式,
C表示源创建、c表示副本创建
A表示源追加、a表示副本追加
D表示源删除、d表示副本删除
T表示源Truncate、t表示副本Truncate
& & &&注:源表示客户端直接操作的那个Storage即为源,其他的Storage都为副本,如客户端向10.0.1.1主机Upload一个文件,那么在10.0.1.1机器上记录的就是C,当10.0.1.1机器将该条binlog的操作同步给10.0.1.2时,在10.0.1.2上记录的binlog就是c,其他几种操作同理。
#第三个字段为文件的FileID&:M01/00/00/CgAHl1SJUR6AZqSHAAAF1vgN0rw59.conf其中的M01为storepath索引,紧接着00/00/为路径,后面CgAHl1SJUR6AZqSHAAAF1vgN0rw59.conf为文件系统中实际的文件名(不采用合并存储时,若采用合并存储并不是一个实际的文件名)。
& & &&#文件名组成:CgAHl1SJUR6AZqSHAAAF1vgN0rw59.conf,这个文件名中,除了conf&为文件后缀,CgAHl1SJUR6AZqSHAAAF1vgN0rw59&这部分是一个base64编码缓冲区,组成如下:
Storage_id(ip的数值型)
timestamp(创建时间)
file_size(若原始值为32位则前面加入一个随机值填充,最终为64位)
crc32(文件内容的检验码)
二、Binlog同步过程
& & &&在FastDFS之中,每个Storaged之间的同步都是由一个独立线程负责的,该线程中的所有操作都是以同步方式执行的。比如一组服务器有A、B、C三台机器,那么在每台机器上都有两个线程负责同步,如A机器,线程1负责同步数据到B,线程2负责同步数据到C。
1、获取组内的其他Storage信息,并启动同步线程
& & &&在Storage.conf配置文件中,只配置了Tracker的IP地址,并没有配置组内其他的Storage。因此同组的其他Storage必须从Tracker获取。具体过程如下:
& & &&1)Storage启动时为每一个配置的Tracker启动一个线程负责与该Tracker的通讯。
& & &&2)默认每间隔30秒,与Tracker发送一次心跳包,在心跳包的回复中,将会有该组内的其他Storage信息。
& & &&3)Storage获取到同组的其他Storage信息之后,为组内的每个其他Storage开启一个线程负责同步。
2、同步线程执行过程
& & &&每个同步线程负责到一台Storage的同步,以阻塞方式进行。
& & &&1)打开对应Storage的mark文件,如负责到10.0.1.1的同步则打开10.0.1.1_23000.mark文件,从中读取binlog_index、binlog_offset两个字段值,如取到值为:1、100,那么就打开binlog.001文件,seek到100这个位置。
& & &&2)进入一个while循环,尝试着读取一行,若读取不到则睡眠等待。若读取到一行,并且该行的操作方式为源操作,如C、A、D、T(大写的都是),则将该行指定的操作同步给对方(非源操作不需要同步),同步成功后更新binlog_offset标志,该值会定期写入到10.0.1.1_23000.mark文件之中。
& & &&3、同步前删除
假如同步较为缓慢,那么有可能在开始同步一个文件之前,该文件已经被客户端删除,此时同步线程将打印一条日志,然后直接接着处理后面的Binlog。
三、Storage的最后最早被同步时间
& & &&这个标题有点拗口,先举个例子:一组内有Storage-A、Storage-B、Storage-C三台机器。对于A这台机器来说,B与C机器都会同步Binlog(包括文件)给他,A在接受同步时会记录每台机器同步给他的最后时间(也就是Binlog中的第一个字段timpstamp)。比如B最后同步给A的Binlog-timestamp为100,C最后同步给A的Binlog-timestamp为200,那么A机器的最后最早被同步时间就为100.
& & &&这个值的意义在于,判断一个文件是否存在某个Storage上。比如这里A机器的最后最早被同步时间为100,那么如果一个文件的创建时间为99,就可以肯定这个文件在A上肯定有。为什呢?一个文件会Upload到组内三台机器的任何一台上:
& & &&1)若这个文件是直接Upload到A上,那么A肯定有。
& & &&2)若这个文件是Upload到B上,由于B同步给A的最后时间为100,也就是说在100之前的文件都已经同步A了,那么A肯定有。
& & &&3)同理C也一样。
& & &&Storage会定期将每台机器同步给他的最后时间告诉给Tracker,Tracker在客户端要下载一个文件时,需要判断一个Storage是否有该文件,只要解析文件的创建时间,然后与该值作比较,若该值大于创建创建时间,说明该Storage存在这个文件,可以从其下载。
& & &&Tracker也会定期将该值写入到一个文件之中,Storage_sync_timestamp.dat,内容如下:
group1,10.0.0.1,0,,
group1,10.0.0.2,,0,
group1,10.0.0.3,,,0
& & &&每一行记录了,对应Storage同步给其他Storage的最后时间,如第一行表示10.0.0.1同步给10.0.0.2的最后时间为,同步给10.0.0.3的最后时间为;同理可以知道后面两行的含义了。每行中间都有一个0,这个零表示自己同步给自己,没有记录。按照纵列看,取非零最小值就是最后最早同步时间了,如第三纵列为10.0.0.1被同步的时间,其中就是其最后最早被同步时间。
三、注意事项
& & &&1、由于到每台机器的同步都是有单线程负责的,因此即使主机上有很多个磁盘也不能加快同步速度,因此单线程并不能最大化磁盘IO,最大的速度也就是一个磁盘的速度。
& & &&2、对于重要文件,为了防止机器宕机或者坏磁盘的文件丢失,及时的同步备份是必须得。若同步太慢,还可能导致Tracker不能正确估计可用空间,而导致空间溢出。
& & &&3)同步性能,由于Linux系统的文件缓存机制,若一个刚写入的文件马上读,那么很可能就命中在系统缓存上,此时读数据几乎不耗费时间,若不能命中缓存,从磁盘读,将耗费很长时间。因此写入速度,最好与同步速度相当,这样可以保证及时同步。若写入速度超过同步速度,从某个时刻开始,将会使得所有的读无法命中缓存,同步性能将大幅下滑。
发布于 2个月前,
阅读(30) | 评论(0) |
投票(0) | 收藏(3)
本文转载自:&&网上有不少升级CentOS内核的文章,如《》,大部分都是下载源码编译,有点麻烦。在yum的ELRepo源中,有mainline(3.13.1)、long-term(3.10.28)这2个内核版本,考虑到long-term更稳定,会长期更新,所以选择这个版本。1、导入public keyrpm&--import&https://www.elrepo.org/RPM-GPG-KEY-elrepo.org2、安装ELRepo到CentOS-6.5中rpm&-ivh&http://www.elrepo.org/elrepo-release-6-5.el6.elrepo.noarch.rpm3、安装**kernel-lt(lt=long-term)**yum&--enablerepo=elrepo-kernel&install&kernel-lt&-y或者安装kernel-ml(ml=mainline)yum&--enablerepo=elrepo-kernel&install&kernel-ml&-y4、编辑grub.conf文件,修改Grub引导顺序vim&/etc/grub.conf#&grub.conf&generated&by&anaconda
#&Note&that&you&do&not&have&to&rerun&grub&after&making&changes&to&this&file
#&NOTICE:&&You&do&not&have&a&/boot&partition.&&This&means&that
#&&&&&&&&&&all&kernel&and&initrd&paths&are&relative&to&/,&eg.
#&&&&&&&&&&root&(hd0,0)
#&&&&&&&&&&kernel&/boot/vmlinuz-version&ro&root=/dev/sda1
#&&&&&&&&&&initrd&/boot/initrd-[generic-]version.img
#boot=/dev/sda
splashimage=(hd0,0)/boot/grub/splash.xpm.gz
hiddenmenu
title&CentOS&(3.10.28-1.el6.elrepo.x86_64)
&&&&&&&&root&(hd0,0)
&&&&&&&&kernel&/boot/vmlinuz-3.10.28-1.el6.elrepo.x86_64&ro&root=UUID=0a0-4d69-beb0-2db4cefd3613&rd_NO_LUKS&&KEYBOARDTYPE=pc&KEYTABLE=us&rd_NO_MD&crashkernel=auto.UTF-8&rd_NO_LVM&rd_NO_DM&rhgb&quiet
&&&&&&&&initrd&/boot/initramfs-3.10.28-1.el6.elrepo.x86_64.img
title&CentOS&(2.6.32-431.3.1.el6.x86_64)
&&&&&&&&root&(hd0,0)
&&&&&&&&kernel&/boot/vmlinuz-2.6.32-431.3.1.el6.x86_64&ro&root=UUID=0a0-4d69-beb0-2db4cefd3613&rd_NO_LUKS&&KEYBOARDTYPE=pc&KEYTABLE=us&rd_NO_MD&crashkernel=auto.UTF-8&rd_NO_LVM&rd_NO_DM&rhgb&quiet
&&&&&&&&initrd&/boot/initramfs-2.6.32-431.3.1.el6.x86_64.img
title&CentOS&(2.6.32-431.el6.x86_64)
&&&&&&&&root&(hd0,0)
&&&&&&&&kernel&/boot/vmlinuz-2.6.32-431.el6.x86_64&ro&root=UUID=0a0-4d69-beb0-2db4cefd3613&rd_NO_LUKS&&KEYBOARDTYPE=pc&KEYTABLE=us&rd_NO_MD&crashkernel=auto.UTF-8&rd_NO_LVM&rd_NO_DM&rhgb&quiet
&&&&&&&&initrd&/boot/initramfs-2.6.32-431.el6.x86_64.img确认刚安装好的内核在哪个位置,然后设置default值(从0开始),一般新安装的内核在第一个位置,所以设置default=0。 5、重启,查看内核版本号[root@dev&~]#&uname&-r&3.10.28-1.el6.elrepo.x86_64以下自己添加:----------------centos6.5 安装 docker-----------------------------运行docker Linux内核版本需要在3.8以上.(我的centos在没升级到3.10.28之前就安装了docker,使用的时候有问题比如exit命令退出容器会卡死)直接使用命令:&yum install docker-io & 是会报错的!!! &提示:No package docker-io available.需要安装yum 源 yum -y install http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm安装epel-release-6-8.noarch.rpm以后直接 yum install docker-io &就可以正常安装了!!
发布于 2个月前,
阅读(21) | 评论(0) |
投票(0) | 收藏(3)
[此文章被主人设置为私密,不可见]
统计: 0评/2阅/0赞
1:zabbix 安装走到下面时会检测php.ini参数的设置是否合理,并给出了合适的取值.出现的问题:修改php.ini里面的参数并重启php-fpm服务以后,这个页面的参数始终没有改变,也就是php.ini里面的参数修改后没有生效.解决方法:查看系统是否安装了多个php版本, 使用 phpinfo() 函数查看当前使用的是哪个php.ini(可能会有多个php.ini文件), 然后修改当前使用的php.ini配置文件里面的参数然后重启php-fpm就解决问题了.合适的取值如下:post_max_size =16M &max_execution_time =300&max_input_time =300这是正确的页面2: zabbix是支持中文的(使用的版本2.4.5),在站点右上角"基本设置"里面可以选择中文.出现的问题: 选择中文以后一些地方有乱码.一般这些地方有乱码解决方法: 找到win7(其它windows系统也应该可以) C:\Windows\Fonts 目录下面的 "楷体 常规"文件并复制到桌面(复制到桌面以后名字会自动变成simkai.ttf),然后用&simkai.ttf 文件去替换zabbix站点fonts目录里面的DejaVuSans.ttf 文件 (我的位置&//fonts/DejaVuSans.ttf ). 就可以解决了3:zabbix监控windows主机. 首先在windows上安装zabbix_agentd并修改配置文件.(安装zabbix_agents参考.cn/s/blog_7dbbuyx.html)遇到的问题: zabbix 2.4.5监控linux机器的时候需要修改zabbix_agentd的配置文件参数如下, 但是在监控windows的时候让然只配置这四个选项就会出现问题!!LogFile=/tmp/zabbix_agentd.logServer=192.168.1.99 &#准许这个server获取我(zabbix client)的信息.ServerActive=192.168.1.99 & #我(zabbix client)把信息主动提交到这个服务端.Hostname=zabbix.client & #zabbix_agentd所在系统的的hostnamezabbix监控windows7系统报错解决方法:&监控windows主机的时候除了配置 &Server &、ServerActive、Hostname 三个选项以外还要配置ListenIp选项然后就可以获取数据了。Server=192.168.1.99 &#准许这个server获取我(zabbix client)的信息.ServerActive=192.168.1.99 & #我(zabbix client)把信息主动提交到这个服务端.ListenIp=192.168.1.26 & #配置为本机的ip地址Hostname=zabbix.client & #zabbix_agentd所在系统的的hostname
发布于 3个月前,
阅读(14) | 评论(0) |
投票(0) | 收藏(0)
centos6.3 安装jira6.3.6 (汉化+破解)需要的各种文件可以到下面的共享连接下载&jira 安装步骤:第一步:&&&&1:安装jdk&&&&&&&&解压下载的jdk-7u55-linux-x64.gz 移动到&/usr/local目录下&&(如:&/usr/local/jdk1.7.0_55 &放哪里无所谓下一步配置路径正确就行!)&&&&2:配置/etc/profile文件&&&&&&&&在profile配置jdk的集中路径:如下-----------&&&&&&&&export &JAVA_HOME=/usr/local/jdk1.7.0_55&&&&&&&&export &JAVA_BIN=/usr/local/jdk1.7.0_55/bin&&&&&&&&export &JRE_HOME=/usr/local/jdk1.7.0_55/jre&&&&&&&&export &CLASSPATH=.:$JAVA_HOME/lib:/dt.jar:$JAVA_HOME/lib/tools.jar&&&&&&&&export &PATH=$PATH:$JAVA_HOME/bin&&&&&&&&-------------------------------------------------------&&&&&&&&然后重新加载profile文件&&&&&&&&source /etc/profile第二步:&&&&1:安装jira&&&&&&&&解压下载的atlassian-jira-6.3.6.tar.gz 移动到&/usr/local目录下&&(如:&/usr/local/jira &我把解压后的目录重名成 jira 了.)&&&&2:创建jira的home目录;&&&&&&&&mkdir -p&/usr/local/jira_home &(jira_home: 生成的jira项目会被放到这个目录&,)&&&&3:修改2个文件&&&&&&&&vi /usr/local/jira/conf/server.xml & (如果你的机器8080端口没被tomcat占用,这个文件可以不修改,因为运行jira会开启8080端口.)&&&&&&&&vi /usr/local/jira//atlassian-jira/WEB-INF/classes/jira-application.properties & 添加 jira.home 的路径如下:&&&&&&&&&&&&jira.home = /usr/local/jira_home&&&&3:启动jira&&&&&&&&关于jira的命令都在 &/usr/local/jira/bin/ 目录下, 进入目录运行启动脚本&&&&&&&&./start-jira.sh&&&&&&&&&&&&&& & ./stop-jira.sh第三步:&&&&1:访问& &(如: http://192.168.1.99:8080) &&&&& &&&我在启动这个脚本以后,只开启了一个8080端口,但是8005这个端口没有和8080同时开启.当访问&http://192.168.1.99:8080 端口时响应很慢,等一分钟左右再看8005端口已经开启了,然后再次访问&http://192.168.1.99:8080&&就可以看到界面了.&&&&2:按流程配置jira需要的信息,有几个地方需要注意!!!&&&&&&&&a:是否选择使用其他数据库, 可以选择mysql与其他数据, 如果不选就会使用 hsql JAVA数据库, 官方建议生产环境使用其他数据库. 我这里使用内置的数据库(关于mysql的操作都不用做了).&&&&&&&&&&&&注释: 如果使用mysql数据库: 1:需要安装mysql 2: 创建jira使用的库并授权 3: 需要把下载的mysql-connector-java-5.1.18-bin.jar包复制到/usr/local/jira/atlassian-jira/WEB-INF/lib/目录.&&&&&&&&&&&&&&&&b:下面这个界面要选择第一个选项. 因为下一步其他选项不但要输入license key 还需要jira的账号和密码.(耽误了我不少时间)....&&&&&&&&c: 这一步需要一个临时的license key如图:&&&&&&&&临时key如下:-------------------------AAABBw0ODAoPeNptkFtLxDAQhd/zKwI+R9Kwy66FPKxthGhvtF0p4kuso0a6sUwvuP/edissyj4MDHPOfHOYqzu0tICWeoJy4a+FzzkNwpIK7q1ICF2Ntu3tl5P3Ot89+1SNphnMPCEBwqkJTQ9y9jN+wzxBPi2a68jW4DpQr/a0rZJS5VmuC0XOBNnjAH/s5bGFxBxABmkcqzzQu2jRTd3bEZaFZvE+AnYzRJDYWNeDM64G9d1aPJ4TeXxOlOK7cbZbjrbNgkyGwwtg+rbvJpBkHikAR0Adytt0XzFV7R5Y+qQzVkWZIoVK5FQsWq03YrvdkN/Ekz3S4SXlcpRswPrDdPD/aT+P1nzDMC0CFQCM9+0LlHVNnZQnSTwuRO3eK+2gVgIUCteTs4Q3khIgrnsY64hxYB/d8bM=X02dh------------------------之后就没什么注意的了------------------------------& & 3:汉化+破解 &(其实比较容易)&&&&&&&&汉化: &复制JIRA-6.3.3-language-pack-zh_CN.jar 到&/usr/local/jira/atlassian-jira/WEB-INF/lib/&&&&&&&&破解: 复制&atlassian-extras-2.2.2.jar 到 &/usr/local/jira/atlassian-jira/WEB-INF/lib/ & &(替换原文件)&&&&&&&&&&&&&&&&&复制&atlassian-universal-plugin-manager-plugin-2.17.13.jar &到 &/usr/local/jira/atlassian-jira/WEB-INF/atlassian-bundled-plugins &&(替换原文件)&&&&&&&&& 关闭jira然后在重新启动 登录 管理账号 然后在 系统--&通用 里面就能修改语言为中文了.&&&&&&&& 破解&需要在"授权"选项增加新的授权码&&&&&&&&&&&&&&&&&&&&新增授权码如下:Description=JIRA: Commercial,CreationDate=, & & & 安装日期需要修改jira.LicenseEdition=ENTERPRISE,Evaluation=false,jira.LicenseTypeName=COMMERCIAL,jira.active=true,licenseVersion=2,MaintenanceExpiryDate=,Organisation=pl,SEN=SEN-L4572887,ServerID=B32Q-P0O3-0KY8-4PJI, & & & 需要修改jira.NumberOfUsers=-1,LicenseID=AAABBw0ODAoPeNptkFtLxDAQhd/zKwI+R9Kwy66FPKxthGhvtF0p4kuso0a6sUwvuP/edissyj4MDHPOfHOYqzu0tICWeoJy4a+FzzkNwpIK7q1ICF2Ntu3tl5P3Ot89+1SNphnMPCEBwqkJTQ9y9jN+wzxBPi2a68jW4DpQr/a0rZJS5VmuC0XOBNnjAH/s5bGFxBxABmkcqzzQu2jRTd3bEZaFZvE+AnYzRJDYWNeDM64G9d1aPJ4TeXxOlOK7cbZbjrbNgkyGwwtg+rbvJpBkHikAR0Adytt0XzFV7R5Y+qQzVkWZIoVK5FQsWq03YrvdkN/Ekz3S4SXlcpRswPrDdPD/aT+P1nzDMC0CFQCM9+0LlHVNnZQnSTwuRO3eK+2gVgIUCteTs4Q3khIgrnsY64hxYB/d8bM=X02dh,LicenseExpiryDate=,PurchaseDate= & & &需要修改到此结束.....
发布于 3个月前,
阅读(23) | 评论(0) |
投票(0) | 收藏(0)
文章转自:&
代理服务器英文全称是Proxy Server,其功能就是代理网络用户去取得网络信息。
Squid是一个缓存Internet 数据的软件,其接收用户的下载申请,并自动处理所下载的数据。当一个用户想要下载一个主页时,可以向Squid 发出一个申请,要Squid 代替其进行下载,然后Squid 连接所申请网站并请求该主页,接着把该主页传给用户同时保留一个备份,当别的用户申请同样的页面时,Squid 把保存的备份立即传给用户,使用户觉得速度相当快。Squid 可以代理HTTP、FTP、GOPHER、SSL和WAIS等协议并且Squid 可以自动地进行处理,可以根据自己的需要设置Squid,使之过滤掉不想要的东西。
1.1 工作流程
当代理服务器中有客户端需要的数据时:
a. 客户端向代理服务器发送数据请求;
b. 代理服务器检查自己的数据缓存;
c. 代理服务器在缓存中找到了用户想要的数据,取出数据;
d. 代理服务器将从缓存中取得的数据返回给客户端。
当代理服务器中没有客户端需要的数据时:
1. 客户端向代理服务器发送数据请求;
2. 代理服务器检查自己的数据缓存;
3. 代理服务器在缓存中没有找到用户想要的数据;
4. 代理服务器向Internet 上的远端服务器发送数据请求;
5. 远端服务器响应,返回相应的数据;
6. 代理服务器取得远端服务器的数据,返回给客户端,并保留一份到自己的数据缓存中。
Squid代理服务器工作在TCP/IP的应用层。
1.2 Squid 分类
按照代理类型的不同,可以将Squid 代理分为正向代理和反向代理,正向代理中,根据实现方式的不同,又可以分为普通代理和透明代理。
普通代理:需要客户机在浏览器中指定代理服务器的地址、端口;
透明代理:适用于企业的网关主机(共享接入Internet)中,客户机不需要指定代理服务器地址、端口等信息,代理服务器需要设置防火墙策略将客户机的Web访问数据转交给代理服务程序处理;
反向代理:是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。
官方地址:
参考文档:
二、系统环境
操作系统:CentOS release 6.4 (Final)
Squid版本:squid-3.1.10-20.el6_5.3.x86_64
SELINUX=disabled
HTTP Service: stoped
三、安装Squid服务
3.1 检查squid软件是否安装
# rpm -qa|grep squid
3.2 如果未安装,则使用yum 方式安装
# yum -y install squid
3.3 设置开机自启动
# chkconfig --level 35 squid on&&&&&&&&&&&& //在3、5级别上自动运行squid服务
四、squid服务器的配置文件说明
squid 的主配置文件是 /etc/squid/squid.conf,所有squid的设定都是在这个文件里配置,下面我们来讲解一下该文件的配置选项。
http_port       &MB      &MB&  /var/spool/squid&&&&  %&a&%ui&%un&[%tl]&&%Hs&%&st&&&%Ss:%Sh&&&&&&&&/var/log/squid/access.log&combined    &    &./  
关于ACL的知识,大家可以自行百度查阅,其他更多高级选项,请参考官方文档:。
注意:squid2.0 和squid3.0的差别还是很大的,如果配置完,启动squid不正确,请大家多多参考官方文档的相应版本说明。
五、普通代理服务
即标准的、传统的代理服务,需要客户机在浏览器中指定代理服务器的地址、端口。
实验拓扑图如下:
5.1 配置Squid 代理服务器IP地址
将eth1的IP地址修改为200.168.10.1
# ifconfig eth1 200.168.10.1
5.2 编辑squid 主配置文件/etc/squid/squid.conf
http_port&3128&cache_mem&64&MB&
maximum_object_size&4&MB&
cache_dir&ufs&/var/spool/squid&100&16&256&access_log&/var/log/squid/access.log&
acl&localnet&src&192.168.1.0/24&http_access&allow&localnet&
http_access&deny&all&
visible_hostname&squid.david.dev&
cache_mgr&mchina_
5.3 初始化
# squid –z
5.4 启动Squid
# /etc/init.d/squid start
5.5 配置Web 服务器
A. 安装Apache
# rpm -qa|grep httpd
# yum -y install httpd
B. 启动Apache并加入开机启动
# /etc/init.d/httpd start
# chkconfig httpd on
C. 创建index.html
# echo "&h1&Squid-Web1/200.168.10.2&/h1&" & /var/www/html/index.html
D. 修改Web服务器IP地址
将web服务器的IP地址修改为200.168.10.2
# ifconfig eth0 200.168.10.2
5.6 配置客户端IP地址
5.7 配置浏览器代理
打开浏览器(以IE为例,其他类似),菜单栏 -& 工具 -& Internet 选项 -& 连接 -& 局域网设置 -& 代理服务器,按照以下格式设置。
测试成功。
5.9 测试错误页面
在Oracle VM VirtualBox里,因为上面手动设置了ip地址,导致外网不能访问,刚好可以测试访问出错的页面。
可以看到在squid 配置文件里设置的参数在错误页面里的显示。
六、透明代理服务
适用于企业的网关主机,客户机不需要指定代理服务器地址、端口等信息,通过iptables将客户机的Web访问数据转交给代理服务程序处理。
实验拓扑图如下:
6.1 修改squid 主配置文件/etc/squid/squid.conf
http_port&3128&transparent&cache_mem&64&MB&
maximum_object_size&4&MB&
cache_dir&ufs&/var/spool/squid&100&16&256&
access_log&/var/log/squid/access.log&
acl&localnet&src&192.168.1.0/24&
http_access&allow&localnet&
http_access&deny&all&
visible_hostname&squid.david.dev&
cache_mgr&mchina_
在http_port 3128 后添加transparent 关键字。
6.2 reload
reload 让上面的配置生效。
# /etc/init.d/squid reload
6.3 添加iptables规则,把内部的http请求重定向到3128端口
A. 启动iptables 服务
# /etc/init.d/iptables start
B. 清除现有iptables filter 表规则
# iptables -F
C. 保存iptables 设置
# /etc/init.d/iptables save
D. 查看nat 表设置
# iptables -t nat -L -n
E. 在nat表中新增一条规则
# iptables -t nat -I PREROUTING -i eth0 -s 192.168.1.0/24 -p tcp --dport 80 -j REDIRECT --to-port 3128
G. 设置iptables 开机启动
# chkconfig iptables on
6.4 修改客户端IP地址
将默认网关设置为squid 服务器的内网ip地址。
6.5 在浏览器中,取消代理设置
透明代理测试成功。
七、反向代理服务
为Internet用户访问企业Web站点提供缓存加速。
实验拓扑图如下:
7.1 关闭防火墙
# /etc/init.d/iptables stop
7.2 修改Web Server 主页
# echo "&h1&Squid-Web1/192.168.1.18&/h1&" & /var/www/html/index.html
# echo "&h1&Squid-Web1/192.168.1.19&/h1&" & /var/www/html/index.html
7.3 配置squid&
http_port&80&accel&vhost&
http_access&allow&all&
cache_peer&192.168.1.18&parent&80&0&originserver&round-robin&weight=1&cache_peer&192.168.1.19&parent&80&0&originserver&round-robin&weight=1&visible_hostname&squid.david.dev&
cache_mgr&mchina_
7.4 启动Squid服务
squid启动失败,因为上面设定了squid的监听端口是80,和系统的http服务冲突,所以要将http服务停掉。
7.5 squid 启动失败,将系统开机自启动的apache服务关闭。
squid 采用了round-robin,所以客户端的访问将轮询两台web服务器,采用 "Ctrl + F5" 来深度刷新测试。
查看squid 的访问日志。
八、实际应用
下面实验将模拟通过不同的域名访问不同的机器,简单实现企业应用中的负载均衡。客户端在浏览器地址栏中输入www.squid.dev,将访问192.168.1.18这台机器,访问bbs.squid.dev,将访问192.168.1.19这台机器。
实验拓扑图如下:
8.1 修改Web Server 主页
# echo "&h1&www.squid.dev/192.168.1.18&/h1&" & /var/www/html/index.html
# echo "&h1&bbs.squid.dev/192.168.1.19&/h1&" & /var/www/html/index.html
8.2 配置Squid
http_port&80&accel&vhost&
http_access&allow&all&
cache_peer&192.168.1.18&parent&80&0&originserver&name=www&
cache_peer&192.168.1.19&parent&80&0&originserver&name=bbs&
cache_peer_domain&www&www.squid.dev&
cache_peer_domain&bbs&bbs.squid.dev&
visible_hostname&squid.david.dev&
cache_mgr&mchina_
8.3&配置客户端
这里可以使用DNS服务来解析,这里我们为了方便,就在hosts 文件里直接指定。
修改C:\Windows\System32\drivers\etc\hosts 文件
8.4 测试网络情况&
8.5 测试www.squid.dev
8.6 测试bbs.squid.dev
8.7 查看squid 访问日志
8.8 查看两台服务器的apache 访问日志
# tailf /var/log/httpd/access.log
测试成功。
发布于 4个月前,
阅读(4) | 评论(0) |
投票(0) | 收藏(0)
路由表下载地址:路由表信息将每24小时自动更新一次, 下载地址在:&我用的是win7系统,添加了一个"VPN链接" &然后下载Windows.zip使用vpnup.bat来设置路由表信息以后.访问国内网站速度有很大提高!!介绍这几个脚本主要利用来自&&的数据生成路由命令脚本, 让vpn客户端在进行连接的时候自动执行. 通过这些路由脚本, 可以让用户在使用vpn作为默认网络网关的时候, 不使用vpn进行对中国国内ip的访问, 从而减轻vpn的负担, 和增加访问国内网站的速度.基本约定在使用这些脚本之前, 请确保你在自己的电脑上已经成功配置好一个vpn连接(pptp 或者 openvpn), 并且让之以默认网络网关的方式运行, 这通常也是默认配置, 即vpn接入之后所有网络流量都通过vpn进行.Openvpn使用此法之前, 请确认openvpn版本是否为 v2.1 或者以上,&如果不是请参看下方不同系统关于openvpn部分的描述客户端设置本方法适用于使用openvpn v2.1或更高版本的用户. 因为openvpn v2.1比之前版本增加了一个名为max-routes的新参数, 通过设置该参数, 我们可以在配置文件里(服务端, 客户端)直接添加超过100条以上的路由信息. 具体设置步骤如下:下载 chnroutes.py 文件在命令行里执行&python chnroutes.py, 这将生成一个名为 routes.txt 的文本文件. 对于不想安装python的用户, 可以直接从项目下来列表里下载该文件. 它将会每月更新一次.使用你喜欢的文本编辑器打开上述文件, 并把内容复制粘贴到openvpn配置文件的末尾同时在openvpn配置文件的头部添加一句 max-routes num, 其中num是一个不小于文件routes.txt的行数的数字, 实际上因为还有一些服务器端push过来的路由信息, 所以保险起见可以用 routes.txt的行数加上50, 比如目前得到的routes.txt的行数是940, 你可以把数字设置为1000: max-routes 1000修改完之后, 重新进行openvpn连接, 你可以用之前描述过的方法进行测试是否成功以上方法在Mac OSX, Linux 和 Windows上测试通过. 但需要注意的是, 这里用到一个net_gateway的变量表示未连接openvpn前的网关地址, 但openvpn的文档里有说明这个不是所有系统都支持的, 如果发生这个情况, 可以修改一下生成脚本, 把net_gateway修改为你的局域网的网关地址. 对于windows 7 和 vista, OpenVPN的windows客户端可能需要设置Windows XP兼容模式才能使用, 安装文件要在属性选择中的兼容性选择Windows XP和以管理员的身份运行,安装好的运行文件也同样选择这两个选项。如果还是不能连接到VPN的网络,可以尝试在配置文件中加入:routemethod&exe
routedelay注意事项因为这些ip数据不是固定不变的, 尽管变化不大, 但还是建议每隔两三个月更新一次使用此法之后, 可能会导致google music无法访问, 这个其实是因为连上vpn之后, 使用的dns也是国外的, 国外dns对 解析出来的是国外的ip, 所以一个简单的解决方法是修改本机的hosts文件, 把国内dns解析出来的的地址写上去:&203.208.39.99
PPTPMac OSX下载 chnroutes.py从终端进入下载目录, 执行python chnroutes.py -p mac, 执行完毕之后同一目录下将生成两个新文件'ip-up'和'ip-down'把这两个文件copy到 /etc/ppp 目录, 并使用&sudo chmod a+x ip-up ip-down命令把它们设置为可执行设置完毕, 重新连接vpn. 测试步骤同上.Linux下载 chnroutes.py从终端进入下载目录, 执行python chnroutes.py -p linux, 执行完毕之后同一目录下将生成两个新文件'ip-pre-up'和'ip-down'.把ip-pre-up 拷贝到 /etc/ppp目录, ip-down 拷贝到 /etc/ppp/ip-down.d 目录. 测试步骤同上.Windows下载 chnroutes.py从终端进入下载目录, 执行python chnroutes.py -p win, 执行之后会生成vpnup.bat和vpndown.bat两个文件.由于windows上的pptp不支持拨号脚本, 所以也只能在进行拨号之前手动执行vpnup.bat文件以设置路由表. 而在断开vpn之后, 如果你觉得有必要, 可以运行vpndown.bat把这些路由信息给清理掉.如果机器上没有安装python, 可以直接从下载页面上下载已经预生成的bat文件.Android由于没在android上进行过测试, 无法确定上文描述的openvpn v2.1的使用方法是否也在android手机上适用, 所以保留以下内容openvpn下载 chnroutes.py从终端进入下载目录, 执行python chnroutes.py -p linux, 这将生成'vpnup.sh'和'vpndown.sh'两个文件.把步骤2生成的两个文件拷贝到 android 的 /sdcard/openvpn/目录下, 然后修改openvpn配置文件, 在文件中加上以上三句:&&&&scriptsecurity&
&&&&down注意自行修改其中的路径以符合你的android rom的实际路径另外, 这里假定了你的android已经安装过busybox, 否则请先安装busybox再进行以上操作, 还需要知道的是, 这个脚本在手机上执行会花费比较长的时间, 如非必要, 就不要用了. 也许采用非redirect-gateway方式, 然后在ovpn配置文件里添加几条需要路由的ip段是比较快捷方便的做法.基于Linux的第三方系统的路由器一些基于Linux系统的第三方路由器系统如: OpenWRT, DD-WRT, Tomato 都带有VPN(PPTP/Openvpn)客户端的, 也就是说, 我们只需要在路由器进行VPN拨号, 并利用本项目提供的路由表脚本就可以把VPN针对性翻墙扩展到整个局域网. 当然, 使用这个方式也是会带来副作用, 即局域网的任何机器都不适合使用Emule或者BT等P2P下载软件. 但对于那些不使用P2P, 希望在路由器上设置针对性翻墙的用户, 这方法十分有用, 因为只需要一个VPN帐号, 局域网内的所有机器, 包括使用wifi的手机都能自动翻墙. 相信配置方式请参考:&&项目.信息反馈本项目的脚本都是在使用路由器进行拨号的情况下测试通过的, 如果在其它拨号方式下, 脚本不能运作, 请在本页添加comment说明. 或者添加一个新的issue. 另外, 在配合openvpn使用的时候, 可能会出现一种情况是因为网络质量不好, openvpn非主动断开, 这时候vpndown脚本也会被自动调用, 但重新连上之后, 可能会找不到默认的路由而添加失败, 这时候你可以通过停止openvpn重连, 并手动设置好原来的默认路由再重新进行openvpn拨号.
发布于 4个月前,
阅读(14) | 评论(0) |
投票(0) | 收藏(0)}

我要回帖

更多关于 大话水浒服务器爆满 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信