首页 > 其他分享 >关于 tomcat 集群中 session 共享的三种方法

关于 tomcat 集群中 session 共享的三种方法

时间:2023-09-20 14:06:11浏览次数:41  
标签:tomcat com redis 192.168 session 集群 memcached


前两种均需要使用 memcached 或redis 存储 session ,最后一种使用 terracotta 服务器共享。

建议使用 redis,不仅仅因为它可以将缓存的内容持久化,还因为它支持的单个对象比较大,而且数据类型丰富,

不只是缓存 session,还可以做其他用途,一举几得啊。

 

1、使用 filter 方法存储

这种方法比较推荐,因为它的服务器使用范围比较多,不仅限于tomcat ,而且实现的原理比较简单容易控制。

可以使用memcached-session-filter

官方网址:http://code.google.com/p/memcached-session-filter/

官方介绍:解决集群环境下javaweb容器session共享,使用filter拦截器和memcached实现。在tomcat 6和websphere8测试通过,现网并发2000,日PV量1100万。

暂不支持sessionevent包括create destory 和 attribute change

东西很不错,体积很小,不过这个东东要和spring 一起使用,而且要求存储到 memcached 的对象要实现 java 的序列化接口

大家也知道,java本身的序列化性能也很一般。

我将其简单扩展了一下,不再依赖spring ,并且利用 javolution 实现序列化,缓存的对象不再有限制。

暂时没有发现 redis的实现,后面将自己实现使用 redis 存储并且序列化使用 kyro ,详细情况有时间再单独写出来。

 

 

2、使用 tomcat sessionmanager 方法存储

这种方法服务器只能使用 tomcat,但网上有针对 memcached 和 redis 实现,直接配置就行了。

memcached 实现:

网址:http://code.google.com/p/memcached-session-manager/

修改 tomcat 的 conf 目录下的context.xml 文件:

 <ManagerclassName="de.javakaffee.web.msm.MemcachedBackupSessionManager"   

 memcachedNodes="n1:localhost:11211n2:localhost:11212"   

 failoverNodes="n2"   

 requestUriIgnorePattern=".*\.(png|gif|jpg|css|js)$"   

 sessionBackupAsync="false"   

 sessionBackupTimeout="100"   

 transcoderFactoryClass="de.javakaffee.web.msm.serializer.javolution.JavolutionTranscoderFactory"   

 copyCollectionsForSerialization="false"    />

 

以上是以 1.3 版为例子,需要用的jar 包:

memcached-session-manager-1.3.0.jar

msm-javolution-serializer-1.3.0.jar

javolution-5.4.3.1.jar

memcached-2.4.2.jar

 

redis 实现:

网址:https://github.com/jcoleman/tomcat-redis-session-manager

同样修改 tomcat 的 conf目录下的 context.xml 文件:

<ValveclassName="com.radiadesign.catalina.session.RedisSessionHandlerValve"/>

<ManagerclassName="com.radiadesign.catalina.session.RedisSessionManager"

        host="localhost"

        port="6379"

        database="0"

        maxInactiveInterval="60"/>

以上是以 1.2 版为例子,需要用的jar 包:

tomcat-redis-session-manager-1.2-tomcat-6.jar

jedis-2.1.0.jar

commons-pool-1.6.jar

 

 

3、使用 terracotta 服务器共享

这种方式配置有点复杂,大家到网上搜索一下吧。

 

以上配置成功后,前端使用 nginx进行负载均衡就行了,同时使用 Gzip 压缩 和 静态文件缓存。

 

以下是实例:

一、nginx+tomcat+memcached  (依赖架包下载)

1.memcached配置:(v1.4.13)

节点1(192.168.159.131:11444)

节点2(192.168.159.131:11333)

2.tomcat配置

tomcat1(192.168.159.128:8081)

tomcat2(192.168.159.128:8082)

3.nginx安装在192.168.159.131。

      首先,是配置tomcat,使其将session保存到memcached上。有两种方法:

方法一:在server.xml中配置。

找到host节点,加入

<ContextdocBase="/var/www/html" path="">
        <ManagerclassName="de.javakaffee.web.msm.MemcachedBackupSessionManager"
               memcachedNodes="n1:192.168.159.131:11444n2:192.168.159.131:11333"
                requestUriIgnorePattern=".*\.(png|gif|jpg|css|js)$"
                sessionBackupAsync="false"sessionBackupTimeout="3000" 
               transcoderFactoryClass="de.javakaffee.web.msm.serializer.javolution.JavolutionTranscoderFactory"
               copyCollectionsForSerialization="false"/>
</Context>

方法二:在context.xml中配置。

找到Context节点,在context中加入

<ManagerclassName="de.javakaffee.web.msm.MemcachedBackupSessionManager"
                memcachedNodes="n1:192.168.159.131:11444"
               requestUriIgnorePattern=".*\.(png|gif|jpg|css|js)$"
                sessionBackupAsync="false"sessionBackupTimeout="3000"
                transcoderFactoryClass="de.javakaffee.web.msm.serializer.javolution.JavolutionTranscoderFactory"
               copyCollectionsForSerialization="false" />

      其次,配置nginx,用于测试session保持共享。

upstream  xxy.com {
      server   192.168.159.128:8081 ;
      server   192.168.159.128:8082 ;
}log_format  www_xy_com '$remote_addr - $remote_user [$time_local] $request '
               '"$status"$body_bytes_sent "$http_referer"' 
              '"$http_user_agent" "$http_x_forwarded_for"';server
{
      listen  80;
      server_name  xxy.com;location/ {
               proxy_pass        http://xxy.com;
               proxy_set_header   Host             $host;
               proxy_set_header   X-Real-IP        $remote_addr;
               proxy_set_header   X-Forwarded-For  $proxy_add_x_forwarded_for;
      }access_log  /data/base_files/logs/www.xy.log  www_xy_com;
}

最后,将你的应用放到两个tomcat中,并依次启动memcached、tomcat、nginx。访问你的nginx,可以发现两个tomcat中的session可以保持共享了。

二、nginx+tomcat+redis   (依赖架包下载)

1.redis配置(192.168.159.131:16300)(v2.8.3)

2.tomcat配置

tomcat1(192.168.159.130:8081)

tomcat2(192.168.159.130:8082)

3.nginx安装在192.168.159.131。

注意:valve标签一定要在manager前面。)

配置和memcached 一样 找到Context节点,在context中加入

<ValveclassName="com.radiadesign.catalina.session.RedisSessionHandlerValve"/>
<ManagerclassName="com.radiadesign.catalina.session.RedisSessionManager"
         host="192.168.159.131"
         port="16300"
         database="0"
         maxInactiveInterval="60"/>

其次,配置nginx,用于测试session保持共享。

upstream  redis.xxy.com {
      server   192.168.159.130:8081;
      server   192.168.159.130:8082;
}log_format  www_xy_com '$remote_addr - $remote_user [$time_local] $request '
               '"$status"$body_bytes_sent "$http_referer"' 
              '"$http_user_agent" "$http_x_forwarded_for"';server
{
      listen  80;
      server_name redis.xxy.com; location/ {
               proxy_pass        http://redis.xxy.com;
               proxy_set_header   Host             $host;
               proxy_set_header   X-Real-IP        $remote_addr;
               proxy_set_header   X-Forwarded-For  $proxy_add_x_forwarded_for;
      }access_log  /data/base_files/logs/redis.xxy.log  www_xy_com;
}

最后,将你的应用放到两个tomcat中,并依次启动redis、tomcat、nginx。访问你的nginx,可以发现两个tomcat中的session可以保持共享了。

标签:tomcat,com,redis,192.168,session,集群,memcached
From: https://blog.51cto.com/u_16242566/7536798

相关文章

  • Tomcat原理详解和各种集群的实现
    转载,原始出处 :http://harisxiong.blog.51cto.com/7513022/1304746注意:本篇博文涉及的知识内容如下,实验中所用的系统环境为RHEL6.4。1.Java基础知识讲解2.Tomcat的安装和实现3.通过apache的mod_proxy模块代理并实现Tomcat负载均衡4.基于Tomcat集群的网上商城的实现-......
  • Tomcat集群配置学习篇-----分布式应用
    Tomcat集群配置学习篇-----分布式应用现目前基于javaWeb开发的应用系统已经比比皆是,尤其是电子商务网站,要想网站发展壮大,那么必然就得能够承受住庞大的网站访问量;大家知道如果服务器访问量过大,就会出现服应用务器崩溃的情况,这个时候怎么办,难道就只能去重启服务器吗?好,如果是一般的小......
  • Hadoop集群的NameNode的备份
    Hadoop集群中,NameNode节点存储着HDFS上所有文件和目录的元数据信息如果NameNode挂了,也就意味着整个Hadoop集群也就完了所以,NameNode节点的备份很重要,可以从以下2个方面来备份NameNode节点1.在hdfs-site.xml中,配置多个name的dir到不同的磁盘分区上:<property>   <name>dfs.name.......
  • Hadoop集群中增加新节点
    向一个正在运行的Hadoop集群中增加几个新的Nodes1.新节点上部署java/hadoop程序,配置相应的环境变量2.新节点上增加用户,从master上拷贝id_rsa.pub并配置authorized_keys3.新节点上设置host,需要有集群中各节点的host对应4.新节点上建立相关的目录,并修改属主5.master的slaves文件......
  • Hadoop集群上使用Lzo压缩
    自从Hadoop集群搭建以来,我们一直使用的是Gzip进行压缩当时,我对gzip压缩过的文件和原始的log文件分别跑MapReduce测试,最终执行速度基本差不多而且Hadoop原生支持Gzip解压,所以,当时就直接采用了Gzip压缩的方式关于Lzo压缩,twitter有一篇文章,介绍的比较详细,见这里:Lzo压缩相比Gzip压缩,有......
  • K8s部署Nacos 2.0.3集群模式(外置mysql数据库)
    来源:https://www.woniusnail.com/?p=1691Nacos 具体介绍就不介绍了,详细的官方都有。本次主要介绍在k8s集群中部署Nacos集群(3节点),数据库使用外置的mysql,相比使用官方的在k8s内创建数据库的方案维护更方便,所有nacos配置全部保存在数据库中,不用担心重启掉线等异常导致配置文......
  • KingbaseES V8R6 集群运维案例 -- 脚本部署集群后ssh无法连接
    案例说明:在kylinV10环境下,通过脚本方式部署KingbaseESV8R6集群后,发现ssh无法连接主机,通过分析发现在脚本部署过程中会对系统环境进行优化配置,在修改了/etc/ssh/sshd_config中的usePAM=yes后,导致ssh连接不上。适用版本:KingbaseESV8R6系统环境:KylinV10Server一、问题现......
  • tomcat启动startup.bat一闪而过
    遇到很多次运行startup.bat后,一个窗口一闪而过的问题,但是从来没去纠正怎样修改配置才是正确的,现在从网上查阅的资料整理如下:tomcat在启动时,会读取环境变量的信息,需要一个CATALINA_HOME与JAVA_HOME的信息,CATALINA_HOME即tomcat的主目录,JAVA_HOME即java安装的主目录,jdk的主目录......
  • IDEA一个项目启动多个实例,以集群启动
    在微服务开发场景下,服务大多是以集群方式部署的。在本地开发时有时候会需要以集群的方式启动项目,同时启动多个实例来测试一些相关功能(例如分布式锁),此时不需要打包之后再仍到测试环境去启动多个实例,在IDE中就可以同时启动多个实例。首先用idea打开项目,不用打开多个idea,因为你会......
  • tomcat配置
    在项目中要使用UTF-8的编码,并配置了过滤器,过滤编码也是UTF-8修改Tomcat的配置文件server.xml,在端器配置的地方加入URIEncoding="UTF-8"如:<ConnectorURIEncoding="UTF-8"port="8080"maxHttpHeaderSize="8192"maxThreads="150"minS......