閱讀925 返回首頁    go 阿裏雲 go 技術社區[雲棲]


Ehcache優缺點以及分布式詳解

ehcahe的介紹

EhCache 是一個純Java的進程內緩存框架,具有快速、精幹等特點,是Hibernate中默認的CacheProvider。Ehcache是一種廣泛使用的開源Java分布式緩存。主要麵向通用緩存,Java EE和輕量級容器。它具有內存和磁盤存儲,緩存加載器,緩存擴展,緩存異常處理程序,一個gzip緩存servlet過濾器,支持REST和SOAP api等特點。

EhCache 應用架構圖,下圖是 EhCache 在應用程序中的位置:

20120719193133_738.jpg

ehcahe的優點

  1. 快速
  2. 簡單
  3. 緩存數據有兩級:內存和磁盤,因此無需擔心容量問題
  4. 緩存數據會在虛擬機重啟的過程中寫入磁盤
  5. 可以通過RMI、可插入API等方式進行分布式緩存
  6. 具有緩存和緩存管理器的偵聽接口
  7. 支持多緩存管理器實例,以及一個實例的多個緩存區域
  8. 提供Hibernate的緩存實現
  9. 多種緩存策略,Ehcache提供了對大數據的內存和硬盤的存儲,最近版本允許多實例、保存對象高靈活性、提供LRU、LFU、FIFO淘汰算法,基礎屬性支持熱配置、支持的插件多

ehcahe的缺點

  1. 使用磁盤Cache的時候非常占用磁盤空間:這是因為DiskCache的算法簡單,該算法簡單也導致Cache的效率非常高。它隻是對元素直接追加存儲。因此搜索元素的時候非常的快。如果使用DiskCache的,在很頻繁的應用中,很快磁盤會滿。
  2. 不能保證數據的安全:當突然kill掉java的時候,可能會產生衝突,EhCache的解決方法是如果文件衝突了,則重建cache。這對於Cache數據需要保存的時候可能不利。當然,Cache隻是簡單的加速,而不能保證數據的安全。如果想保證數據的存儲安全,可以使用Bekeley DB Java Edition版本。這是個嵌入式數據庫。可以確保存儲安全和空間的利用率。

ehcache參數配置

https://blog.52itstyle.com/archives/439/

ehcach本地緩存配置

配置實現(ehcache-local.xml)

<?xml version="1.0" encoding="UTF-8"?>
<ehcache updateCheck="false" name="defaultCache">
  <!-- 本地緩存-->
    <diskStore path="java.io.tmpdir" />
    <!--timeToIdleSeconds=y:緩存創建以後,最後一次訪問緩存的日期至失效之時的時間間隔y;timeToLiveSeconds=x:緩存自創建日期起至失效時的間隔時間x;-->
    <defaultCache maxElementsInMemory="1000" eternal="false" timeToIdleSeconds="300" timeToLiveSeconds="600"
        overflowToDisk="true" maxElementsOnDisk="10000000" />

    <!-- 係統緩存 -->
    <cache name="sysCache" maxElementsInMemory="1000" eternal="true" overflowToDisk="true"/>

    <cache name="shiro-activeSessionCache"  
           maxElementsInMemory="1000"  
           overflowToDisk="true"  
           timeToLiveSeconds="0"  
           timeToIdleSeconds="0"  
           diskPersistent="true"  
           diskExpiryThreadIntervalSeconds="600"/>  
</ehcache>

ehcahe分布式集群

EhCache的分布式緩存有傳統的RMI,1.5版的JGroups,1.6版的JMS。分布式緩存主要解決集群環境中不同的服務器間的數據的同步問題。

RMI方式實現分布式緩存(ehcache-rmi.xml)

<?xml version="1.0" encoding="UTF-8"?>
<ehcache updateCheck="false" name="defaultCache">
     <!-- 分布式緩存RMI同步(大規模集群、複雜環境慎用) -->
    <diskStore path="java.io.tmpdir" />

    <cacheManagerPeerProviderFactory 
        properties="peerDiscovery=automatic,multicastGroupAddress=230.0.0.1, multicastGroupPort=4446" />
    <cacheManagerPeerListenerFactory  />

    <!-- 默認緩存配置. -->
    <defaultCache maxEntriesLocalHeap="100" eternal="false" timeToIdleSeconds="300" timeToLiveSeconds="600"
        overflowToDisk="true" maxEntriesLocalDisk="100000" >
        <cacheEventListenerFactory 
            properties="replicatePuts=false,replicateUpdatesViaCopy=false"/>
    </defaultCache>

    <!-- 係統緩存 -->
    <cache name="sysCache" maxEntriesLocalHeap="100" eternal="true" overflowToDisk="true">
        <cacheEventListenerFactory />
    </cache>

    <!-- 係統活動會話緩存 -->
    <cache name="shiro-activeSessionCache" maxEntriesLocalHeap="10000" overflowToDisk="true"
            eternal="true" timeToLiveSeconds="0" timeToIdleSeconds="0"
            diskPersistent="true" diskExpiryThreadIntervalSeconds="600">
        <cacheEventListenerFactory 
            properties="replicateAsynchronously=true, replicatePuts=true, replicateUpdates=true,
                replicateUpdatesViaCopy=false, replicateRemovals=true "/>
    </cache>

</ehcache>

實現原理

這樣當緩存改變時,ehcache會向230.0.0.1端口4446發RMI UDP組播包。

缺陷

EHCACHE的組播做得比較初級,功能隻是基本實現(比如簡單的一個HUB,接兩台單網卡的服務器,互相之間組播同步就沒問題),對一些複雜的環境(比如多台服務器,每台服務器上多地址,尤其是集群,存在一個集群地址帶多個物理機,每台物理機又帶多個虛擬站的子地址),就容易出現問題。

究其原因, 組播/廣播轉發是一個很複雜的過程. 簡單的說, 一個組播缺省隻能在一個網段內傳輸,不能跨網段。

舉個簡單的例子, PC機網卡的自動獲取地址,還有WINDOWS裏的網上鄰居,都屬於典型的廣播服務,所以這些服務都是不能跨網段(跨路由)的,當然也不是完全不行,借助一些工具,比如CISCO路由器上的udp-broadcast helper,或者微軟的netBIOS on Tcp/ip,就可以實現。

我們自己安裝一些軟件時,也經常遇到比如"將網卡的廣播轉發打開"之類的操作。

而在多網卡的主機,或同一網卡多IP的主機上,盡管地址可能是一個網段內的,但其實地址間已經存在跳數了(hop),其實就是從一個地址向另一個地址跳. 這時廣播/組播就容易被阻斷。

比如: 我們自己的WINDOWS上裝一個VMWARE虛擬機,盡管IP地址是一個網段的,但因為虛擬機采用的橋模式不是標準的網橋模式(也可能是需要配置一下,但說實話懶得研究VMWARE了),所以廣播/組播也經常出現不通的情況。

更何況在一些雲計算的環境,集群的分布往往是跨網段的,甚至是跨地域的.這時更難以依賴這種初級的組播同步.
總之,分布式集群架構,建議使用Redis或者Memcache緩存實現。

小站 https://blog.52itstyle.com

最後更新:2017-04-01 16:42:10

  上一篇:go 阿裏雲實現首個雲上量子加密通訊服務
  下一篇:go Dev Oops ? No , DevOps!