<div dir="ltr">Thank you for help.<div>What you said is all correct.</div><div><br></div><div>I think I'm not clear. I want exactly is that: </div><div>2 varnishes share only one cache file(or cache memory). As one request, 2 varnishes share only one cache object.</div>
<div>Something like this: </div><div>varnish1--> cache file <--varnish2</div><div><br></div><div>Could you have any suggestions or experiences?</div><div>Everything will be appreciated.</div><div><br></div><div>Regard</div>
<div><br></div><div>Shawn</div><div><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">2013/2/20 Sascha Ottolski <span dir="ltr"><<a href="mailto:ottolski@web.de" target="_blank">ottolski@web.de</a>></span><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Am Dienstag, 19. Februar 2013, 19:44:53 schrieb Xianzhe Wang:<br>
<div><div class="h5">> Here I take nginx as a load balancer and it contects 2 varnish severs.<br>
> I wanna share the cache object between 2 varnishes.<br>
> When one varnish is down, the left one will work fine, and the cache<br>
> object is still work.<br>
> Is there anything I can do for this?<br>
><br>
> I aslo saw an  example something like this:<br>
> <a href="https://www.varnish-cache.org/trac/wiki/VCLExampleHashIgnoreBusy" target="_blank">https://www.varnish-cache.org/trac/wiki/VCLExampleHashIgnoreBusy</a><br>
> But i think it will increase network delay. So I don't want do it like<br>
> this.<br>
><br>
> Is someone can share their experience? Thanks a lot.<br>
><br>
> Shawn<br>
<br>
</div></div>I would say, you already have your solution. If nginx send the requests<br>
randomly to any of the two servers, each will obviously fill its cache;<br>
so if one goes down, the other is still there. The two caches may not be<br>
completely identically, depending on the size of your cacheable content,<br>
but each should be "warm" enough to serve most requests from its cache.<br>
<br>
And you're not limited to two varnish servers, of course. The more you<br>
put into your loadbalanced cluster, the lower the impact if one fails.<br>
<br>
Cheers<br>
<span class="HOEnZb"><font color="#888888"><br>
Sascha<br>
</font></span></blockquote></div><br></div>