server {
listen 8090;
location / {
resolver 192.168.0.1 192.168.0.2;
resolver_timeout 30s;
proxy_pass http://$host$request_uri;
}
access_log /data/httplogs/proxy-$host-access.log
}
就这么简单哈。 测试: http://www.ttlsa.com:8090
resolver指令 语法: resolver address … [valid=time];
默认值: — 配置段: http, server, location
配置DNS服务器IP地址。可以指定多个,以轮询方式请求.
nginx 4 种负载均衡方式
1 轮询 2 weight(权值) 3 ip_hash 4 least_conn (最少连接过的)
1>轮询
http{
upstream sampleapp {
server <<
dns
entry or IP Address(optional with port)>>;
server <<
another
dns entry or IP Address(optional with port)>>;
}
server{
listen 80;
location / {
proxy_pass http://sampleapp;
}
}
2>weight
基于权重的负载均衡即Weighted Load Balancing,这种方式下,我们可以配置Nginx把请求更多地分发到高配置的后端服务器上,把相对较少的请求分发到低配服务器。(注意weight的位置 在server 后面)
http{
upstream sampleapp {
server <<
dns
entry or IP Address(optional with port)>> weight=2;
server <<
another
dns entry or IP Address(optional with port)>>;
}
server{
listen 80;
location / {
proxy_pass http://sampleapp;
}
}
3>
同一客户端连续的Web请求可能会被分发到不同的后端服务器进行处理,因此如果涉及到会话Session,那么会话会比较复杂。常见的是基于数据库的会话持久化。要克服上面的难题,可以使用基于IP地址哈希的负载均衡方案。这样的话,同一客户端连续的Web请求都会被分发到同一服务器进行处理。
http{
upstream sampleapp {
ip_hash;
server <<
dns
entry or IP Address(optional with port)>>;
server <<
another
dns entry or IP Address(optional with port)>>;
}
server{
listen 80;
location / {
proxy_pass http://sampleapp;
}
}
4>
Web请求会被转发到连接数最少的服务器上。
http{
upstream sampleapp {
least_conn;
server <<
dns
entry or IP Address(optional with port)>>;
server <<
another
dns entry or IP Address(optional with port)>>;
}
....
server{
listen 80;
...
location / {
proxy_pass http://sampleapp;
}
}
另外还有
5>fair(第三方)按后端服务器的响应时间来分配请求,响应时间短的优先分配。
6>、url_hash(第三方)按访问url的hash结果来分配请求,使同样的url定向到同一个后端服务器,后端服务器为缓存时比较有效.
等等。