The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Введение в nginx (nginx web)


<< Предыдущая ИНДЕКС Исправить src / Печать Следующая >>
Ключевые слова: nginx, web,  (найти похожие документы)
From: Владимир Русинов <vladimir@greenmice.info.> Date: Mon, 3 Aug 2010 17:02:14 +0000 (UTC) Subject: Введение в nginx Оригинал: http://greenmice.info/ru/node/115 http://greenmice.info/ru/node/116 Данная статья была опубликована в электронном приложением к журналу "Системный администратор"- "Open Source #041 (27.03.2009)" Введение nginx (engine x) - это HTTP-сервер и IMAP/POP3 прокси-сервер для UNIX-подобных платформ (FreeBSD и GNU/Linux). Nginx начал разрабатываться Игорем Сысоевым, сотрудником компании [14]Рамблер весной 2002 года, а осенью 2004 года появился первый публично доступный релиз. Он, как и все последующие, распространяется под лицензией BSD. На данный момент nginx работает на большом количестве высоконагруженных сайтов (среди них -- Рамблер, Яндекс, В Контакте, wordpress.com, Wrike и другие). Текущая версия, 0.6.x, рассматривается как стабильная с точки зрения надежности, а релизы из ветки 0.7 считаются нестабильными. При этом важно заметить, что функциональность некоторых модулей будет меняться, вследствие чего могут меняться и директивы, поэтому обратной совместимости в nginx до версии 1.0.0 не гарантируется. Чем же nginx так хорош и почему его так любят администраторы высоконагруженных проектов? Почему бы просто не использовать Apache? Почему Apache - плохо? Для начала нужно объяснить, как вообще работают сетевые серверы. Те, кто знаком с сетевым программированием, знают, что по сути существуют три модели работы сервера: 1. Последовательная. Сервер открывает слушающий сокет и ждет, когда появится соединение (во время ожидания он находится в заблокированном состоянии). Когда приходит соединение, сервер обрабатывает его в том же контексте, закрывает соединение и снова ждет соединения. Очевидно, это далеко не самый лучший способ, особенно когда работа с клиентом ведется достаточно долго и подключений много. Кроме того, у последовательной модели есть еще много недостатков (например, невозможность использования нескольких процессоров), и в реальных условиях она практически не используется. 2. Многопроцессная (многопоточная). Сервер открывает слушающий сокет. Когда приходит соединение, он принимает его, после чего создает (или берет из пула заранее созданных) новый процесс или поток, который может сколь угодно долго работать с соединением, а по окончании работы завершиться или вернуться в пул. Главный поток тем временем готов принять новое соединение. Это наиболее популярная модель, потому что она относительно просто реализуется, позволяет выполнять сложные и долгие вычисления для каждого клиента и использовать все доступные процессоры. Пример ее использования -- Web-сервер Apache. Однако у этого подхода есть и недостатки: при большом количестве одновременных подключений создается очень много потоков (или, что еще хуже, процессов), и операционная система тратит много ресурсов на переключения контекста. Особенно плохо, когда клиенты очень медленно принимают контент. Получаются сотни потоков или процессов, занятых только отправкой данных медленным клиентам, что создает дополнительную нагрузку на планировщик ОС, увеличивает число прерываний и потребляет достаточно много памяти. 3. Неблокируемые сокеты/конечный автомат. Сервер работает в рамках одного потока, но использует неблокируемые сокеты и механизм поллинга. Т.е. сервер на каждой итерации бесконечного цикла выбирает из всех сокетов тот, что готов для приема/отправки данных с помощью вызова select(). После того, как сокет выбран, сервер отправляет на него данные или читает их, но не ждет подтверждения, а переходит в начальное состояние и ждет события на другом сокете или же обрабатывает следующий, в котором событие произошло во время обработки предыдущего. Данная модель очень эффективно использует процессор и память, но достаточно сложна в реализации. Кроме того, в рамках этой модели обработка события на сокете должна происходить очень быстро -- иначе в очереди будет скапливаться много событий, и в конце концов она переполнится. Именно по такой модели работает nginx. Кроме того, он позволяет запускать несколько рабочих процессов (так называемых workers), т.е. может использовать несколько процессоров. Итак, представим следующую ситуацию: на HTTP-сервер с каналом в 1 Гбит/с подключается 200 клиентов с каналом по 256 Кбит/с: Что происходит в случае Apache? Создается 200 потоков/процессов, которые относительно быстро генерируют контент (это могут быть как динамические страницы, так и статические файлы, читаемые с диска), но медленно отдают его клиентам. Операционная система вынуждена справляться с кучей потоков и блокировок ввода/вывода. Nginx в такой ситуации затрачивает на каждый коннект на порядок меньше ресурсов ОС и памяти. Однако тут выявляется ограничение сетевой модели nginx: он не может генерировать динамический контент внутри себя, т.к. это приведет к блокировкам внутри nginx. Естественно, решение есть: nginx умеет проксировать такие запросы (на генерирование контента) на любой другой веб-сервер (например, все тот же Apache) или на FastCGI-сервер. Рассмотрим механизм работы связки nginx в качестве "главного" сервера и Apache в качестве сервера для генерации динамического контента: Nginx принимает соединение от клиента и читает от него весь запрос. Тут следует отметить, что пока nginx не прочитал весь запрос, он не отдает его на "обработку". Из-за этого обычно "ломаются" практически все индикаторы прогресса закачки файлов -- впрочем, существует возможность починить их с помощью стороннего модуля upload_progress (это потребует модификации приложения). После того, как nginx прочитал весь ответ, он открывает соединение к Apache. Последний выполняет свою работу (генерирует динамический контент), после чего отдает свой ответ nginx, который его буферизует в памяти или временном файле. Тем временем, Apache освобождает ресурсы. Далее nginx медленно отдает контент клиенту, тратя при этом на порядки меньше ресурсов, чем Apache. Такая схема называется фронтэнд + бэкенд (frontend + backend) и применяется очень часто. Установка Т.к. nginx только начинает завоевывать популярность, имеются некоторые проблемы с бинарными пакетами, так что будьте готовы к тому, что его придется компилировать самостоятельно. С этим обычно не возникает проблем, надо лишь внимательно прочитать вывод команды ./configure --help и выбрать необходимые вам опции компиляции, например такие: ./configure \ --prefix=/opt/nginx-0.6.x \ # префикс установки --conf-path=/etc/nginx/nginx.conf \ # расположение конфигурационного файла --pid-path=/var/run/nginx.pid \ # ... и pid-файла --user=nginx \ # имя пользователя под которым будет запускаться nginx --with-http_ssl_module --with-http_gzip_static_module --with-http_stub_status_module \ # список нужных --without-http_ssi_module --without-http_userid_module --without-http_autoindex_module \ --without-http_geo_module --without-http_referer_module --without-http_memcached_module \ --without-http_limit_zone_module # ... и не нужных модулей После конфигурирования стоит запустить стандартный make && make install, после чего можно пользоваться nginx. Кроме того в Gentoo вы можете воспользоваться ebuild'ом из стандартного дерева портов; в RHEL/CentOS репозиторием epel (в нем расположени nginx 0.6.x) или srpm для версии 0.7, который можно скачать отсюда: http://blogs.mail.ru/community/nginx ; в Debian можно воспользоваться пакетом nginx из ветки unstable. Конфигурационный файл Конфигурационный файл nginx очень удобен и интуитивно понятен. Называется он обычно nginx.conf и распологается в $prefix/conf/ если расположение не было переопределено при компиляции. Я люблю класть его в /etc/nginx/, также делают и разработчики всех пакетов упомянутых выше. Структура конфигурационного файла такова: user nginx; # имя пользователя, с правами которого будет запускаться nginx worker_processes 1; # количество рабочих процессов events { <...> # в этом блоке указывается механизм поллинга который будет использоваться # (см. ниже) и максимальное количество возможных подключений } http { <глобальные директивы http-сервера, например настройки таймаутов и т.п.>; <почти все из них можно переопределить для отдельного виртуального хоста или локейшена>; # описание серверов (это то что в apache называется VirtualHost) server { # адрес и имя сервера listen *:80; server_name aaa.bbb; <Директивы сервера. Здесь обычно указывают расположение докуменов (root), редиректы и переопределяют глобальные настройки>; # а вот так можно определить location, для которого можно также переопределить # практически все директивы указаные на более глобальных уровнях location /abcd/ { <директивы>; } # Кроме того, можно сделать location по регулярному выражению, например так: location ~ \.php$ { <директивы>; } } # другой сервер server { listen *:80; server_name ccc.bbb; <директивы> } } Обратите внимание на то, что каждая директива должна оканчиваться точкой с запятой. Обратное проксирование и FastCGI Итак, выше мы рассмотрели преимущества схемы frontend + backend, разобрались с установкой, структурой и синтаксисом конфигурационного файла, рассмотрим тепеть как реализовать обратное проксирование в nginx. А очень просто! Например так: location / { proxy_pass http://1.2.3.4:8080; } В этом примере все запросы попадающие в location / будут проксироваться на сервер 1.2.3.4 порт 8080. Это может быть как apache, так и любой другой http-сервер. Однако тут есть несколько тонкостей, связанных с тем, что приложение будет считать, что, во-первых, все запросы приходят к нему с одного IP-адреса (что может быть расценено, например, как попытка DDoS-атаки или подбора пароля), а во-вторых, считать, что оно запущено на хосте 1.2.3.4 и порту 8080 (соответственно, генерировать неправильные редиректы и абсолютные ссылки). Чтобы избежать этих проблем без необходимости переписывания приложения, мне кажется удобной следующая конфигурация: Nginx слушает внешний интерфейс на порту 80. Если бэкенд (допустим, Apache) расположен на том же хосте, что и nginx, то он "слушает" порт 80 на 127.0.0.1 или другом внутреннем IP-адресе. Конфигурация nginx в таком случае выглядит следующим образом: server { listen 4.3.2.1:80; # устанавливаем заголовок Host и X-Real-IP: к каждому запросу отправляемому на backend proxy_set_header X-Real-IP $remote_addr; proxy_set_header Host $host:$proxy_port; # или "proxy_set_header Host $host;", если приложение будет дописывать :80 ковсем ссылкам } Для того, чтобы приложение различало IP-адреса посетителей, нужно либо поставить модуль mod_extract_forwarded (если оно исполняется сервером Apache), либо модифицировать приложение так, чтобы оно брало информацию о IP-адресе пользователя из HTTP-заголовка X-Real-IP. Другой вариант бэкенд - это использование FastCGI. В этом случае конфигурация nginx будет выглядеть примерно так: server { <...> # location, в который будут попадать запросы на php-скрипты location ~ .php$ { fastcgi_pass 127.0.0.1:8888; # определяем адрес и порт fastcgi-сервера, fastcgi_index index.php; # ...индексный файл # и некоторые параметры, которые нужно передать серверу fastcgi, чтобы он # понял какой скрипт и с какими параметрами выполнять: fastcgi_param SCRIPT_FILENAME /usr/www/html$fastcgi_script_name; # имя скрипта fastcgi_param QUERY_STRING $query_string; # строка запроса # и параметры запроса: fastcgi_param REQUEST_METHOD $request_method; fastcgi_param CONTENT_TYPE $content_type; fastcgi_param CONTENT_LENGTH $content_length; } # благодяря тому что локейшены с регулярными выражениями обладают # большим "приоритетом", сюда будут попадать все не-php запросы. location / { root /var/www/html/ } Статика Для того, чтобы меньше нагружать бэкенд, статические файлы лучше отдавать только через nginx -- он, с этой задачей справляется лучше, т.к. на каждый запрос он тратит существенно меньше ресурсов (не надо порождать новый процесс, да процесс nginx'а как правило потребляет меньше памяти, а обслуживать может множество соединений). В конфигурационном файле это выглядит примерно так: server { listen *:80; server_name myserver.com; location / { proxy_pass http://127.0.0.1:80; } # предположим что все статичные файлы лежат в /files location /files/ { root /var/www/html/; # указываем путь на фс expires 14d; # добавляем заголовок Expires: error_page 404 = @back; # а если файл не найден, отправляем его в именованный локейшн @back } # запросы из /files, для которых не было найдено файла отправляем на backend, # а он может либо сгенерировать нужный файл, либо показать красивое сообщение об ошибке location @back { proxy_pass http://127.0.0.1:80; } Если вся статика не помещена в какой-то определенный каталог, то воспользоваться регулярным выражением: location ~* ^.+\.(jpg|jpeg|gif|png|ico|css|zip|tgz|gz|rar|bz2|doc|xls|exe|pdf|ppt|txt|tar|wav|bmp|rtf|js)$ { # аналогично тому что выше, только в этот location будут попадать все запросы # оканчивающиеся на одно из указаных суффиксов root /var/www/html/; error_page 404 = @back; } К сожалению, в nginx не реализована асинхронная работа с файлами. Иными словами, nginx worker блокируется на операциях ввода-вывода. Так что если у вас очень много статических файлов и, в особенности, если они читаются с разных дисков, лучше увеличивать количество рабочих процессов (до числа, которое в 2-3 раза больше, чем суммарное число головок на диске). Это, конечно, ведет к увеличению нагрузки на ОС, но в целом производительность увеличивается. Для работы с типичным количеством статики (не очень большое количество сравнительно небольших файлов: CSS, JavaScript, изображения) вполне хватает одного-двух рабочих процессов. Failover и балансировка Крупные проекты редко состоят из одного сервера приложений. Часто их два или больше, и возникает задача балансировки клиентов по этим серверам, а также выполнения failover -- необходимо чтобы выход из строя одного из серверов не был заметен для клиентов. Простейший способ рещить эту задачу -- dns round-robin, т.е. назначение доменному имени нескольких ip-адресов. Но это решение имеет ряд недостатков, и гораздо лучше выглядит решение балансировки запросов по бакендам на фронтенде nginx. В конфигурационном файле выглядит это примерно так: # объявляем upstream -- список бакендов upstream backend { # перечисляем dns-имена или ip-адреса серверов и их "вес" server web1 weight=5; server 1.2.3.4:8080 weight=5; # а так можно подключаться к бакенду через unix-сокет server unix:/tmp/backend3 weight=1; } # конфигурация виртуального сервера server { listen <...>; server_name myserver.com; # отправляем все запросы из локейшена / в апстрим location / { proxy_pass http://backend; } } Запросы, приходящие к nginx, распределяются по бакендам соответственно указаному весу. Кроме того, можно сделать так, чтобы запросы с одних и тех же IP-адресов отправлялись на одни и те же серверы (для этого в upstream нужно указать директиву ip_hash). Так можно решить проблему с сессиями, но все же лучше найти какой-нибудь способ их репликации или (что еще лучше) использовать. В случае, если один из серверов откажется принимать соединения или соединение к нему отвалится по таймауту, он на некоторое время будет исключен из upstream. Оптимизация nginx 1. Увеличение количества и объема буферов Для хранения принятых запросов и еще не отданных ответов nginx использует буферы в памяти, а если запрос или ответ не помещается в них, nginx записывает его во временный файл (и пишет при этом предупреждение в log-файл). Поэтому необходимо установить такие размеры, чтобы в большинстве случаев не требовалось обращаться к временному файлу, а с другой стороны -- чтобы буферы не использовали слишком много памяти. Для этого используются следующие параметры: client_body_buffer_size (по умолчанию: 8k/16k -- в зависимости от архитектуры) -- задает размер буфера для чтения тела запроса клиента. Обычно стандартного значения хватает, его требуется повышать, только если ваше приложение устанавливает огромные cookies. proxy_buffer_size (по умолчанию: 4k/8k) -- задает размер буфера, в который будет читаться первая часть ответа, получаемого от проксируемого сервера. В этой части ответа находится, как правило, небольшой заголовок ответа. Стандартного значения обычно хватает. proxy_buffers (по умолчанию: 8 4k/8k) -- задает число и размер буферов для одного соединения, в которые будет читаться ответ, получаемый от проксируемого сервера. Установите этот параметр так, чтобы большинство ответов от бэкенда помещалось в буферы. 2. Механизмы обработки соединений Есть одна тонкость, касающаяся механизма обработки соединений, а именно -- способ получения информации о событиях на сокетах. Существуют следующие методы: * select -- стандартный метод. На большой нагрузке сильно нагружает процессор. * poll -- стандартный метод. Также сильно нагружает процессор. * kqueue -- эффективный метод, используемый в операционных системах FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 и Mac OS X. На 2-процессорных машинах под управлением Mac OS X использование kqueue может привести к kernel panic. * epoll -- эффективный метод, используемый в Linux 2.6+. В некоторых старых дистрибутивах есть патчи для поддержки epoll ядром 2.4. * rtsig -- real time signals, эффективный метод, используемый в Linux 2.2.19+. При больших количествах одновременных соединений (более 1024) с ним могут быть проблемы (их можно обойти, но на мой взгляд, лучше с этим не связываться). * /dev/poll -- эффективный метод, используемый в Solaris 7 11/99+, HP/UX 11.22+ (eventport), IRIX 6.5.15+ и Tru64 UNIX 5.1A+. При компиляции nginx автоматически выбирается максимально эффективный найденый метод, однако скрипту configure можно насильно указать какой метод использовать. Если вы решили сделать это, то лучше использовать такие методы: Linux 2.6: epoll; FreeBSD: kqueue; Solaris, HP/UX и другие: /dev/poll; Linux 2.4 и 2.2: rtsig, не рекомендуется при больших нагрузках. Включение gzip позволяет сжимать ответ, отправляемый клиенту, что положительно сказывается на удовлетворенности пользователя, но требует больше времени CPU. Gzip включается директивой gzip (on|off). Кроме того, стоит обратить на следующие важные директивы модуля gzip: gzip_comp_level 1..9 -- устанавливает уровень сжатия. Опытным путем выявлено, что оптимальные значения лежат в промежутке от 3 до 5, большие значения дают маленький выигрыш, но создают существенно большую нагрузку на процессор, меньшие -- дают слишком маленький коэффициент сжатия. gzip_min_length (по умолчанию, 0) -- минимальный размер ответа, который будет сжиматься. Имеет смысл поставить этот параметр в 1024, чтобы слишком малеьнике файлы не сжимались (т.к. эффективность этого будет мала). gzip_types mime-тип [mime-тип ...] - разрешает сжатие ответа методом gzip для указанных MIME-типов в дополнение к "text/html". "text/html" сжимается всегда. Имеет смысл добавить такие mime-типы как text/css, text/javascript и подобные. Разумеется, сжимать gif, jpg и прочие уже компрессированые форматы не имеет смысла. Кроме того, существует модуль gzip_static, который позволяет раздавать уже сжатые статические файлы. В конфирурационном файле это выглядит так: location /files/ { gzip on; gzip_min_length 1024; gzip_types text/css text/javascript; gzip_comp_level 5; gzip_static on; } При использовании такой конфигурации в случае запроса "/files/test.html" nginx будет проверять наличие "/files/test.html.gz", и, если этот файл существует и дата его последнего изменения больше, чем дата последнего изменения файла test.html, будет отдан уже сжатый файл, что сохранит ресурсы процессора, которые потребовались бы для сжатия оригинального файла. Оптимизация приложений Существует очень полезный трюк, который позволяет указать разработчикам приложений, какие страницы нужно оптимизировать в первую очередь. Для этого потребуется в конфиге nginx указать новый формат лога: log_format my_combined '$remote_addr - $remote_user [$time_local] ' '"$request" $status $body_bytes_sent ' '"$http_referer" "$http_user_agent" ' '$upstream_response_time "$host"' access_log /var/log/nginx/access_log my_combined; Переменная $upstream_response_time содержит время ответа бэкенда, поэтому в лог попадает время обработки каждого запроса бэкендом. Далее понадобятся два скрипта: 1. /usr/local/bin/url_stats_report.sh: #!/bin/sh echo "=== Requests which took most of the time ===" > /tmp/report.txt echo "overall time - number of requests - average time - url" " /tmp/report.txt cat /var/log/nginx/*access.log | /usr/local/bin/url_stats.py " /tmp/report.txt cat /tmp/report.txt | mail -s "url performance report" root 2. /usr/local/bin/url_stats.py: #!/usr/bin/env python import sys urls = {} try: while 1: line = raw_input() line_arr = line.split(" ") try: host = line_arr[-1] host = host[1:] host = host[:-1] url = line_arr[6] t = float(line_arr[-2]) #print host, url, t try: urls[host + url] = (urls[host + url][0] + t, urls[host + url][1] + 1) except KeyError, e: urls[host + url] = (t, 1) except ValueError, e: pass except EOFError, e: pass def sort_by_value(d): """ Returns the keys of dictionary d sorted by their values """ items=d.items() backitems=[ [v[1],v[0]] for v in items] backitems.sort(reverse=True) return [backitems[i][1] for i in range(0,len(backitems))] if (len(sys.argv) > 1): f = open(sys.argv[1], 'r') for k in f.readlines(): k = k.strip() try: print urls[k][0], urls[k][1], urls[k][0] / urls[k][1], k except: print 0, 0, k else: i = 0 for k in sort_by_value(urls): print urls[k][0], urls[k][1], urls[k][0] / urls[k][1], k i += 1 if i > 100: break Они не идеальны, но задачу выполняют: запуская /usr/local/bin/url_stats_report.sh (например, в postrotate утилиты logrotate), вы получаете наглядную картину, какие запросы занимают большую часть времени бэкенда. Кеширование Незадолго до выхода этой статьи, Игорь Сысоев выпустил версию nginx 0.7.44 с экспериментальной поддержкой кеширования. Из-за большого количества багов, за которкое время было выпущено несколько версий, и в настоящее время последняя версия -- 0.7.50 уже достаточно хорошо (хотя и не идеально) работает с кешированием. Однако это все еще экспериментальная функция, но я решил рассказать о ней, т.к. ее одень давно ждали многое администраторы, да и лично для меня она очень полезна. Сейчас nginx умеет кешировать на диске ответы от http и fastcgi запросов на бакенды, указывать ключ для кеширования, учитывать заголовки "X-Accel-Expires", "Expires" и "Cache-Control" и вручную устанавливать максимальне время жизни объекта в кеше. Обслуживанием кеша (очиста старых файлов, наблюдение за размером и т.п.) занимается специальный процесс cache manager. Положительной особенностью реализации является то, что при старте nginx cache manager начинает проверку кеша в фоне, благодаря чему nginx не делает то что называется "дает сквида", т.е. он не висит несколько минут проверяя кеш перед стартом. Я намеренно не указываю пример конфигурации, т.к. во-первых директивы могут еще поменяться, а во-вторых нужно глубокое понимание механизма кеширования, что требует вдумчивого чтения документации (http://sysoev.ru/nginx/docs/http/ngx_http_proxy_module.html#proxy_cach e) и архивов рассылки nginx-ru. За кадром В статье освещена лишь та часть возможностей nginx, которыми я пользуюсь чаще всего. За пределами рассказа остались такие вопросы, как поддержка SSI, работа с memcached, экспериментальный встроенный Perl и сторонние модули, реализующие дополнительную функциональность.

<< Предыдущая ИНДЕКС Исправить src / Печать Следующая >>

Обсуждение [ RSS ]
  • 1.1, Митра (?), 15:05, 20/10/2010 [ответить]  
  • +/
    "Так можно решить проблему с сессиями, но все же лучше найти какой-нибудь способ их репликации или
    (что еще лучше) использовать."

    Не понял концовку предложения.

     
     
  • 2.6, Kirill (??), 23:43, 27/03/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Так можно решить проблему с сессиями, но все же лучше найти какой-нибудь способ их репликации или (что еще лучше) использовать RESTful-подход. (http://blog-ru.greenmice.info/2009/05/nginx-2.html)
     

  • 1.2, Sergey (??), 04:18, 05/01/2013 [ответить]  
  • +/
    бЕКХЙНКЕОМН! нЦПНЛМНЕ ЯОЮЯХАН ГЮ ЯРЮРЭЧ. фДС ОПНДНКФЕМХЪ ОН НОХЯЮМХЧ МНБНЦН ТСМЙЖХНМЮКЮ РЕЙСЫЕИ БЕПЯХХ nginx.
     
  • 1.3, Sergey (??), 04:19, 05/01/2013 [ответить]  
  • +/
    Что-то с кодировкой на сервере :-/

    Статья великолепна! Жду продолжения с описанием нового функционала текущей версии nginx.

     
  • 1.4, Dimiurg (??), 15:47, 19/04/2013 [ответить]  
  • +/
    Поддерживаю, очень хочеться продолжения, после прочтения руки зачесались начать юзать nginx
     
  • 1.5, alex (??), 16:28, 19/01/2014 [ответить]  
  • +/
    Спасибо, многое знал, но и много нового узнал, статья супер!
     
  • 1.7, Аноним (7), 22:27, 26/04/2024 [ответить]  
  • +/
    nano /etc/nginx/sites-available/default

    upstream balancer {
        server balancer1.lapshin339.exam:80 fail_timeout=25;
        server balancer2.lapshin339.exam:80 fail_timeout=25;
    }

    server {
            listen 80;
            server_name handler.lapshin339.exam;
            index index.html;
            
            location / {
                    root /var/www/html;
                    proxy_pass http://balancer;
                    proxy_set_header Host $host;
                    proxy_set_header X-Real-IP $remote_addr;
                    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            }
    }

     

     Добавить комментарий
    Имя:
    E-Mail:
    Заголовок:
    Текст:




    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру