На этой неделе мы начали проект, использующий Ruby on Rails как основное средство разработки. Моей первоочередной задачей являлась настройка окружения на одном из наших development-серверов. Когда я попытался разобраться, как же другие люди запускают и используют RoR, я заметил, что в Internet нет информации о настройке rails-приложений в связке с nginx frontend и нет информации о производительности такого решения. Перед тем, как вслепую выбирать решение для хостинга нового проекта я решил провести небольшое тестирование популярных решений для запуска Rails-приложений. Результаты этих тестов и конфигурационные файлы, использованные при тестировании, вы можете увидеть в этой статье.
В первую очередь, опишу программную и аппаратную составляющие тестового сервера:
* CPU: 4 x XEON CPUs * Memory: 4 Gb of RAM * OS: Debian GNU/Linux Testing с последним ядром 2.6
Далее в статье будут приведены конфигурации, использованные в тестах и результаты, полученные при помощи apache benchmarking tool (ab). В конце статьи я приведу сравнительные итоги тестирования в виде диаргаммы. Все тесты выполнялись при помощи следующей комманды:
$ ab -c 100 -n 10000 http://127.0.0.1:PORT/
где PORT - это специфичный для каждого теста номер порта, на котором слушает веб-сервер.
Первым среди тестов я опишу решение с использованием простого сервера WEBrick (веб-сервер, написанный полностью на ruby и включенный в состав rails framework). Для его запуска я использовал следующую команду:
$ ./script/server --port 8080 -d
Результаты этого теста оказались впечатляющими для меня. Я ожидал, что Webrick должен быть очень медленным, но он показал далеко не нулевые результаты ;-) .
* Web Server: WEBrick/1.3.1 * Время, затраченное на тесты: 51.490 * Средняя продолжительность запроса: 514.896 * Время, затраченное на запрос (среднее по всем параллельным запросам): 5.149 * Количество запросов в секунду (среднее): 194,21 * Transfer rate (Kbytes/sec): 1478,88
Как видите, эти результаты могут быть приемлемыми для маленьких проектов или серверов, предназначенных для разработки, но для больших часто посещаемых сайтов нужно что-то побыстрее. :-)
Следующий тест был проведен для Mongrel:
Mongrel - это быстрая HTTP-библиотека и веб-сервер для Ruby, предназначенные для хостинга веб-приложений на Ruby используя HTTP вместо FastCGI или SCGI. На данный момент он поддерживает фреймворки Ruby On Rails, Og+Nitro и Camping.
Самый простой метод начать использование Mongrel - это установить его с помощью RubyGems и затем запускать с его помощью приложения Ruby on Rails. Вы можете сделать это просто:
Этот набор команд запустит Mongrel в фоне. Вы можете остановить его:
$ mongrel_rails stop
Вот и все, что необзодимо. Есть еще несколько опций, которые могут быть установлены у команды start. Используйте mongrel_rails start -h для просмотра возможных опций и их описания.
Мой тест Mongrel был произведен на одном процессе, запущенном следующим образом:
$ mongrel_rails start -d --port 8081
Результаты оказались следующими:
* Web Server: Mongrel 0.3.13.3 (single process) * Время, затраченное на тесты: 17.212 * Средняя продолжительность запроса: 172.117 * Время, затраченное на запрос (среднее по всем параллельным запросам): 1.721 * Количество запросов в секунду (среднее): 581,00 * Transfer rate (Kbytes/sec): 4398,28
Как видите, Mongrel действительно значительно быстрее по сравнению с сервером WEBrick, но давайте посмотрим, что могут показать нам другие сервера.
Третий тест был выполнен при помощи простого tcp-балансировщика (pen) и 5 рабочих процессов Mongrel. Pen был установлен из репозитория debian, потому инсталляция прошла просто (apt-get install pen). Тест проводился при помощи процесса pen, запущенного следующей командой:
В процессе тестирования я запускал процессы mongrel при помощи самописного скрипта на shell, но позже я наткнулся на mongrel-cluster - GemPlugin, котороый работает с mongrel и сильно упрощает настройку и установку веб-приложений, используя кластер mongrel-серверов. Если вы захотите повторить тесты или воспользоваться их результатами - используйте его для упрощения процесса настройки.
Как и ожидалось, результаты оказались лучше, чем в первом тесте, но, что странно, хуже, чем в тесте с одним процессом mongrel:
* Web Server: Mongrel 0.3.13.3 (5 процессов через балансировщик Pen ) * Время, затраченное на тесты: 19.864 * Средняя продолжительность запроса: 198.642 * Время, затраченное на запрос (среднее по всем параллельным запросам): 1.986 * Количество запросов в секунду (среднее): 503,42 * Transfer rate (Kbytes/sec): 3810,98
Следующие два теста проводились с использованием двух популярных reverse-proxy серверов: Nginx и Lighttpd с теми же пятью процессами Mongrel.
Первым протестированным сервером был Lighttpd, собранный следующими командами:
# ./configure --prefix=/opt/lighttpd # make # make install
Следующий конфигурационный файл был использован для запуска lighttpd:
proxy.server = ( / => ( ( host => 127.0.0.1, port => 3000 ), ( host => 127.0.0.1, port => 3001 ), ( host => 127.0.0.1, port => 3002 ), ( host => 127.0.0.1, port => 3003 ), ( host => 127.0.0.1, port => 3004 ) ) )
Результаты оказались намного лучше, чем у всех предщественников:
* Web Server: Lighttpd 1.4.11 (прокси для 5 процессов Mongrel) * Время, затраченное на тесты: 14.256 * Средняя продолжительность запроса: 142.570 * Время, затраченное на запрос (среднее по всем параллельным запросам): 1.426 * Количество запросов в секунду (среднее): 701,41 * Transfer rate (Kbytes/sec): 5321,53
Из-за странной проблемы авторы mongrel не советуют использовать lighttpd для проксирования, но должен сказать - у меня он заработал нормально.
И последним тестом оказался тест nginx reverse-proxy сервера. Я решил провести этот тест после всех остальных так как не нашел никакой информации о его производительности и хотел показать, как производится его настройка и проверить его производительность с Ruby on Rails когда я уже буду знать все результаты… Итак, я собрал его со стандартными параметрами:
# ./configure --prefix=/opt/nginx # make # make install
http { include conf/mime.types; default_type application/octet-stream;
sendfile on; tcp_nopush on;
keepalive_timeout 65; tcp_nodelay on;
upstream mongrel { server 127.0.0.1:3000; server 127.0.0.1:3001; server 127.0.0.1:3002; server 127.0.0.1:3003; server 127.0.0.1:3004; }
server { listen 8084; server_name localhost;
access_log off;
location / { proxy_pass http://mongrel; } } }
Результаты этого теста оказались поистине впечатляющими и я еще раз хочу сказать спасибо Игорю Сысоеву за отличный продукт!
* Web Server: nginx/0.3.60 (прокси для 5 процессов Mongrel) * Время, затраченное на тесты: 10.449 * Средняя продолжительность запроса: 104.495 * Время, затраченное на запрос (среднее по всем параллельным запросам): 1.045 * Количество запросов в секунду (среднее): 956.99 * Transfer rate (Kbytes/sec): 7267.27
Сравнительные результаты тестирования Вы можете увидеть на следующей дианрамме:
Rails Performance with Different Access Methods
Что же, я сделал свой выбор - я буду использовать nginx для проксирования запросов к кластеру Mongrel-серверов, так как это рещение является очень гибким и обладает прекрасной производительностью. :-)
Если у Вас есть какие-либо предложения по расширению тестирования или замечания к результатам представленных тестов, оставляйте комментарии ниже и я постараюсь ответить на все вопросы. До встречи!