Каковы типичные ограничения производительности развернутого в настоящее время веб-сервера?
Я считаю, что осмысленным ответом будет один из 100, 1000, 10 000, 100 000 или 1 000 000 запросов в секунду, но что верно сегодня? Что было правдой 5 лет назад? Что мы можем ожидать через 5 лет? (т. е. как тенденции в пропускной способности, производительности диска, производительности ЦП и т. д. влияют на ответ)
Если это существенно, следует учитывать тот факт, что HTTP поверх TCP является протоколом доступа. ОС, серверный язык и эффекты файловой системы следует считать лучшими в своем классе.
Предположим, что на диске много небольших уникальных файлов, которые обслуживаются статически. Я намерен устранить влияние кешей памяти, и это время процессора в основном используется для сбора информации о сети/протоколе. Эти предположения предназначены для того, чтобы сместить ответ в сторону оценок «наихудшего случая», когда для запроса требуется определенная пропускная способность, некоторое процессорное время и доступ к диску.
Я только ищу что-то точное на порядок или около того.