Аннотации:
Рассматривается актуальная на данный момент проблема планирования задач в высоконагруженных информационных системах. Целью данной работы является проверка гипотезы
о том, что загруженность высокопроизводительных информационных систем зависит от
внешних параметров среды, в которой они функционируют. Для проверки была собрана и запущена система, на которой находятся корпоративный сайт компании, система мониторинга и
приложение для социальной сети vk.com. В качестве внешних параметров были выбраны как
природные явления, так и статистические данные посещения популярных сайтов, а также
курсы валют и акций. На наш взгляд, эти параметры в той или иной степени могут оказывать
влияние на загруженность информационной системы. Данные собирались на протяжении месяца работы системы каждые десять минут. При каждом сборе информации для каждого работающего процесса в системе запоминалось количество расходуемой им памяти. Для идентификации модели был выбран метод линейной регрессии как наиболее простой и часто используемый вариант проверки неявных зависимостей между данными. Все собранные пара-
метры были отфильтрованы – проверены на наличие кросскорреляции и нормализованы. Используя построенную модель, мы предсказали значение расходуемой памяти процессами. Для
каждого предсказанного значения было посчитано среднеквадратичное отклонение. Анализ
результатов показал, что построенная модель имеет ряд проблем. В качестве рекомендаций по
улучшению результатов указано использование другого метода построения модели, а также
улучшение качества и количество собираемых данных. Дальнейшие планы включают в себя
исследование возможности предсказания процессорного времени высоконагруженной информационной системы, используя внешние параметры. The article considers the actual problem of planning tasks in highloaded information systems
at the moment. The purpose of this paper is to test the hypothesis that the congestion of highperformance
information systems depends on the external parameters of the environment in which
they operate. For verification, the system on which the corporate website of the company, the monitoring
system and the application for the social network vk.com were collected and launched. As
external parameters were chosen as natural phenomena, as well as statistical data of visiting popular
sites, as well as exchange rates and shares. In our opinion, these parameters may to some extent
influence the workload of the information system. The data was collected during the month of
the system operation every ten minutes. At each collection of information for each running process
in the system, the amount of memory it consumes is remembered. To identify the model,
the linear regression method was chosen, as the most simple and often used option for verifying
implicit dependencies between data. All the collected parameters were filtered out – checked for
cross-matching and normalized. Using the constructed model, we predicted the value of memory
consumed by processes. For each predicted value, the root-mean-square deviation was calculated.
Analysis of the results showed that the model constructed has a number of problems. As recommendations
for improving the results, the use of another method to build a model is indicated,
as well as improvement of the quality and quantity of data collected. Further plans include exploring
the possibility of predicting the CPU time of a highload information system using external parameters.
Описание:
Тузов Артем Викторович, аспирант, Челябинский государственный университет, г. Челябинск; amirel92@mail.ru. A.V. Tuzov, amirel92@mail.ru
Chelyabinsk State University, Chelyabinsk, Russian Federation