3. Установка Компонента

Примечание

Установка витрины данных производится без необходимости доступа к сети Интернет.

3.1. Установка Компонента «Витрина данных» конфигурации Стандарт

3.1.1. Порядок установки

  1. Проверить соответствие серверов техническим характеристикам (см. раздел Рекомендуемые технические и программные средства).

  2. Выполнить предварительные действия перед установкой Компонента (см. раздел Предварительные действия).

  3. Установить на серверы, в соответствующем порядке, следующее программное обеспечение:

  • Prostore (dtm-query-execution-core);

  • СМЭВ QL Сервер;

  • СМЭВ3-адаптер;

  • BLOB-адаптер;

  • Сервис формирования документов;

  • Стандартный загрузчик;

  • ETL;

  • CSV-Uploader;

  • DATA-Uploader;

  • REST-Uploader;

  • Сервис генерации уникального номера (Counter-Provider);

  • Агент проверок.

  1. Проверить работу всех модулей Компонента (см. раздел Проверка Компонента).

Версии модулей Компонента приведены в Состав модулей в дистрибутиве документа «Техническое описание Компонента «Витрина данных»».

Описание настроек модулей приведено в документе «Руководство администратора Компонента «Витрина данных».

3.1.2. Установка Prostore (dtm-query-execution-core)

Установка Prostore должна осуществляться после установки СУБД.

Prostore поставляется в виде дистрибутива с модулями в jar-файлах (dtm-query-execution-core).

Процесс установки состоит из следующих действий приведен в разделе Сборка и развертывание документации Prostore.

Примечание

Перед установкой Prostore необходимо сверить версию модуля, включенного в дистрибутив, (см. раздел Состав модулей в дистрибутиве в документе «Техническое описание Компонента «Витрина данных»») и открыть соответствующую версию документации Prostore для установки соответствующего окружения.

JDBC-driver (dtm-jdbc-driver) поставляется совместно с Prostore в релизе Компонента «Витрина данных.

Для переноса системных данных (сервисной БД) из ZooKeeper в Postgres-совместимые СУБД при обновлении кластера Prostore используется команда ZK2PG утилиты DTM Tools.

3.1.3. Установка СМЭВ QL Сервера

3.1.3.1. Процесс установки

Действия по установке выполняются через SSH консоль технологического пользователя.

Общий процесс установки состоит из следующих действий:

  1. Выполнить предусловия для запуска новой версии модуля.

  2. Настроить конфигурацию модуля.

  3. Создать на сервере директорию для загрузки файлов модуля.

  4. Загрузить файлы модуля в созданную директорию.

  5. Запустить модуль (Описание процесса запуска приведено в разделе Быстрый старт Руководства администратора Компонента «Витрина данных»).

  6. Проверить работу модуля.

3.1.3.1.1. Предусловия выполнения первого запуска новой версии SMEVQL

Начиная с версии 2.6.0 хранение данных персистентности модуля осуществляется в снапшот-таблицах Prostore. Пересоздание таблиц и миграция данных выполняется автоматически при старте модуля.

  1. Проверить версию Prostore (для работы новой версии SMEVQL (с хранением данных персистентности в Prostore) требуется Prostore версии 7.6 и выше).

  2. Проверить тип подключенных датасорсов Prostore (в Prostore данные персистентности хранятся в snapshot-таблицах, которые поддерживаются только типом ADP):

  • если все имеющиеся датасорсы с типом ADP, перейти к следующему шагу;

  • если нет ни одного ADP-датасорса, то необходимо развернуть СУБД PostgreSQL и настроить подключение к Prostore (при отсутствии ADP использование новой версии SMEVQL невозможно);

  • если имеются и ADP, и датасорсы других типов, необходимо в конфигурационном файле SMEVQL задать перечень наименований ADP-датасорсов, используемых для обеспечения персистентности;

  1. Для обновления выбрать период минимальной прикладной активности (асинхронные ответы при обновлении витрины не сохраняются).

  2. Остановить изменения в витрине - отключить доступ клиентов к загрузчикам /выключить загрузчики данных, чтобы остановить формирование новых пуш-уведомлений.

  3. Проверить состав очередей пуш-уведомлений в таблице smevqlqueue.reestr_queue:

  • по имеющимся записям проверить отсутствие записей в таблицах queue_$agent_target_$resource;

  • дождаться пока очереди будут пустые (очереди пуш-уведомлений при обновлении не сохраняются).

  1. Остановить SMEVQL.

  2. (опционально) в конфигурации новой версии SMEVQL задать настройки подключения к Postgres для выполнения миграции данных таблицы push_consumers.

  3. Запустить новую версию SMEVQL в одном экземпляре. В случае запуска в нескольких экземпляров возможны ошибки при выполнении миграции.

После успешного выполнения миграции (модуль запущен, в логах отсутствуют ошибки миграции) выполнить запуск других экземпляров при необходимости.

В случае наличия в логах ошибок миграции, необходимо устранить возможные причины и повторить запуск одного экземпляра SMEVQL новой версии.

3.1.3.1.2. Настройка конфигурации

Настройка конфигурации выполняется путем редактирования параметров файлов:

  • application.yaml - конфигурирует поведение сервера;

  • credentials.yaml - конфигурирует представление сервера.

Пример файлов конфигурации и возможные настройки модуля приведены в разделе Конфигурирование сервера Руководства администратора.

3.1.3.1.3. Загрузка JAR-файла на сервер

Для загрузки файла на сервер выполните команду:

scp file.jar user_name@IP:/home/dir

где,

  • file.jar - название JAR-файла;

  • user_name - имя пользователя, например, sudo или root;

  • IP - адрес сервера;

  • /home/dir - директория на сервере, в которую будет загружен файл.

3.1.4. Установка СМЭВ3-адаптера

3.1.4.1. Установка модуля

Действия по установке выполняются через SSH консоль технологического пользователя.

3.1.4.1.1. Установка КриптоПро

Установка СМЭВ3-адаптера возможна, только если были добавлены ключи (контейнер закрытого ключа) для сервиса «КриптоПро».

В случае использования для электронной подписи сервиса «КриптоПро», необходимо предварительно выполнить шаги:

  • скачать «КриптоПро JCP» (https://www.cryptopro.ru/download?pid=129) для Java JRE на сервер, где будет установлен СМЭВ3–адаптер;

  • установить загруженное ПО, следуя инструкции и документации на официальном сайте;

  • получить сертификат для установки от уполномоченных лиц и установить его в «КриптоПро».

3.1.4.2. Процесс установки

Модуль СМЭВ3-адаптер поставляется в виде JAR-файла. В поставку также входят следующие файлы:

  • файл настроек конфигурации модуля СМЭВ3-адаптер application.yml;

  • сконфигурированные pebble-шаблоны.

Общий процесс установки состоит из следующих действий:

  1. Выполнить предусловия для запуска новой версии модуля.

  2. Настроить конфигурацию модуля.

  3. Создать на сервере директорию для загрузки файлов модуля.

  4. Загрузить файлы модуля в созданную директорию.

  5. Запустить JAR-файл модуля (Описание процесса запуска приведено в разделе Запуск модуля Руководства администратора Компонента «Витрина данных»).

  6. Проверить установку модуля.

3.1.4.2.1. Предусловия выполнения первого запуска новой версии модуля

Начиная с версии 2.6.0 хранение данных персистентности модуля осуществляется в снапшот-таблицах Prostore. Пересоздание таблиц и миграция данных выполняется автоматически при старте модуля.

Для исключения возникновения ошибок миграции, перед первым запуском новой версии компонентов модуля необходимо выполнить следующие действия:

  1. Проверить версию Prostore (Для работы новой версии СМЭВ3-адаптера (с хранением данных персистентности в Prostore) требуется Prostore версии 7.6 и выше).

  2. Проверить тип подключенных датасорсов Prostore (В Prostore данные персистентности хранятся в snapshot-таблицах, которые поддерживаются только в датасорсах с типом ADP):

  • если все имеющиеся датасорсы с типом ADP, перейти к следующему шагу;

  • если нет ни одного ADP-датасорса, то необходимо развернуть СУБД PostgreSQL и настроить подключение к Prostore (при отсутствии ADP использование новой версии СМЭВ3-адаптера с персистентностью в Prostore невозможно);

  • если имеются и ADP, и датасорсы других типов, необходимо в конфигурационном файле СМЭВ3-адаптера задать перечень наименований ADP датасорсов, используемых для обеспечения персистентности;

  1. Опционально - включить выполнение миграции из Zookeeper (В конфигурационном файле нового СМЭВ3-адаптера задать настройки подключения к Zookeeper и установить флаг MIGRATION_ZK_ENABLE:false).

  2. Для обновления выбрать период минимальной прикладной активности.

  3. Остановить выгрузку изменений по расписанию.

  4. Остановить СМЭВ3-адаптер.

  5. Запустить новую версию СМЭВ3-адаптера в одном экземпляре (в случае запуска нескольких экземпляров возможны ошибки при выполнении миграции).

После успешного выполнения миграции (модуль запущен, в логах отсутствуют ошибки миграции) необходимо в конфигурации модуля отключить выполнение миграции из Zookeeper (если была включена) и выполнить запуск других экземпляров при необходимости.

В случае наличия в логах ошибок миграции, необходимо устранить возможные причины и повторить запуск одного экземпляра СМЭВ3-адаптера версии 2.6.0 и выше.

3.1.4.2.2. Настройка конфигурации

Настройка конфигурации выполняется путем редактирования параметров файла конфигурации application.yml.

Пример файла application.yml и возможные настройки конфигурации модуля приведены в разделе Конфигурация СМЭВ3-адаптер (application.yml) Руководства администратора Компонента «Витрина данных».

3.1.4.2.3. Добавление папки для загрузки файлов модуля

Создайте на сервере папку, в которую будут загружены файлы модуля, например, /opt/smev3-adapter.

В случае если ранее была установлена старая версия СМЭВ3-адаптера, сделайте его резервную копию.

3.1.4.2.4. Загрузка файлов на сервер

Загрузите в созданную на предыдущем шаге папку:

  • JAR-файл модуля;

  • файл настроек конфигурации модуля СМЭВ3-адаптер (application.yml);

  • сконфигурированные pebble-шаблоны.

3.1.4.2.5. Кластеризация модуля

Кластеризация модуля достигается путем запуска копии экземпляра данного модуля. Оптимальным вариантом является использование оркестраторов, например:

  • Kubernetes;

  • Openshift;

  • Docker-swarm;

  • Nomad.

3.1.5. Установка BLOB-адаптера

3.1.5.1. Установка модуля

Модуль BLOB-адаптер поставляется в виде jar-файла.

Общий процесс установки состоит из следующих действий:

  1. Настроить конфигурацию модуля.

  2. Создать на сервере директорию для загрузки файлов модуля.

  3. Загрузить файлы модуля в созданную директорию.

  4. Запустить jar-файл модуля (Описание процесса запуска приведено в разделе Запуск модуля Руководства администратора Компонента «Витрина данных»).

  5. Проверить установку модуля.

3.1.5.1.1. Настройка конфигурации

Настройка конфигурации выполняется путем редактирования параметров файла конфигурации application.yml.

Пример файла application.yml и возможные настройки конфигурации модуля приведены Конфигурация BLOB-адаптера (application.yml) Руководства администратора Компонента «Витрина данных».

3.1.5.1.2. Добавление папки для загрузки файлов модуля

Создайте на сервере папку, в которую будут загружены файлы модуля, например, /opt/blob-adapter. В случае, если ранее была установлена старая версия модуля BLOB-адаптер, сделайте его резервную копию.

3.1.5.1.3. Загрузка файлов на сервер

Загрузите в созданную на предыдущем шаге папку:

  • jar-файл модуля;

  • файл настроек конфигурации модуля BLOB-адаптер (application.yml).

3.1.6. Установка сервиса формирования документов

3.1.6.1. Установки модуля

Действия по установке выполняются через SSH консоль технологического пользователя.

3.1.6.1.1. Установка модуля

Модуль «Сервис формирования документов» поставляется в виде JAR-файла.

В поставку также входят следующие файлы:

  • файл настроек конфигурации модуля (application.yml);

Общий процесс установки состоит из следующих действий:

  1. Настроить конфигурацию модуля.

  2. Создать на сервере директорию для загрузки файлов модуля.

  3. Загрузить файлы модуля в созданную директорию.

  4. Запустить JAR-файл модуля (Описание процесса запуска приведено в разделе Запуск модуля Руководства администратора Компонента «Витрина данных»).

  5. Проверить установку модуля.

3.1.6.1.2. Настройка конфигурации

Настройка конфигурации выполняется путем редактирования параметров файла конфигурации application.yml.

Пример файла application.yml и возможные настройки конфигурации модуля приведены в разделе Конфигурация модуля «Сервиса Формирования документов» (application.yml) Руководства администратора Компонента «Витрина данных».

3.1.6.1.3. Добавление папки для загрузки файлов модуля

Создайте на сервере папку, в которую будут загружены файлы модуля, например, /opt/printable-form-service. В случае, если ранее была установлена старая версия Сервиса формирования документов, сделайте его резервную копию.

3.1.6.1.4. Загрузка файлов на сервер

Загрузите в созданную на предыдущем шаге папку:

  • JAR-файл модуля;

  • файл настроек конфигурации модуля Сервис формирования документов (application.yml);

  • файлы JDBC-драйвер (dtm-jdbc-driver-*.*.*.jar) и commons-lang3-3.12.0.jar для подключения к Prostore.

3.1.6.1.5. Кластеризация модуля

Кластеризация модуля достигается путем запуска копии экземпляра данного модуля. Оптимальным вариантом является использование оркестраторов, например:

  • Kubernetes;

  • Openshift;

  • Docker-swarm;

  • Nomad.

3.1.7. Установка стандартного загрузчика

3.1.7.1. Процесс установки

Действия по установке выполняются через SSH консоль технологического пользователя.

Общий процесс установки состоит из следующих действий:

  1. Выполнить предусловия для запуска новой версии компонентов модуля.

  2. Настроить конфигурацию модуля.

  3. Создать на сервере директорию для загрузки файлов модуля.

  4. Загрузить файлы модуля в созданную директорию.

  5. Запустить модуль (Описание процесса запуска приведено в разделе Запуск модуля Руководства администратора Компонента «Витрина данных»).

  6. Проверить установку модуля.

3.1.7.1.1. Предусловия выполнения первого запуска новой версии компонентов загрузчика

Начиная с версии 2.6.0 хранение данных персистентности модуля осуществляется в снапшот-таблицах Prostore. Пересоздание таблиц и миграция данных выполняется автоматически при старте модуля.

Миграции подлежат данные только таблиц, предназначенных для хранения статической информации:

  • information_system;

  • source;

  • pull_task;

  • schedule;

  • deployer;

  • reader;

  • config;

  • flk_conditions;

  • session_status_dictionary;

  • compare_task;

  • compare_schedule.

Для исключения возникновения ошибок миграции, перед первым запуском новой версии компонентов загрузчика необходимо выполнить следующие действия:

  1. Проверить версию Prostore (для работы новой версии загрузчика требуется Prostore версии 7.6 и выше).

  2. Проверить тип подключенных датасорсов Prostore (в Prostore данные персистентности хранятся в snapshot-таблицах, которые поддерживаются только типом ADP):

  • если все имеющиеся датасорсы с типом ADP, перейти к следующему шагу;

  • если нет ни одного ADP-датасорса, то необходимо развернуть СУБД PostgreSQL и настроить подключение к Prostore (при отсутствии ADP использование новой версии стандартного загрузчика невозможно);

  • если имеются и ADP, и датасорсы других типов, необходимо в конфигурационном файле загрузчика задать перечень наименований ADP-датасорсов, используемых для обеспечения персистентности;

  1. Остановить формирование новых сеансов: закрыть доступ клиентов к ридерам типа push сетевыми средствами, перевести все расписания и для заданий типа pull, и для сверок в выключенное состояние.

  2. Дождаться перехода всех сеансов в финальные статусы (проверка возможна с использованием REST-запроса на получение списка сеансов с фильтрацией по неконечным статусам).

  3. Проверить наличие ошибочных статусов сеансов загрузки и ошибок ФЛК.

  4. Обработать ошибочные статусы и ошибки ФЛК (в случае наличия ошибок загрузки данных, необходимо устранить причину и повторить загрузку до первого запуска загрузчика версии 2.6.0 и выше, т.к. история будет утеряна).

  5. Остановить загрузчик.

  6. Запустить загрузчик новой версии (2.6.0 или выше) со всеми задействованными компонентами (Manager и Buffer - обязательно, FLK и Comparator - опционально) в одном экземпляре (допускается запуск как в одной, так и в различных JVM). В случае запуска в нескольких экземпляров возможны ошибки при выполнении миграции.

После успешного выполнения миграции (компонент запущен, в логах отсутствуют ошибки миграции) выполнить запуск других экземпляров при необходимости.

В случае наличия в логах ошибок миграции, необходимо устранить возможные причины и повторить запуск одного экземпляра компонентов загрузчика версии 2.6.0 и выше.

3.1.7.1.2. Настройка конфигурации

Настройка конфигурации выполняется путем редактирования параметров файла конфигурации application.yml.

Пример файла application.yml и возможные настройки конфигурации модуля приведены в разделе Конфигурация стандартного загрузчика Руководства администратора Компонент «Витрина данных».

3.1.7.1.3. Загрузка JAR-файла на сервер

Для загрузки файла на сервер выполните команду:

scp file.jar user_name@IP:/home/dir

где,

  • file.jar - название JAR-файла;

  • user_name - имя пользователя, например, sudo или root;

  • IP - адрес сервера;

  • /home/dir - директория на сервере, в которую будет загружен файл.

3.1.8. Установка CSV-Uploader

3.1.8.1. Процесс установки CSV-uploader

Действия по установке выполняются через SSH консоль технологического пользователя.

Общий процесс установки состоит из следующих действий:

  1. Выполнить предусловия для запуска новой версии модуля.

  2. Настроить конфигурацию модуля.

  3. Создать на сервере директорию для загрузки файлов модуля.

  4. Загрузить файлы модуля в созданную директорию.

  5. Запустить модуль (Описание процесса запуска приведено в разделе Запуск модуля Руководства администратора Компонента «Витрина данных»).

  6. Проверить установку модуля.

3.1.8.1.1. Предусловия выполнения первого запуска новой версии модуля

Начиная с версии 2.6.0 хранение данных персистентности модуля осуществляется в снапшот-таблицах Prostore. Пересоздание таблиц и миграция данных выполняется автоматически при старте модуля.

Для исключения возникновения ошибок миграции, перед первым запуском новой версии модуля необходимо выполнить следующие действия:

  1. Проверить версию Prostore (для работы новой версии CSV-Uploader требуется Prostore версии 7.6 и выше).

  2. Проверить тип подключенных датасорсов Prostore (В Prostore данные персистентности хранятся в snapshot-таблицах, которые поддерживаются только в датасорсах с типом ADP):

  • если все имеющиеся датасорсы с типом ADP, перейти к следующему шагу;

  • если нет ни одного ADP-датасорса, то необходимо развернуть СУБД PostgreSQL и настроить подключение к Prostore (при отсутствии ADP использование новой версии CSV-Uploader с персистентностью в Prostore невозможно);

  • если имеются и ADP, и датасорсы других типов, необходимо в конфигурационном файле CSV-Uploader задать перечень наименований ADP датасорсов, используемых для обеспечения персистентности;

  1. Дождаться перехода выполняющихся загрузок в финальные статусы.

  2. Проверить наличие ошибочных статусов загрузки и ошибок ФЛК, обработать ошибки (в случае наличия ошибок загрузки данных, необходимо устранить причину и повторить загрузку до обновления CSV-Uploader, т.к. данные журналов загрузок не подлежат миграции).

  3. Отключить автоматическую загрузку данных в витрину по расписанию.

  4. Остановить CSV-Uploader.

  5. Запустить новую версию CSV-uploader в одном экземпляре (в случае запуска нескольких экземпляров возможны ошибки при выполнении миграции).

После успешного выполнения миграции (модуль запущен, в логах отсутствуют ошибки миграции) выполнить запуск других экземпляров при необходимости.

В случае наличия в логах ошибок миграции, необходимо устранить возможные причины и повторить запуск одного экземпляра CSV-uploader версии 2.6.0 и выше.

3.1.8.1.2. Настройка конфигурации

Настройка конфигурации выполняется путем редактирования параметров файла конфигурации application.yml.

Пример файла application.yml и возможные настройки конфигурации модуля приведены в разделе Конфигурация CSV-uploader (application.yml) Руководства администратора Компонент «Витрина данных».

3.1.8.1.3. Загрузка JAR-файла на сервер

Для загрузки файла на сервер выполните команду:

scp file.jar user_name@IP:/home/dir

где,

  • file.jar - название JAR-файла;

  • user_name - имя пользователя, например, sudo или root;

  • IP - адрес сервера;

  • /home/dir - директория на сервере, в которую будет загружен файл.

3.1.9. Установка DATA-uploder – Модуля исполнения асинхронных заданий

3.1.9.1. Процесс установки

Действия по установке выполняются через SSH консоль технологического пользователя.

Общий процесс установки состоит из следующих действий:

  1. Выполнить предусловия для запуска новой версии модуля.

  2. Настроить конфигурацию модуля.

  3. Создать на сервере директорию для загрузки файлов модуля.

  4. Загрузить файлы модуля в созданную директорию.

  5. Запустить модуль (Описание процесса запуска приведено в разделе Запуск модуля Руководства администратора Компонента «Витрина данных»).

  6. Проверить установку модуля.

3.1.9.1.1. Предусловия выполнения первого запуска новой версии модуля

Начиная с версии 2.6.0 хранение данных персистентности модуля осуществляется в снапшот-таблицах Prostore. Пересоздание таблиц и миграция данных выполняется автоматически при старте модуля.

Для исключения возникновения ошибок миграции, перед первым запуском новой версии модуля необходимо выполнить следующие действия:

  1. Проверить версию Prostore (для работы новой версии DATA-Uploader требуется Prostore версии 7.6 и выше).

  2. Проверить тип подключенных датасорсов Prostore (В Prostore данные персистентности хранятся в snapshot-таблицах, которые поддерживаются только в датасорсах с типом ADP):

  • если все имеющиеся датасорсы с типом ADP, перейти к следующему шагу;

  • если нет ни одного ADP-датасорса, то необходимо развернуть СУБД PostgreSQL и настроить подключение к Prostore (при отсутствии ADP невозможно использование функционала сбора данных о компонентах в новой версии Витрин данных);

  • если имеются и ADP, и датасорсы других типов, необходимо в конфигурационном файле DATA-Uploader задать перечень наименований используемых ADP-датасорсов;

  1. Синхронизировать настройки блока component-info (кроме secrets) в конфигурационных файлах всех модулей, отправляющих информацию о себе.

  2. Запустить один экземпляр одного из модулей ВД новой версии с включенным функционалом сбора данных (component-info.enabled: true) и с заданными настройками подключения к Prostore (в случае запуска нескольких экземпляров или нескольких компонентов возможны ошибки пересоздания таблицы component_info).

После успешного выполнения миграции необходимо убедиться в успешности создания таблицы component_info.

В случае наличия в логах ошибок создания таблицы component_info, необходимо устранить возможные причины и перезапустить один экземпляр одного модуля Витрины новой версии или дождаться выполнения повторной попытки создания таблицы (периодичность конфигурируется в параметре component-info.create-table-period).

3.1.9.1.2. Настройка конфигурации

Настройка конфигурации выполняется путем редактирования параметров файла конфигурации application.yml.

Пример файла application.yml и возможные настройки конфигурации модуля приведены в разделе Конфигурация модуля DATA-Uploader (application.yml) Руководства администратора Компонент «Витрина данных».

3.1.9.1.3. Загрузка JAR-файла на сервер

Для загрузки файла на сервер выполните команду:

scp file.jar user_name@IP:/home/dir

где,

  • file.jar - название JAR-файла;

  • user_name - имя пользователя, например, sudo или root;

  • IP - адрес сервера;

  • /home/dir - директория на сервере, в которую будет загружен файл.

3.1.10. Установка REST-uploader – Модуля асинхронной загрузки данных из сторонних источников

3.1.10.1. Процесс установки

Действия по установке выполняются через SSH консоль технологического пользователя.

Общий процесс установки состоит из следующих действий:

  1. Выполнить предусловия для запуска новой версии модуля.

  2. Настроить конфигурацию модуля.

  3. Создать на сервере директорию для загрузки файлов модуля.

  4. Загрузить файлы модуля в созданную директорию.

  5. Запустить модуль (Описание процесса запуска приведено в разделе Запуск модуля Руководства администратора Компонента «Витрина данных»).

  6. Проверить установку модуля.

3.1.10.1.1. Предусловия выполнения первого запуска новой версии модуля

Начиная с версии 2.6.0 хранение данных персистентности модуля осуществляется в снапшот-таблицах Prostore. Пересоздание таблиц и миграция данных выполняется автоматически при старте модуля.

Для исключения возникновения ошибок миграции, перед первым запуском новой версии модуля необходимо выполнить следующие действия:

  1. Проверить версию Prostore (для работы новой версии REST-Uploader требуется Prostore версии 7.6 и выше).

  2. Проверить тип подключенных датасорсов Prostore (В Prostore данные персистентности хранятся в snapshot-таблицах, которые поддерживаются только в датасорсах с типом ADP):

  • если все имеющиеся датасорсы с типом ADP, перейти к следующему шагу;

  • если нет ни одного ADP-датасорса, то необходимо развернуть СУБД PostgreSQL и настроить подключение к Prostore (при отсутствии ADP невозможно использование функционала сбора данных о компонентах в новой версии Витрин данных);

  • если имеются и ADP, и датасорсы других типов, необходимо в конфигурационном файле REST-Uploader задать перечень наименований используемых ADP-датасорсов;

  1. Синхронизировать настройки блока component-info (кроме secrets) в конфигурационных файлах всех модулей, отправляющих информацию о себе.

  2. Запустить один экземпляр одного из модулей ВД новой версии с включенным функционалом сбора данных (component-info.enabled: true) и с заданными настройками подключения к Prostore (в случае запуска нескольких экземпляров или нескольких компонентов возможны ошибки пересоздания таблицы component_info).

После успешного выполнения миграции необходимо убедиться в успешности создания таблицы component_info.

В случае наличия в логах ошибок создания таблицы component_info, необходимо устранить возможные причины и перезапустить один экземпляр одного модуля Витрины новой версии или дождаться выполнения повторной попытки создания таблицы (периодичность конфигурируется в параметре component-info.create-table-period).

3.1.10.1.2. Настройка конфигурации

Настройка конфигурации выполняется путем редактирования параметров файла конфигурации application.yml.

Пример файла application.yml и возможные настройки конфигурации модуля приведены в разделе Конфигурация модуля REST-Uploader (application.yml) Руководства администратора Компонента «Витрина данных».

3.1.10.1.3. Загрузка JAR-файла на сервер

Для загрузки файла на сервер выполните команду:

scp file.jar user_name@IP:/home/dir

где,

  • file.jar - название JAR-файла;

  • user_name - имя пользователя, например, sudo или root;

  • IP - адрес сервера;

  • /home/dir - директория на сервере, в которую будет загружен файл.

3.1.11. Установка сервиса генерации уникального номера (Counter-Provider)

3.1.11.1. Процесс установки

Действия по установке выполняются через SSH консоль технологического пользователя.

Общий процесс установки состоит из следующих действий:

  1. Выполнить предусловия для запуска новой версии модуля.

  2. Настроить конфигурацию модуля.

  3. Создать на сервере директорию для загрузки файлов модуля.

  4. Загрузить файлы модуля в созданную директорию.

  5. Запустить модуль (Описание процесса запуска приведено в разделе Запуск модуля Руководства администратора Компонента «Витрина данных»).

  6. Проверить установку модуля.

3.1.11.1.1. Предусловия выполнения первого запуска новой версии Counter-provider с персистентностью в Prostore

Начиная с версии 2.6.0 хранение данных персистентности модуля осуществляется в снапшот-таблицах Prostore. Пересоздание таблиц и миграция данных выполняется автоматически при старте модуля.

Для исключения возникновения ошибок миграции, перед первым запуском новой версии модуля необходимо выполнить следующие действия:

  1. Задать необходимые настройки в конфигурационном файле модуля новой версии.

  • При кастомизации шага инкремента номеров счетчиков (counter.increment-gap), он устанавливается одинаковым для всех экземпляров модуля.

  • При установке increment-gap >1 возможны пропуски генерируемой последовательности значений после обновления или при перезапуске модуля Counter-provider.

  1. Опционально - включить выполнение миграции счётчиков из Zookeeper (В конфигурационном файле нового Counter-provider задать настройки подключения к Zookeeper и установить флаг выполнения миграции из Zookeeper).

  2. Для обновления выбрать период минимальной прикладной активности.

  3. Остановить Counter-provider.

  4. Запустить новую версию Counter-provider в одном экземпляре (В случае запуска нескольких экземпляров возможны ошибки при выполнении миграции).

После успешного выполнения миграции (модуль запущен, в логах отсутствуют ошибки миграции) необходимо в конфигурации модуля отключить выполнение миграции из Zookeeper (если была включена) и выполнить запуск других экземпляров при необходимости.

В случае наличия в логах ошибок миграции, необходимо устранить возможные причины и повторить запуск одного экземпляра Counter-provider новой версии.

3.1.11.1.2. Настройка конфигурации

Настройка конфигурации выполняется путем редактирования параметров файла конфигурации application.yml.

Пример файла application.yml и возможные настройки конфигурации модуля приведены в разделе Конфигурация модуля Counter-Provider (application.yml) Руководства администратора Компонента «Витрина данных».

3.1.11.1.3. Загрузка JAR-файла на сервер

Для загрузки файла на сервер выполните команду

scp file.jar user_name@IP:/home/dir

где,

  • file.jar - название JAR-файла;

  • user_name - имя пользователя, например, sudo или root;

  • IP - адрес сервера;

  • /home/dir - директория на сервере, в которую будет загружен файл.

3.1.12. Установка Агента проверок

3.1.12.1. Подготовка и настройка системы для запуска Агента проверок

3.1.12.1.1. Установка и подключение к Prostore

Для работы Агента проверок необходимо установить ПО Prostore и подключение к нему (Раздел 3.1.2).

Между Агентом проверок и ПО Prostore должна быть обеспечена сетевая связанность.

В конфигурационный файл application.yml ПО Prostore необходимо добавить настройки по отправке push-уведомлений в Агента проверок, для уведомлений последнего об изменениях, вносимых в проверяемые таблицы:

core:
poststatusevent:
    subscriberGroup:
    - endpointUrl: "http://<IP-Агента-проверок>:<port-Агента проверок>/check/adapter/push/enrich"
        endpointTimeoutMs: 10000
        endpointRetryTimeoutMs: 5000
        bufferingPeriodMs: 5000
        bufferSize: 2000
        writeOperationsEnabled: true
        externalDDLEnabled: true
3.1.12.1.2. Установка и подключение интеграционного узла адаптера

Для сверки данных Компонента «Витрина Данных» с Единым реестром населения (далее - ЕРН), необходимо выполнить установку компонента «Интеграционный узел адаптера» (далее ИУА) для взаимодействия через СМЭВ 3, согласно документу «Руководство администратора ИУА».

Между Агентом проверок и ИУА должна быть обеспечена сетевая связанность.

В случае взаимодействия через СМЭВ 3 при помощи Адаптера СМЭВ 3, установка компонента ИУА не требуется.

3.1.12.1.3. Перечень стороннего ПО и доступов, необходимых для работы Агента проверок
  • JDK версии 17.0, рекомендуется Liberica 17 JDK 17.0.7;

  • необходимо зарегистрировать спецификации /dqf и /api/v1/incidents, приведенные в Раздел 2.2.2.4;

  • перечень доступов к спецификациям в качестве инициатора приведен в Таблица 3.1;

  • перечень доступов к спецификациям в качестве поставщика приведен в Таблица 3.2. Владельцем указанных спецификаций является ИС Агента СМЭВ 4, установленная в контуре Компонента «Витрина данных».

Таблица 3.1 Перечень доступов, который нужно получить Агенту СМЭВ 4, установленному в периметре Компонента «Витрина данных»

Спецификация

Мнемоника ИС Владельца спецификации

Назначение

/pkch/api/v3

04PV02

Получение списка согласованных проверок

/pue/api/v3

04PV02

Передача статистики по результатам проверок

/smevql/api/v1

MNSV20

Получение данных справочников ЕСНСИ (только тип ЕСНСИ)

/pmd/api/v3

04PV02

Передача статистики по результатам проверок в разрезе таблиц

Таблица 3.2 Перечень доступов, который нужно предоставить Агенту СМЭВ 4, сторонних систем

Спецификация

Мнемоника ИС которой необходимо предоставить доступ к спецификации

Назначение

/dqf

04PV02

Выполнение тестирования проверок качества данных, до их публикации и применения к витрине данных

/api/v1/incidents

MNSV171

Прием результатов сверок и сопоставлений данных подсистемой ЕСУМД ФГИС «Моя школа»

3.1.13. Установка коннектора Kafka-Postgres

  1. Из полученного дистрибутива компонента скопируйте и загрузите в папку kafka-postgres-connector архив kafka-postgres-writer-1.5.0.jar

  2. Скопируйте конфигурационный файл KAFKA-POSTGRES-WRITER application.yaml в папку kafka-postgres-connector/config.

Конфигурационный файл KAFKA-POSTGRES-WRITER
logging:
level:
    ru.datamart.kafka: ${LOG_LEVEL:DEBUG}
    org.apache.kafka: ${KAFKA_LOG_LEVEL:INFO}

http:
port: ${SERVER_PORT:8096}

vertx:
pools:
    eventLoopPoolSize: ${VERTX_EVENT_LOOP_SIZE:12}
    workersPoolSize: ${VERTX_WORKERS_POOL_SIZE:32}
verticle:
    query:
    instances: ${QUERY_VERTICLE_INSTANCES:12}
    insert:
    poolSize: ${INSERT_WORKER_POOL_SIZE:32}
    insertPeriodMs: ${INSERT_PERIOD_MS:1000}
    batchSize: ${INSERT_BATCH_SIZE:500}
    consumer:
    poolSize: ${KAFKA_CONSUMER_WORKER_POOL_SIZE:32}
    maxFetchSize: ${KAFKA_CONSUMER_MAX_FETCH_SIZE:10000}
    commit:
    poolSize: ${KAFKA_COMMIT_WORKER_POOL_SIZE:1}
    commitPeriodMs: ${KAFKA_COMMIT_WORKER_COMMIT_PERIOD_MS:1000}

client:
kafka:
    consumer:
    checkingTimeoutMs: ${KAFKA_CHECKING_TIMEOUT_MS:10000}
    responseTimeoutMs: ${KAFKA_RESPONSE_TIMEOUT_MS:10000}
    consumerSize: ${KAFKA_CONSUMER_SIZE:10}
    closeConsumersTimeout: ${KAFKA_CLOSE_CONSUMER_TIMEOUT:15000}
    property:
        bootstrap.servers: ${KAFKA_BOOTSTRAP_SERVERS:kafka.host:9092}
        group.id: ${KAFKA_CONSUMER_GROUP_ID:postgres-query-execution}
        auto.offset.reset: ${KAFKA_AUTO_OFFSET_RESET:earliest}
        enable.auto.commit: ${KAFKA_AUTO_COMMIT:false}
        auto.commit.interval.ms: ${KAFKA_AUTO_INTERVAL_MS:1000}

datasource:
postgres:
    database: ${POSTGRES_DB_NAME:test}
    user: ${POSTGRES_USERNAME:dtm}
    password: ${POSTGRES_PASS:dtm}
    hosts: ${POSTGRES_HOSTS:localhost:5432}
    poolSize: ${POSTGRES_POOLSIZE:10}
    preparedStatementsCacheMaxSize: ${POSTGRES_CACHE_MAX_SIZE:256}
    preparedStatementsCacheSqlLimit: ${POSTGRES_CACHE_SQL_LIMIT:2048}
    preparedStatementsCache: ${POSTGRES_CACHE:true}

3.1.14. Установка и настройка сервиса сбора данных запросов и ответов Витрины данных

Сервис сбора данных запросов и ответов Витрины данных реализован с целью проведения бизнес-мониторинга ИЭП процессов обработки запросов Компонентом «Витрина данных», как в целом, так и в части функционирования отдельных витрин для последующей передачи данных в СЦЛ.

3.1.14.1. Процесс установки

Общий процесс установки состоит из следующих действий:

  1. Настройка логирования модулей.

  2. Установка и настройка Vector.

  3. Установка и настройка HaProxy.

  4. Установка и настройка fluentbit.

  5. Установка ClickHouse.

3.1.14.1.1. Настройка логирования модулей

Необходимо настроить формирование логов в формате JSON на стороне модулей:

  • BLOB-адаптер;

  • СМЭВ3-адаптер;

  • Сервис формирования документов.

Для этого необоходимо в файле logback.xml включить net.logstash.logback.encoder.LogstashEncoder.

Пример logback.xml
<?xml version="1.0" encoding="UTF-8"?>
    <configuration>
    <appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>logs/application.log</file>
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!-- daily rollover -->
            <fileNamePattern>logs/application.%d{yyyy-MM-dd}.log</fileNamePattern>
            <!-- keep 30 days' worth of history capped at 3GB total size -->
            <maxHistory>30</maxHistory>
            <totalSizeCap>3GB</totalSizeCap>
        </rollingPolicy>
        <encoder class="net.logstash.logback.encoder.LogstashEncoder" />
    </appender>

    <root level="INFO">
        <appender-ref ref="FILE" />
    </root>
</configuration>

Подробная информация об encoder

3.1.14.1.2. Установка и настройка Vector

Установка производится по официальной документации Vector

Настройка Vector:

Пример настройки source:

json_source:
    type: fluent
    address: 0.0.0.0:24226

Пример фильтрации сообщений, имеющих флаг scl:

scl_tags_filter:
type: filter
inputs:
  - json_source
condition:
  type: "vrl"
  source: |-
    exists(.tags) && includes(array!(.tags), "TYPE_SCL")

Пример парсинга scl-сообщений:

scl_message_remap:
    type: remap
    inputs:
    - scl_tags_filter
    source: |-
    . = parse_json!(.message)

Пример отправки scl-сообщений в Kafka:

podd_agent_sink:
    type: kafka
    inputs:
      - scl_message_remap
    bootstrap_servers: kafka:9092
    topic: "<префикс>.scl.signal"
    acknowledgements: true
    compression: "gzip"
    encoding:
      codec: json
    healthcheck: true
3.1.14.1.3. Установка и настройка HaProxy

Установка производится по официальной документации HaProxy

Для настройки HaProxy в секции backend нужно перечислить список установленных инстансов Vector.

Пример файла haproxy.cfg:

global
    log 127.0.0.1 local2

    chroot /var/lib/haproxy
    pidfile /var/run/haproxy.pid
    maxconn 4000
    user haproxy
    group haproxy
    daemon

    stats socket /var/lib/haproxy/stats

defaults
    mode tcp
    log global
    retries 3

    maxconn 3000

listen stats
    bind                 0.0.0.0:1936
    mode                 http
    stats                enable
    stats                uri /

frontend services
    bind 0.0.0.0:24226
    default_backend services
    mode tcp

backend services
    balance roundrobin
    mode tcp
    server vector01 vector-01:24226
    server vector02 vector-02:24226
3.1.14.1.4. Установка и настройка FluentBit

Установка производится по официальной документации FluentBit.

Далее необходимо настроить FluentBit на чтение файлов с логами приложений.

Пример файла конфигурации fluent-bit.conf:

[SERVICE]
    flush        5
    daemon       off
    log_level    info
    parsers_file parsers.conf
[INPUT]
    name tail
    path <путь до лог файла приложения>
    tag *
    parser json
[OUTPUT]
    name forward
    match *
    host haproxy
    port 24226

Пример файла parsers.conf:

[PARSER]
    Name        json
    Format      json

На этом настройка fluentbit завершена.

3.1.14.1.4.1. Включение / выключение отправки сообщений в СЦЛ

Отправка логов в СЦЛ осуществляется автоматически после корректной настройки сервиса.

Для выключения отправки логов можно закомментировать блок podd_agent_sink отправки сообщений в Kafka в настройках Vector.

3.1.14.1.5. Установка и настройка ClickHouse

Установка производится по официальной документации ClickHouse

Пример задания конфигурационных настроек:

clickhouse_default_config:
clickhouse:
   logger:
      level: trace
      log: /var/log/clickhouse-server/clickhouse-server.log
      errorlog: /var/log/clickhouse-server/clickhouse-server.err.log
      size: 1000M
      count: 10
   http_port: 8123
   tcp_port: 9000
   listen_host: 0.0.0.0
   max_connections: 4096
   keep_alive_timeout: 3
   user_directories:
      users_xml:
      path: users.xml
      local_directory:
      path: "{{ clickhouse_root_data_folder }}/access/"
   path: "{{ clickhouse_root_data_folder | add_slash }}"

3.2. Установка Компонента «Витрина данных» конфигурации лайт

Примечание

Перед установкой Компонента необходимо обязательно выполнить предварительные действия по настройке (см. раздел Предварительные действия).

Состав модулей дистрибутива и номер версии Компонента приведены в разделе Состав модулей в дистрибутиве документа «Техническое описание Компонента «Витрина данных».

Требования к серверному оборудованию, телекоммуникационному оборудованию и каналам связи приведены в Раздел 1 документа «Техническое описание Компонента «Витрина данных»».

3.2.1. Настройка конфигурационного файла

Чтобы запустить процесс установки Компонента с помощью Ansible, необходимо настроить конфигурационный файл. Для этого выполните следующие действия:

  1. Переименовать файл custom.example.yml расположенный в папке ansible/group_vars/ в custom.yml. Для этого выполните команду:

cp -n ansible/group_vars/custom.example.yml ansible/group_vars/custom.yml
  1. В файле custom.yml указать корректные значения для следующих переменных:

  • server_ip - адреса сервера. Укажите IP-адрес сервера, на который будет установлено обновление Компонента, например:

server_ip: "172.16.10.59"

Если установка производится локально, то нужно выставить server_ip: "localhost".

  • server_user_name - имя пользователя операционной системы. Укажите имя пользователя операционной системы сервера, под которым будет производиться установка Компонента (см. раздел Создание пользователя datamart), например:

server_user_name: datamart

3.2.2. Установка Компонента

Для установки Компонента выполните команду:

docker-ansible-cmd ansible-playbook -i hosts install.yml

Начнется процесс установки Компонента (см. Рисунок - 3.6):

Процесс установки

Рисунок - 3.6 Процесс установки

Установка Компонента завершена. При успешной установке параметр failed должен иметь значение - 0 (см. Рисунок - 3.6).

Это значит, что все компоненты Компонента установлены, а необходимые взаимосвязи между ними настроены корректно.

После установки Компонента следует провести ее проверку.

3.3. Установка системы мониторинга

Для мониторинга состояния работы Компонента «Витрина данных» используется связка Grafana + Prometheus.

Prometheus — система мониторинга, обладающая возможностями тонкой настройки метрик. Prometheus используется для отслеживания состояния работы компонентов системы на низком уровне.

Grafana — инструмент с открытым исходным кодом для визуализации данных из различных систем сбора статистики. Grafana используется для представления в графическом виде временных рядов и текстовых данных.

Для Grafana и Prometheus доступны установки как на Bare metal, так и под Docker.

Примечание

Описание настроек системы мониторинга приведено в разделе Настройка сервиса мониторинга документа «Руководство администратора Типового ПО «Витрина данных»».

3.3.1. Установка Prometheus на Bare metal

3.3.1.1. Подготовка сервера

Перед установкой нужно настроить параметры сервера, необходимые для правильно работы системы.

  1. Установите пакеты, нужные для работы:

  • wget - для загрузки файлов;

  • tar - для распаковки архивов.

В зависимости от системы, команды будут отличаться.

yum updateinfo
yum install wget tar
apt update
apt install wget tar
  1. Проверьте, что установлен нужный часовой пояс (описание настройки часового пояса приведено в разделе Выбор часового пояса).

  2. На фаерволе, при его использовании, откройте порт TCP 9090 — HTTP для сервера Prometheus.

    Используя IPtables откройте порт командой:

iptables -I INPUT -p tcp --match multiport --dports 9090 -j ACCEPT

Сохраните правила с помощью iptables-persistent:

service iptables save
apt install iptables-persistent
netfilter-persistent save

3.3.1.2. Установка Prometheus

Prometheus не устанавливается из репозитория и имеет не простой процесс установки.

Необходимо скачать исходник, создать пользователя, вручную скопировать нужные файлы, назначить права и создать юнит для автозапуска.

3.3.1.2.1. Загрузка

Для загрузки нужно перейдите на официальную страницу загрузки, скопируйте ссылку на пакет для Linux (желательно, использовать версию LTS) и загрузите пакет командой:

wget https://github.com/prometheus/prometheus/releases/download/v2.45.0/prometheus-2.45.0.linux-amd64.tar.gz

Примечание

Если система вернет ошибку, необходимо установить пакет wget.

3.3.1.2.2. Установка (копирование файлов)

После скачивания архива Prometheus, необходимо его распаковать и скопировать содержимое по разным каталогам.

  1. Создайте каталоги, в которые нужно скопировать файлы для Prometheus командой:

mkdir /etc/prometheus /var/lib/prometheus
  1. Распакуйте архив командой:

tar -zxf prometheus-*.linux-amd64.tar.gz
  1. Перейдите в каталог с распакованными файлами:

cd prometheus-*.linux-amd64
  1. Распределите файлы по каталогам:

cp prometheus promtool /usr/local/bin/
cp -r console_libraries consoles prometheus.yml /etc/prometheus
  1. Выйдите из каталога и удалите исходник:

cd .. && rm -rf prometheus-*.linux-amd64/ && rm -f prometheus-*.linux-amd64.tar.gz
3.3.1.2.3. Назначение прав
  1. Создайте пользователя, который будет запускать систему мониторинга:

useradd --no-create-home --shell /bin/false prometheus

Примечание

Данная команда создает пользователя Prometheus без домашней директории и без возможности входа в консоль сервера.

  1. Задайте владельца для каталогов, которые были созданы ранее:

chown -R prometheus:prometheus /etc/prometheus /var/lib/prometheus
  1. Задайте владельца для скопированных файлов:

chown prometheus:prometheus /usr/local/bin/{prometheus,promtool}
3.3.1.2.4. Запуск и проверка
  1. Запусите Prometheus от одноименного пользователя командой:

sudo -u prometheus /usr/local/bin/prometheus --config.file /etc/prometheus/prometheus.yml --storage.tsdb.path /var/lib/prometheus/ --web.console.templates=/etc/prometheus/consoles --web.console.libraries=/etc/prometheus/console_libraries

Система выведет в консоль лог запуска с сообщением в конце:

level=info ts=2019-08-07T07:39:06.849Z caller=main.go:621 msg="Server is ready to receive web requests."
  1. В браузере введите адрес: http://<IP-адрес сервера>:9090 — в случае успешной установки загрузится консоль Prometheus.

3.3.1.2.5. Автозапуск

Для настройки автоматического старта Prometheus нужно создать новый юнит в systemd.

  1. Откройте консоль сервера, прервать работу Prometheus с помощью комбинации Ctrl + C и создать файл prometheus.service:

vi /etc/systemd/system/prometheus.service

[Unit]
Description=Prometheus Service
Documentation=https://prometheus.io/docs/introduction/overview/
After=network.target

[Service]
User=prometheus
Group=prometheus
Type=simple
ExecStart=/usr/local/bin/prometheus \
--config.file /etc/prometheus/prometheus.yml \
--storage.tsdb.path /var/lib/prometheus/ \
--web.console.templates=/etc/prometheus/consoles \
--web.console.libraries=/etc/prometheus/console_libraries
ExecReload=/bin/kill -HUP $MAINPID
Restart=on-failure

[Install]
WantedBy=multi-user.target
  1. Разрешите автозапуск:

systemctl enable prometheus
  1. Запустите службу:

systemctl start prometheus
  1. Проверьте корректность запуска:

systemctl status prometheus

3.3.2. Установка Grafana на Bare metal

  1. Создайте файл конфигурации репозитория:

vi /etc/yum.repos.d/grafana.repo

[grafana]
name=grafana
baseurl=https://packages.grafana.com/oss/rpm
repo_gpgcheck=1
enabled=1
gpgcheck=1
gpgkey=https://packages.grafana.com/gpg.key
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
  1. Установите Grafana командой:

yum install grafana
  1. На вопросы системы, задаваемые в процессе установки выберите ответ: Y.

  1. Добавьте репозиторий командой:

add-apt-repository "deb https://packages.grafana.com/oss/deb stable main"
  1. Установите ключ для проверки подлинности репозитория Grafana:

wget -q -O - https://packages.grafana.com/gpg.key | apt-key add -
  1. Обновите список портов:

apt update
  1. Установите Grafana:

apt install grafana
  1. На вопросы системы, задаваемые в процессе установки выберите ответ: Y.

3.3.2.1. Настройка брэндмауэра

По умолчанию, Grafana работает на порту 3000.

Для возможности подключиться к серверу откройте данный порт командой:

iptables -A INPUT -p tcp --dport 3000 -j ACCEPT

Сохраните правила с помощью iptables-persistent:

service iptables save
netfilter-persistent save

Примечание

Eсли при вводе второй команды система выдаст ошибку, нужно установить пакет командой apt install iptables-persistent.

3.3.2.2. Запуск Grafana

Разрешите автозапуск командой:

systemctl enable grafana-server

Запустите сервис:

systemctl start grafana-server

3.3.3. Установка Prometheus и Grafana в Docker

Для этого варианта установки необходимо установить Docker.

Описание установки Docker приведено в разделе docker_install.

Для того чтобы установить Prometheus и Grafana создайте файл docker-compose.yml со следующим содержимым:

version: '3.3'

networks:
  monitoring:
    driver: bridge

volumes:
  prometheus_data: {}

services:
  grafana:
    image: grafana/grafana-enterprise
    container_name: grafana
    restart: unless-stopped
    ports:
      - 3000:3000
  prometheus:
    image: prom/prometheus:latest
    container_name: prometheus
    restart: unless-stopped
    volumes:
      - ./prometheus.yml:/etc/prometheus/prometheus.yml
      - prometheus_data:/prometheus
    command:
      - '--config.file=/etc/prometheus/prometheus.yml'
      - '--storage.tsdb.path=/prometheus'
      - '--web.console.libraries=/etc/prometheus/console_libraries'
      - '--web.console.templates=/etc/prometheus/consoles'
      - '--web.enable-lifecycle'
    ports:
      - 9090:9090
    networks:
      - monitoring

В примере выше указан путь к корневой папке с которой будет запущен docker-compose файл.

Для Prometheus укажите папку в которой будет располагаться файл конфигурации prometheus.yml. Пример файла приведен в разделе Настройка конфигурационного файла Prometheus.

После этого вернитесь на уровень выше, где находится файл docker-compose.yml и выполнить установку командой:

docker-compose up -d

После установки Prometheus будет доступен по адресу http://ip:9090

Доступ Prometheus

Рисунок - 3.7 Доступ Prometheus

Веб-интерфейс Grafana будет доступен по адресу http://ip:3000.

Для авторизации введите логин viewer и пароль viewer.

Авторизация в Grafana

Рисунок - 3.8 Авторизация в Grafana

3.4. Подключение к Агенту СМЭВ4

Установка и настройка Агента СМЭВ4 осуществляется согласно документу «Руководство администратора Агента СМЭВ4».

Примечание

Для сопряжения Компонента «Витрина данных» и ИС УВ с Ядром СМЭВ4 необходимо использовать Агент СМЭВ4 версии не ниже 3.23.0.

Настройка взаимодействия Агента СМЭВ4 с Prostore на стороне Витрины по протоколу HTTP осуществляется в соответствии с разделом «Взаимодействие с Витринами данных по HTTP (версия Витрины 2.x)» Руководства администратора Агента СМЭВ4.