DevOps
Заметки по инструментам направления DevOps.
Git
git --version
git config --global user.name "Lifailon"
добавить имя для коммитов
git config --global user.email "lifailon@yandex.ru"
git config --global --edit
git config --global core.editor "code --wait"
изменить редактор коммитов по умолчанию
ssh-keygen -t rsa -b 4096
Get-Service | where name -match "ssh-agent" | Set-Service -StartupType Automatic
Get-Service | where name -match "ssh-agent" | Start-Service
Get-Service | where name -match "ssh-agent" | select Name,Status,StartType
ssh-agent
ssh-add C:\Users\Lifailon\.ssh\id_rsa
cat ~\.ssh\id_rsa.pub | Set-Clipboard
copy to settings keys
cd $home\Documents\Git
git clone git@github.com:Lifailon/lifailon.github.io
cd lifailon.github.io
git grep "ping ya.ru"
поиск текста в файлах
git fetch
загрузить изменения из удаленного хранилища для обновления всех веток локального репозитория, не затрагивая текущую рабочую ветку (загружает все коммиты, ветки и т.д. которые не присутствуют в локальном репозитории)
git fetch --all
загрузить все ветки с удаленного репозитория (обновляет информацию о состоянии удаленного репозитория и загружает все изменения ваших веток без автоматического объединения)
git pull
загрузить изменения из удаленного хранилища для обновления локального репозитория (выполняет git fetch
, чтобы получить последние изменения из удаленного репозитория, а затеим объеденяем изменения с локальной копией с помощью git merge
для обновления текущей рабочей ветки)
git stash
сохраняет текущие незакоммиченные изменения в временное хранилище (например, на время выполнения git pull
), в т.ч. неотслеживаемые файлы и очищает рабочую директорию (вернет в состояние, соответствующее последнему коммиту)
git stash pop
применяет последние изменения из стэша к текущей ветке (вернутся только измененные строки в файлах, при этом будут сохранены новые добавленные строки в файле без конфликтов) и удаляет их из стэша
git stash apply
применяет изменения, но не удаляет их из стэша
git status
отобразить статус изменений по файлам
git diff
отобразить историю изменений построчно
git diff pandoc
сравнивает изменения в текущей рабочей директории с последним коммитом в указанной ветке pandoc
git add .
добавить (проиндексировать) изменения во всех файлах текущего каталога
git commit -m "update powershell commands"
сохранить изменения с комментарием
git push
синхронизировать локальные изменения с репозиторием на сервере
git push origin mkdocs-material
отправить в конкретную ветку
git push origin --delete mkdocs
удалить ветку на удаленном сервере
git commit --amend
изменить комментарий в последнем коммите (до push
)
git commit --amend --no-edit --date="Sun Oct 27 23:20:00 2024 +0300"
изменить дату последнего коммита
git branch -a
отобразить все ветки (в том числе удаленные remotes/origin)
git branch hugo
создать новую ветку
git branch -m hugo-public
переименовать текущую ветку
git branch -d hugo-public
удалить ветку
git switch hugo
переключиться на другую ветку
git push origin hugo
отправить изменения в указанную ветку
git branch --set-upstream-to=origin/hugo hugo
локальная ветка hugo
будет отслеживать удаленную ветку hugo
на удаленном сервере-репозитории origin
(позволяет не указывать название удаленной ветки при каждом использовании команд git push
или git pull
)
git switch pandoc
переключиться на другую ветку
git merge hugo
слияние указанной ветки (hugo
) в текущую ветку (pandoc
)
git log --oneline --all
отобразить список всех коммитов и их сообщений
git log --graph
коммиты и следование веток
git log --author="Lifailon"
показывает историю коммитов указанного пользователя
git blame .\posh.md
показывает, кто и когда внес изменения в каждую строку указанного файла (НОМЕР_КОММИТА (ИМЯ_ПОЛЬЗОВАТЕЛЯ ДАТА НОМЕР_СТРОКИ) ТЕКСТ.
)
git show d01f09dead3a6a8d75dda848162831c58ca0ee13
отобразить подробный лог по номеру коммита
git checkout filename
устаревшая команда, откатить не проиндексированные изменения для коммита, возвращая его к состоянию, каким оно было на момент последнего коммита (если не было индексации через add
)
git restore filename
отменить все локальные изменения в рабочей копии независимо от того, были они проиндексированы или нет (через add
), возвращая его к состоянию на момент последнего коммита
git restore --source d01f09dead3a6a8d75dda848162831c58ca0ee13 filename
восстановить файл на указанную версию по хэшу индентификатора коммита
git reset HEAD filename
удалить указанный файл из индекса без удаления самих изменений в файле для последующей повторной индексации (если был add
но не было commit
, потом выполнить checkout
)
git reset --soft HEAD^
отменяет последний (^) коммит, сохраняя изменения из этого коммита в рабочем каталоге и индексе (подготовленной области), можно внести изменения в файлы и повторно их зафиксировать через commit
git reset --hard HEAD^
полностью отменяет последний коммит, удаляя все его изменения из рабочего каталога и индекса до состояния предыдущего перед последним коммитом (аналогично HEAD~1
)
git push origin main --force
удалить последний коммит на удаленном сервере репозитория после reset --hard HEAD^
git reset --hard d01f09dead3a6a8d75dda848162831c58ca0ee13
откатывает изменения к указанному коммиту и удаляет все коммиты, которые были сделаны после него (будут потеряны все незакоммиченные изменения и историю коммитов после указанного)
git revert HEAD --no-edit
создает новый коммит, который отменяет последний коммит (HEAD^
) и новый коммит будет добавлен поверх него (события записываются в git log
)
git revert d01f09dead3a6a8d75dda848162831c58ca0ee13
создает новый коммит, который отменяет изменения, внесенные в указанный коммит с хешем (не изменяет историю коммитов, а создает новый коммит с изменениями отмены)
Docker
WSL
wsl --list
список установленных дистрибутивов Linux
wsl --list --online
список доступных дистрибутивов
wsl --install -d Ubuntu
установить Ubuntu в Windows Subsystem for Linux
wsl --status
wsl --exec "htop"
выполнить команду в подсистеме Linux по умолчанию
wsl -e bash -c "docker -v"
wsl -e bash -c "systemctl status docker"
Install
apt update && apt upgrade -y
apt install docker.io
systemctl status docker
systemctl start docker
systemctl enable docker
iptables -t nat -N DOCKER
docker -v
docker -h
sudo usermod -aG docker lifailon
добавить пльзователя в группу docker
newgrp docker
применить изменения в группах
curl https://registry-1.docker.io/v2/
проверить доступ к Docker Hub
curl -s -X POST -H "Content-Type: application/json" -d '{"username": "lifailon", "password": "password"}' https://hub.docker.com/v2/users/login | jq -r .token > dockerToken.txt
получить временный токен доступа для авторизации
sudo docker login
вход в реестр репозитория hub.docker.com
cat dockerToken.txt | sudo docker login --username lifailon --password-stdin
передать токен авторизации (https://hub.docker.com/settings/security) из файла через stdin
cat /root/.docker/config.json | jq -r .auths[].auth
место хранения токена авторизации в системе
cat /root/.docker/config.json | python3 -m json.tool
Proxy
Создаем дополнительную конфигурацию для службы Docker в файле /etc/systemd/system/docker.service.d/http-proxy.conf
:
[Service]
Environment="HTTP_PROXY=http://docker:password@192.168.3.100:9090"
Environment="HTTPS_PROXY=http://docker:password@192.168.3.100:9090"
systemctl daemon-reload
systemctl restart docker
Mirror
echo '{ "registry-mirrors": ["https://dockerhub.timeweb.cloud"] }' > "/etc/docker/daemon.json"
echo '{ "registry-mirrors": ["https://huecker.io"] }' > "/etc/docker/daemon.json"
echo '{ "registry-mirrors": ["https://mirror.gcr.io"] }' > "/etc/docker/daemon.json"
echo '{ "registry-mirrors": ["https://daocloud.io"] }' > "/etc/docker/daemon.json"
echo '{ "registry-mirrors": ["https://c.163.com"] }' > "/etc/docker/daemon.json"
systemctl restart docker
Nexus
Разрешает небезопасные HTTP-соединения с Nexus сервером (если не использует HTTPS):
|
docker login 192.168.3.105:8882
авторизируемся в репозитории Docker Registry на сервере Nexus
docker tag lifailon/docker-web-manager:latest 192.168.3.105:8882/docker-web-manager:latest
создаем тег с прявязкой сервера
docker push 192.168.3.105:8882/docker-web-manager:latest
загружаем образ на сервер Nexus
curl -sX GET http://192.168.3.105:8882/v2/docker-web-manager/tags/list | jq
отобразить список доступных тегов
docker pull 192.168.3.105:8882/docker-web-manager:latest
загрузить образ из Nexus
Run
Commands: search/pull/images/creat/start/ps/restart/pause/unpause/rename/stop/kill/rm/rmi
docker search speedtest
поиск образа в реестре
docker pull adolfintel/speedtest
скачать образ LibreSpeed из реестра Docker Hub (https://hub.docker.com/r/adolfintel/speedtest)
docker images (docker image ls)
отобразить все локальные (уже загруженные) образы docker (image ls)
docker images --format "table {{.ID}}\t{{.Repository}}\t{{.Tag}}"
отфильтровать вывод (json-формат)
docker create -it --name speedtest -p 8080:80 adolfintel/speedtest
создать контейнер из образа adolfintel/speedtest с именем speedtest и проброс 80 порта контейнера на 8080 порт хоста
docker start speedtest
запустить созданный контейнер
ss -ltp | grep 8080
проверить, что порт открыт
docker ps
отобразить все запущенные докер контейнеры
docker ps -a
список всех существующих контейнеров (для их запуска/удаления по NAMES/ID и код выхода Exited 0 - успешная остановка)
docker ps -s
размер контейнеров (–size)
docker restart speedtest
перезапустить контейнер
docker pause speedtest
приостановить контейнер
docker unpause uptime-kuma
возобновить работу контейнера
docker rename speedtest speedtest-2
переименоввать контейнер (docker rename old_name new_name)
docker stop speedtest-2
остановить работающий контейнер с отправкой главному процессу контейнера сигнал SIGTERM, и через время SIGKILL
docker kill uptime-kuma
остановить работающий контейнер с отправкой главному процессу контейнера сигнал SIGKILL
docker kill $(docker ps -q)
остановить все контейнеры
docker rm speedtest-2
удалить контейнер
docker rmi adolfintel/speedtest
удалить образ
docker run -p 8443:8443 -it --entrypoint /bin/sh container_name
запустить контейнер и подключиться к нему (даже если контейнер уходит в ошибку при запуске)
docker run -d --restart=unless-stopped --name openspeedtest -p 3000:3000 -p 3001:3001 openspeedtest/latest
загрузить образ OpenSpeedTest (https://hub.docker.com/r/openspeedtest/latest), создать контейнер и запустить в одну команду в фоновом режиме (-d/–detach, терминал возвращает контроль сразу после запуска контейнера, если не используется, можно видеть логи, но придется остановить контейнер для выхода)
docker rm openspeedtest && docker rmi openspeedtest/latest
удаляем контейнер и образ в одну команду
docker run --name pg1 -p 5433:5432 -e POSTGRES_PASSWORD=PassWord -d postgres
создать контейнер postgres (https://hub.docker.com/_/postgres) с параметрами (-e)
docker run -d --restart=always --name uptime-kuma -p 8080:3001 louislam/uptime-kuma:1
создать и запустить контейнер Uptime-Kuma (https://hub.docker.com/r/elestio/uptime-kuma) в режиме always, при котором контейнер должен перезапускаться автоматически, если он остановится или если перезапустится Docker (например, после перезагрузки хоста)
docker history openspeedtest:latest
отображает слои образа, их размер и команды, которые были выполнены при его создании
Update
docker update --restart unless-stopped uptime-kuma
изменить режим перезапуска контейнера после его остановки на unless-stopped (режим аналогичен always, но контейнер не будет перезапущен, если он был остановлен вручную с помощью docker stop)
docker update --restart on-failure uptime-kuma
контейнер будет перезапущен только в случае его завершения с ошибкой, когда код завершения отличается от 0, через двоеточие можно указать количество попыток перезапуска (например, on-failure:3)
docker update --cpu-shares 512 --memory 500M uptime-kuma
задать ограничения по CPU, контейнер будет иметь доступ к указанной доле процессорного времени в диапазоне от 2 до 262,144 (2^18) или –cpus (количество процессоров), –memory/–memory-swap и –blkio-weight для IOps (относительный вес от 10 до 1000)
Stats
docker stats
посмотреть статистику потребляемых ресурсов запущенными контейнерами (top)
docker stats --no-stream --format json
вывести результат один раз в формате json
Logs
docker logs uptime-kuma --tail 100
показать логи конкретного запущенного контейнера в терминале (последние 100 строк)
docker system events
предоставляют события от демона dockerd в реальном времени
journalctl -xeu docker.service
docker system df
отобразить сводную информацию занятого пространства образами и контейнерами
du -h --max-depth=1 /var/lib/docker
du -h --max-depth=2 /var/lib/docker/containers
--log-driver json-file
стандартный драйвер логов Docker
--log-opt max-size=10m
устанавливаем максимальный размер каждого лог-файла в 10МБайт --log-opt max-file=3
сохраняем только 3 файла с логами (текущий и два предыдущих). Когда лимит будет превышен, Docker автоматически удалит старые логи.
Volume
docker volume ls
показывает список томов и место хранения (механизмы хранения постояннымх данных контейнера на хостовой машине, которые сохраняются между перезапусками или пересозданиями контейнеров)
docker volume inspect uptime-kuma
подробная информация конфигурации тома (отображает локальный путь к данным в системе, Mountpoint: /var/lib/docker/volumes/uptime-kuma/_data)
docker volume create test
создать том
docker volume rm test
удалить том
docker run -d --restart=always --name uptime-kuma -p 8080:3001 -v uptime-kuma:/app/data louislam/uptime-kuma:1
создать и запустить контейнер на указанном томе (том создается автоматически, в дальнейшем его можно указывать при создании контейнера, если необходимо загружать из него сохраненные данные)
Network
docker network ls
список сетей
docker network inspect bridge
подробная информация о сети bridge
docker inspect uptime-kuma | jq .[].NetworkSettings.Networks
узнать наименование сетевого адаптера указанного контейнера
docker run -d --name uptime-kuma --network host nginx louislam/uptime-kuma:1
запуск контейнера с использованием host сети, которая позволяет контейнеру использовать сеть хостовой машины
docker network create network_test
создать новую сеть
docker network connect network_test uptime-kuma
подключить работающий контейнер к указанной сети
docker network disconnect network_test uptime-kuma
отключить от сети
Inspect
docker inspect uptime-kuma
подробная информация о контейнере (например, конфигурация NetworkSettings)
docker inspect uptime-kuma --format='{{.LogPath}}'
показать, где хранятся логи для конкретного контейнера в локальной системе
docker inspect uptime-kuma | grep LogPath
docker inspect $(docker ps -q) --format='{{.NetworkSettings.Ports}}'
отобразить TCP порты всех запущенных контейнеров
docker inspect $(docker ps -q) --format='{{.NetworkSettings.Ports}}' | grep -Po "[0-9]+(?=}])"
отобразить порты хоста (внешние)
docker port uptime-kuma
отобразить проброшенные порты контейнера
for ps in $(docker ps -q); do docker port $ps | sed -n 2p | awk -F ":" '{print $NF}'; done
отобразить внешние порты всех запущенных контейнеров
id=$(docker inspect uptime-kuma | jq -r .[].Id)
узнать ID контейнера по его имени в конфигурации
cat /var/lib/docker/containers/$id/config.v2.json | jq .
прочитать конфигурационный файл контейнера
Exec
docker exec -it uptime-kuma /bin/bash
подключиться к работающему контейнеру (при выходе из оболочки, контейнер будет работать), используя интерпритатор bash
docker top uptime-kuma
отобразить работающие процессы контейнера
docker exec -it --user root uptime-kuma bash apt-get install -y procps
авторизоваться под пользователем root и установить procps
docker exec -it uptime-kuma ps -aux
отобразить работающие процессы внутри контейнера
docker exec uptime-kuma kill -9 25055
убить процесс внутри контейнера
docker exec -it uptime-kuma ping 8.8.8.8
docker exec -it uptime-kuma pwd
docker cp ./Console-Performance.sh uptime-kuma:/app
скопировать из локальной системы в контейнер
docker exec -it uptime-kuma ls
docker cp uptime-kuma:/app/db/ backup/db
сокпировать из контейнера в локальную систему
ls backup/db
Prune
docker network prune && docker image prune && docker volume prune && docker container prune
удалить все неиспользуемые сети, висящие образа, остановленные контейнеры, все неиспользуемые тома
system prune –volumes
заменяет все четыре команды для очистки и дополнительно очищает кеш сборки
Remove
systemctl stop docker.service
systemctl stop docker.socket
pkill -f docker
pkill -f containerd
apt purge docker.io -y || dpkg --purge docker.io
dpkg -l | grep docker
rm -rf /var/lib/docker
rm -rf /run/docker
rm -rf /run/docker.sock
Diff
docker diff <container_id_or_name>
отображает изменения, внесённые в файловую систему контейнера по сравнению с исходным образом
A
— добавленные файлы
C
— изменённые файлы
D
— удалённые файлы
Docker Socket API
curl --silent -XGET --unix-socket /run/docker.sock http://localhost/version | jq .
использовать локальный сокет (/run/docker.sock) для взаимодействия с Docker daemon через его API
curl --silent -XGET --unix-socket /run/docker.sock http://localhost/info | jq .
количество образов, запущенных и остановленных контейнеров и остальные метрики ОС
curl --silent -XGET --unix-socket /run/docker.sock http://localhost/events
логи Docker daemon
curl --silent -XGET --unix-socket /run/docker.sock -H "Content-Type: application/json" http://localhost/containers/json | jq .
список работающих контейнеров и их параметры конфигурации
curl --silent -XGET --unix-socket /run/docker.sock http://localhost/containers/uptime-kuma/json | jq .
подробные сведения (конфигурация) контейнера
curl --silent -XPOST --unix-socket /run/docker.sock -d "{"Image":"nginx:latest"}" http://localhost/containers/create?name=nginx
создать контейнер с указанным образом в теле запроса (должен уже присутствовать образ)
curl --silent -XPOST --unix-socket /run/docker.sock http://localhost/containers/17fab06a820debf452fe685d1522a9dd1611daa3a5087ff006c2dabbe25e52a1/start
запустить контейнер по Id
curl --silent -XPOST --unix-socket /run/docker.sock http://localhost/containers/17fab06a820debf452fe685d1522a9dd1611daa3a5087ff006c2dabbe25e52a1/stop
остановить контейнер
curl --silent -XDELETE --unix-socket /run/docker.sock http://localhost/containers/17fab06a820debf452fe685d1522a9dd1611daa3a5087ff006c2dabbe25e52a1
удалить контейнер
Docker TCP API
service=
curl --silent -XGET http://192.168.3.102:2375/version | jq .
Конечная точка /metrics
для Prometheus:
curl http://192.168.3.102:9323/metrics
Context
docker context create rpi-106 --docker "host=tcp://192.168.3.106:2375"
добавить подключение к удаленному хосту через протокол TCP
docker context create rpi-106 --docker "host=ssh://lifailon@192.168.3.106:2121"
добавить подключение к удаленному хосту через протокол SSH
docker context ls
список всех доступных контекстов (*
отображается текущий)
docker context inspect rpi-106
конфигурация указанного контекста
docker context use rpi-106
переключиться на выбранный контекст (возможно на прямую взаимосдействовать с удаленным Docker Engine через cli, за исключением взаимодействия через Socket)
docker context rm rpi-106
удалить контекст
dcm
dcm
(Docker Context Manager) - это простая реализация TUI интерфейса на базе fzf, для переключения контекста из перечисленного списка хостов. Т.к. для использовать TUI интерфейсов требуется взаимодействие с сокетом, недостаточно изменить только переменную DOCKER_HOST
или использовать команду docker context
, по этому используется механиз ssh forwarding
, который пробрасывает сокета с удаленной машины в локальную систему (используется временный файл, с изменением пути в переменной окружения).
DCM_SSH_HOSTS=localhost,192.168.3.105,192.168.3.106
DCM_SSH_USER=lifailon
DCM_SSH_PORT=2121
DCM_SOCKET_PATH=/tmp/remote-docker.sock
# dcm (Docker Context Manager)
# lazydocker over dcm
ctop
scoop install ctop
установка в Windows (https://github.com/bcicen/ctop)
ctop
отображает сводную таблицу (top) CPU, MEM, NET RX/TX, IO R/W
o
- графики
l
- логи контейнера в реальном времени
s
- stop/start
R
- remove после stop
p
- pause/unpause
r
- restart
e
- exec shell
Dockly
npm install -g dockly
TUI интерфейс на базе Node.js и Blessed.js
docker run -it --rm -v /var/run/docker.sock:/var/run/docker.sock lirantal/dockly
запуск в Docker
dockly
LazyDocker
scoop install lazydocker || choco install lazydocker
установка в Windows (https://github.com/jesseduffield/lazydocker)
lazydocker
Lazyjournal
curl -sS https://raw.githubusercontent.com/Lifailon/lazyjournal/main/install.sh | bash
установка в Unix
Invoke-RestMethod https://raw.githubusercontent.com/Lifailon/lazyjournal/main/install.ps1 | Invoke-Expression
установка в Windows
lazyjournal
lazyjournal --help
lazyjournal --version
Push
docker login
git clone https://github.com/Lifailon/TorAPI
cd TorAPI
docker build -t lifailon/torapi .
собрать образ для публикации на Docker Hub
docker push lifailon/torapi
загрузить образ на Docker Hub
docker pull lifailon/torapi:latest
загрузить образ из Docker Hub
docker run -d --name TorAPI -p 8443:8443 lifailon/torapi:latest
загрузить образ и создать контейнер
Buildx
sudo apt install docker-buildx -y
установить систему для мультиплатформенной сборки
docker buildx create --use --name multiarch-builder --driver docker-container
оздать и запустить сборщик в контейнере
docker buildx ls
docker buildx rm multiarch-builder
go list -u -m all && go get -u ./...
обновить пакеты приложения на Go
Добавить аргументы в Dockerfile и передать их в переменные для сборки:
ARG TARGETOS TARGETARCH
RUN CGO_ENABLED=0 GOOS=${TARGETOS} GOARCH=${TARGETARCH} go build -o /logporter
docker buildx build –platform linux/amd64,linux/arm64 . docker buildx build –platform linux/amd64,linux/arm64 -t lifailon/logporter –push .
npm outdated && npm update --save
обновить паеты node.jd приложения
Передаем аргументы в параметры платформы для образа:
ARG TARGETOS TARGETARCH
FROM --platform=${TARGETOS}/${TARGETARCH} node:alpine AS build
Dockerfile
FROM
указывает базовый образ, на основе которого будет создаваться новый образ
LABEL
добавляет метаданные к образу в формате ключ-значение
ENV
устанавливает переменные окружения, которые будут доступны внутри контейнера со значениями по умолчанию (можно переопределить через -e
, который имеет повышенный приоритет)
ARG
определяет переменные, которые могут быть переданы и доступны только на этапе сборки образа (выполнения инструкций в dockerfile через docker build --build-arg
) и недоступны в контейнере
USER
устанавливает пользователя, от имени которого будут выполняться следующие команды
WORKDIR
устанавливает рабочий каталог внутри контейнера для последующих команд
SHELL
задает командную оболочку, которая будет использоваться для выполнения команд RUN, CMD и ENTRYPOINT (по умолчанию /bin/sh -c
, например на SHELL ["/bin/bash", "-c"]
)
RUN
выполняет команды в контейнере во время сборки образа
COPY
копирует файлы и каталоги из указанного источника на локальной машине в файловую систему контейнера
ADD
копирует файлы и каталоги в контейнер, поддерживает загрузку файлов из URL и автоматическое извлечение архивов
CMD
определяет команду, которая будет выполняться при запуске контейнера, может быть переопределена при запуске
ENTRYPOINT
задает основную команду, которая будет выполняться при запуске контейнера без возможности ее переопредиления, но с возможностью передачи аргументов
VOLUME
создает точку монтирования для хранения данных в хостовой системе
EXPOSE
указывает, какие порты контейнера будут доступны извне
HEALTHCHECK
определяет команду для проверки состояния работающего контейнера
ONBUILD
задает команды, которые будут автоматически выполнены при сборке дочерних образов
STOPSIGNAL
определяет сигнал, который будет отправлен контейнеру для его остановки
Пример использования ADD
для загрузки из url
:
# Загрузка и распаковка архива напрямую из GitHub
# Установка инструмента для работы с архивами
&& \
&& \
Пример сборки приложения на node.js
:
git clone https://github.com/Lifailon/TorAPI
cd TorAPI
nano Dockerfile
# Указать базовый образ для сборки, который содержит последнюю версию Node.js и npm
FROM node:alpine AS build
# Установить рабочую директорию для контейнера (все последующие команды будут выполняться относительно этой директории)
WORKDIR /torapi
# Копирует файл package.json из текущей директории на хосте в рабочую директорию
COPY package.json ./
# Запускает команду (используя оболочку по умолчанию) для установки зависимостей, указанных в package.json
RUN npm install && npm update && npm cache clean --force
# Копирует все файлы из текущей директории на хосте в рабочую директорию контейнера
COPY . .
# Создает новый рабочий образ для создания контейнера
FROM node:alpine
WORKDIR /torapi
# Копирует только те файлы, которые необходимые для работы приложения
COPY --from=build /torapi/node_modules ./node_modules
COPY --from=build /torapi/package.json ./package.json
COPY --from=build /torapi/main.js ./main.js
COPY --from=build /torapi/swagger/swagger.js ./swagger/swagger.js
COPY --from=build /torapi/category.json ./category.json
# Определить переменные окружения по умолчанию, которые могут быть переопределены при запуске контейнера
ENV PORT=8443
ENV PROXY_ADDRESS=""
ENV PROXY_PORT=""
ENV USERNAME=""
ENV PASSWORD=""
# Открывает порт 8443 для доступа к приложению из контейнера
EXPOSE $PORT
# Определить команду для проверки работоспособности контейнера (для примера)
# Проверка будет запускаться каждые 120 секунд, если команда не завершится за 30 секунд, она будет считаться неуспешной, если команда не проходит 3 раза подряд, контейнер будет помечен как нездоровый
# Docker будет ждать 5 секунд после старта контейнера перед тем, как начать проверки здоровья
HEALTHCHECK --interval=120s --timeout=30s --retries=3 --start-period=10s \
CMD ["sh", "-c", "npm start -- --test"]
# Устанавливает команду по умолчанию для запуска приложения при запуске контейнера
ENTRYPOINT ["sh", "-c", "npm start -- --port $PORT --proxyAddress $PROXY_ADDRESS --proxyPort $PROXY_PORT --username $USERNAME --password $PASSWORD"]
docker build -t torapi .
собрать образ из dockerfile
Compose
version=
Uptime-Kuma
Uptime-Kuma - веб-интерфейс для мониторинга доступности хостов (ICMP), портов (TCP), веб-контент (HTTP/HTTPS запросы), gRPC, DNS, контейнеры Docker, базы данных и т.д с поддержкой уведомлений в Telegram.
nano docker-compose.yml
services:
uptime-kuma:
image: louislam/uptime-kuma:latest
container_name: uptime-kuma
volumes:
- uptime-kuma:/app/data
ports:
- "8081:3001"
restart: unless-stopped
volumes:
uptime-kuma:
docker-compose up -d
kuma_db=$(docker inspect uptime-kuma | jq -r .[].Mounts.[].Source)
место хранения конфигураций в базе SQLite
cp $kuma_db/kuma.db $HOME/uptime-kuma-backup.db
Сгенерировать API ключ: http://192.168.3.101:8081/settings/api-keys
curl -u":uk1_fl3JxkSDwGLzQuHk2FVb8z89SCRYq0_3JbXsy73t" http://192.168.3.101:8081/metrics
Пример конфигурации для Prometheus:
scrape_configs:
- job_name: uptime-kuma
scrape_interval: 30s
metrics_path: /metrics
static_configs:
- targets:
- '192.168.3.101:8081'
basic_auth:
password: uk1_fl3JxkSDwGLzQuHk2FVb8z89SCRYq0_3JbXsy73t
Dashboard для Grafana - Uptime Kuma - SLA/Latency/Certs (id 18667)
Uptime-Kuma-Web-API - оболочка API и Swagger документация написанная на Python с использованием FastAPI и Uptime-Kuma-API.
nano docker-compose.yml
services:
uptime-kuma-web:
container_name: uptime-kuma-frontend
image: louislam/uptime-kuma:latest
ports:
- "8081:3001"
restart: unless-stopped
volumes:
- uptime-kuma:/app/data
uptime-kuma-api:
container_name: uptime-kuma-backend
image: medaziz11/uptimekuma_restapi
volumes:
- uptime-api:/db
restart: unless-stopped
environment:
- KUMA_SERVER=http://uptime-kuma-web:3001
- KUMA_USERNAME=admin
- KUMA_PASSWORD=KumaAdmin
- ADMIN_PASSWORD=KumaApiAdmin
depends_on:
- uptime-kuma-web
ports:
- "8082:8000"
volumes:
uptime-kuma:
uptime-api:
docker-compose up -d
OpenAPI Docs (Swagger): http://192.168.3.101:8082/docs
TOKEN=
|
|
Dozzle
Dozzle (https://github.com/amir20/dozzle) - легковесное приложение с веб-интерфейсом для мониторинга журналов Docker (без хранения).
mkdir dozzle && cd dozzle && mkdir dozzle_data
echo -n DozzleAdmin | shasum -a 256
получить пароль в формате sha-256 и передать в конфигурацию
echo '
users:
admin:
name: "admin"
password: "a800c3ee4dac5102ed13ba673589077cf0a87a7ddaff59882bb3c08f275a516e"
' > ./dozzle_data/users.yml
Запускаем контейнер:
echo '
services:
dozzle:
image: amir20/dozzle:latest
container_name: dozzle
restart: unless-stopped
volumes:
- /var/run/docker.sock:/var/run/docker.sock
- ./dozzle_data:/data
ports:
- 9090:8080
environment:
DOZZLE_AUTH_PROVIDER: simple
# Доступ к удаленному хосту через Docker API (tcp socket)
# DOZZLE_REMOTE_HOST: tcp://192.168.3.102:2375|mon-01
' > docker-compose.yml
docker-compose up -d
Watchtower
Watchtower - следить за тегом latest
в реестре Docker Hub и обновлять контейнер, если он станет устаревшим.
echo "
services:
watchtower:
image: containrrr/watchtower
container_name: watchtower
environment:
- WATCHTOWER_LIFECYCLE_HOOKS=1
- WATCHTOWER_NOTIFICATIONS=shoutrrr
- WATCHTOWER_NOTIFICATION_URL=telegram://<BOT_API_KEY>@telegram/?channels=<CHAT/CHANNEL_ID>
# - WATCHTOWER_HTTP_API_TOKEN=demotoken
volumes:
- /var/run/docker.sock:/var/run/docker.sock
command: --interval 600 --http-api-metrics --http-api-token demotoken # --http-api-update # --http-api-periodic-polls
ports:
- 8070:8080
restart: unless-stopped
" > docker-compose.yml
docker-compose up -d
Проброс потра используется для получения метрик через Prometheus. Если нужно запускать обновления только через API, нужно добавить команду --http-api-update
, или указать команду --http-api-periodic-polls
, что бы использовать ручное и автоматическое обновление.
curl -H "Authorization: Bearer demotoken" http://192.168.3.101:8070/v1/metrics
получить метрики
curl -H "Authorization: Bearer demotoken" http://192.168.3.101:8070/v1/update
проверить и запустить обновления
Добавить scrape_configs
в prometheus.yml
для сбора метрик:
scrape_configs:
- job_name: watchtower
scrape_interval: 5s
metrics_path: /v1/metrics
bearer_token: demotoken
static_configs:
- targets:
- '192.168.3.101:8070'
docker-compose restart prometheus
Чтобы исключить обновления, нужно добавить “lable” при запуске контейнера:
Portainer
curl -L https://downloads.portainer.io/portainer-agent-stack.yml -o portainer-agent-stack.yml
скачать yaml файл
version_update=$(cat portainer-agent-stack.yml | sed "s/2.11.1/latest/g")
printf "%s\n" "$version_update" > portainer-agent-stack.yml
обновить версию в yaml файле на последнюю доступную в Docker Hub (2.19.5)
docker stack deploy -c portainer-agent-stack.yml portainer
развернуть в кластере swarm (на каждом node будет установлен агент, который будет собирать данные, а на manager будет установлен сервер с web панелью)
https://192.168.3.101:9443
docker run -d --name portainer_agent -p 9001:9001 --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v /var/lib/docker/volumes:/var/lib/docker/volumes portainer/agent:2.19.5
установить агент на удаленный хост
https://192.168.3.101:9443/#!/endpoints добавить удаленный хост по URL 192.168.3.102:9001
docker volume create portainer_data
создать volume для установки локального контейнера (не в кластер swarm)
docker create -it --name=portainer -p 9000:9000 --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer
создать локальный контейнер
docker start portainer
http://192.168.3.101:9000
Docker.DotNet
# Импорт библиотеки Docker.DotNet (https://nuget.info/packages/Docker.DotNet/3.125.15)
Add-Type -Path "$home\Documents\Docker.DotNet-3.125.15\lib\netstandard2.1\Docker.DotNet.dll"
# Указываем адрес удаленного сервера Docker, на котором слушает сокет Docker API
$config = [Docker.DotNet.DockerClientConfiguration]::new("http://192.168.3.102:2375")
# Подключаемся клиентом
$client = $config.CreateClient()
# Получить список методов класса клиента
$client | Get-Member
# Выводим список контейнеров
$containers = $client.Containers.ListContainersAsync([Docker.DotNet.Models.ContainersListParameters]::new()).GetAwaiter().GetResult()
# Забираем id по имени
$kuma_id = .id
# Получить список дочерних методов
$client.Containers | Get-Member
# Остановить контейнер по его id
$StopParameters = [Docker.DotNet.Models.ContainerStopParameters]::new()
$client.Containers.StopContainerAsync($kuma_id, $StopParameters)
# Запустить контейнер
$StartParameters = [Docker.DotNet.Models.ContainerStartParameters]::new()
$client.Containers.StartContainerAsync($kuma_id, $StartParameters)
Swarm
docker swarm init
инициализировать manager node
и получить токен для подключения worker node
(на сервере)
docker swarm join-token worker
получить токен для подключения worker
или manager
docker swarm join --token SWMTKN-1-1a078rm7vuenefp6me84t4swqtvdoveu6dh2pw34xjcf2gyw33-81f8r32jt3kkpk4dqnt0oort9 192.168.3.101:2377
подключение на worker node (на клиенте)
docker node ls
отобразить список node на manager node
docker node inspect u4u897mxb1oo39pbj5oezd3um
подробная информация (конфигурация) о node по id
docker swarm leave --force
выйти из кластера на worker node
(на manager node
изменится статус с Ready
на Down
)
docker node rm u4u897mxb1oo39pbj5oezd3um
удалить node (со статусом Down
) на manager node
docker swarm init --force-new-cluster
заново инициализировать кластер (если упал, при наличии одного менеджера)
docker pull lifailon/torapi:latest
nano docker-stack.yml
services:
torapi:
image: lifailon/torapi:latest
labels:
- com.centurylinklabs.watchtower.enable=false
deploy:
# Режим развертывания
mode: replicated # Фиксированное число реплик (по умолчанию)
# mode: global # Одна копия на каждой ноде
replicas: 2 # Суммарное количество реплик на всех нодах (только в режиме replicated)
# Политика перезапуска
restart_policy:
condition: on-failure # Перезапускать только при ошибках (ненулевой код выхода)
# condition: any # Всегда перезапускать (аналог always в docker-compose)
delay: 5s # Задержка перед перезапуском (по умолчанию, 5 секунд)
max_attempts: 3 # Максимум попыток перезапуска (по умолчанию, бесконечно)
window: 30s # Время для оценки успешности перезапуска (по умолчанию, 0)
# Политика обновления (старые контейнеры не удаляются сразу, а только останавливаются и создаются новые с обновленными образами)
update_config:
parallelism: 1 # Количество реплик для одновременного обновения (по умолчанию, 1)
delay: 10s # Задержка между обновлениями (по умолчанию, 0 секунд)
order: start-first # Порядок: start-first (сначала новый) или stop-first (сначала старый, по умолчанию)
failure_action: rollback # Действие при ошибке: continue, rollback, pause (по умолчанию, pause)
monitor: 60s # Время мониторинга после обновления (по умолчанию, 0)
# Политика отката (конфигурация аналогична update_config) при статусе unhealthy на новых контейнерах после update_config
rollback_config:
parallelism: 1
delay: 10s
order: stop-first
failure_action: pause
monitor: 60s
# Ограничения размещения
# placement:
# constraints:
# - "node.role==worker" # Только на worker-нодах
# - "node.labels.env==dev" # Только на нодах с указаной меткой
# Ограничения ресурсов
resources:
limits:
cpus: "0.5" # Лимит CPU (0.5 = 50%)
memory: 256M # Лимит RAM
reservations:
cpus: "0.1" # Гарантированные CPU
memory: 128M # Гарантированная RAM
# Режим балансировки (конечной точки)
endpoint_mode: vip # Балансировка через виртуальный IP внутри сети swarm
# endpoint_mode: dnsrr # Балансировка через DNS в режиме Round-Robin
# Проверка здоровья (задается вне deploy)
# Необходимо для работы:
# 1. endpoint_mode - при статусе unhealthy исключает контейнер из балансировки
# 2. restart_policy - пытается перезапустить контейнер
# 3. update_config - ждет успешного прохождения healthcheck (статус healthy) перед обновлением следующей реплики или запускает rollback_config
healthcheck:
test: # HTTP проверка статуса ответа (0 = успех, 1 = ошибка)
# test: ["CMD", "nc", "-z", "127.0.0.1 8443"] # TCP проверка порта
interval: 30s # Интервал между проверками (по умолчанию, 30 секунд)
timeout: 10s # Время ожидания ответа (по умолчанию, 30 секунд)
retries: 3 # Количество попыток перед объявлением статуса unhealthy
start_period: 15s # Время на инициализацию перед проверками (по умолчанию, 0 секунд)
ports:
- target: 8443 # Порт контейнера
published: 8443 # Порт на хосте
protocol: tcp # Протокол (tcp/udp)
# Режим балансировки
mode: ingress # Балансировка через Swarm (только в режиме vip)
# mode: host # Балансировка через хостовую систему (прямой проброс, только в режиме dnsrr)
volumes:
# - type: config # Swarm Configs (статические конфиги, права только на чтение)
# - type: secret # Swarm Secrets (пароли, TLS-ключи. и т.п.)
# - type: nfs # Удалённый NFS-сервер для общих данных в кластере
# - type: tmpfs # RAM Временные файлы (/tmp)
# - type: bind # Файлы на хосте (только если файлы есть на всех нодах)
- type: volume # Управляется Docker (данные БД, кеш)
source: torapi
target: /rotapi
volumes:
torapi:
docker stack deploy -c docker-stack.yml TorAPI
собрать стек сервисов (на worker node
появится контейнер TorAPI_torapi.1.ug5ngdlqkl76dt
)
docker stack ls
отобразить список стеков (название стека и количество в нем сервисов, без учета реплик)
docker stack services TorAPI
аналог docker service ls
, но для отображения списока сервисов указанного стека
docker service ls
отобразить список всех сервисов для всех стеков (имя формате <stackName_serviceName>
, с количеством и статусом реплик)
docker stack ps TorAPI
статистика работы всех сервисов внутри стека (аналог docker ps
)
docker service ps TorAPI_torapi
аналог docker stack ps
, но для отображения статистики указанного сервиса
docker service logs TorAPI_torapi -fn 0
просмотреть логи сервиса по всех репликам кластера одновременно
docker node update --label-add dev=true iebj3itgan6xso8px00i3nizc
добавить ноду в группу по метке для линковки при запуске
docker service update --image lifailon/torapi:fake TorAPI_torapi
запустить обновление образа для сервиса
docker service scale TorAPI_torapi=3
масштабировать сервис до указанного числа реплик
docker service inspect --pretty TorAPI_torapi
отобразить конфигурацию сервиса
docker service inspect TorAPI_torapi
отобразить подробную конфигурацию сервиса в формате json
docker stack rm TorAPI
удалить стек (не требует остановки контейнеров)
Kubernetes
K3s
K3s — это полностью совместимый дистрибутив Kubernetes в формате единого двоичного файле, который удаляет хранение драйверов и поставщика облачных услуг, а также добавляет поддержку sqlite3
для backend
хранилища от компании Rancher Labs (SUSE).
curl -sfL https://get.k3s.io | sh -
установка службы в systemd и утилит kubectl
, crictl
, k3s-killall.sh
и k3s-uninstall.sh
sudo chmod 644 /etc/rancher/k3s/k3s.yaml && sudo chown $(id -u):$(id -g) /etc/rancher/k3s/k3s.yaml
назначить права на конфигурацию текущему пользователю
sudo cat /var/lib/rancher/k3s/server/node-token
токен авторизации
curl -sfL https://get.k3s.io | K3S_URL=https://192.168.3.105:6443 K3S_TOKEN=<TOKEN> sh -
передать переменные окружения K3S_URL
и K3S_TOKEN
токен для установки на рабочие ноды
sudo nano /boot/firmware/cmdline.txt
включить cgroups v1 вместо v2 => systemd.unified_cgroup_hierarchy=0 cgroup_enable=memory cgroup_memory=1
k3s kubectl get nodes
отобразить список нод в кластере
sudo k3s crictl ps
отобразить список всех запущенных контейнеров, включая системные для работы класетра
sudo k3s etcd-snapshot save
создать снапшот etcd (распределённого key-value хранилища, которое отвечает за состояние всего кластера Kubernetes)
sudo k3s etcd-snapshot restor
восстановление кластера из снапшота
Dashboard
Micro8s
Micro8s - это полностью совместимый и легкий Kubernetes в одном пакете, работающий на 42 разновидностях Linux от компании Canonical.
snap install microk8s --classic
установка
microk8s status --wait-ready
отобразить статус работы (дождаться инициализации служб Kubernetes) и список дополнений
microk8s start
запустить или остановить (stop) MicroK8s и его службы
microk8s enable dashboard
запустить dashboard
microk8s enable dns
установка обновлений
sudo usermod -a -G microk8s $USER && mkdir -p ~/.kube && chmod 0700 ~/.kube
добавить текущего пользователя в группу управления microk8s (создается при установке)
alias kubectl='microk8s kubectl'
добавить псевдоним, для использования команды kubectl через microk8s
kubectl get nodes
отобразить список нод
kubectl config view --raw > $HOME/.kube/config
передать конфигурацию в MicroK8s, для использования с существующим kubectl
Minikube
Minikube - это локальный кластер Kubernetes от создателя оригинального k8s.
minikube start --vm-driver=hyperv --memory=4g --cpus=2
запустить кластер и/или создать виртуальную машину
minikube status
статус работы кластера
minikube stop
остановить кластер
minikube delete
удалить виртуальную машину
minikube profile list
узнать информацию о драйвере, ip, версии и количество Nodes
minikube dashboard --port 8085
запустить api сервер и интерфейс состояния
minikube addons list
список доступных дополнений и их статус работы
minikube addons enable metrics-server
активировать дополнение, которое предоставляет метрики для HPA, такие как загрузка процессора и использование памяти
kubectl get deployment metrics-server -n kube-system
текущее состояние развертывания metrics-server в кластере
kubectl get pod,svc -n kube-system
отобразить список системных подов и сервисов в кластере (pod/metrics-server-7fbb699795-wvfxb)
kubectl logs -n kube-system deployment/metrics-server
отобразить логи metrics-server
kubectl top pods
отобразить метрики на подах (CPU/MEM)
minikube addons disable metrics-server
отключить дополнение
minikube addons enable ingress
включить Nginx Ingress Controller
kubectl get pods -n kube-system
отобразить список системных подов (должен появиться ingress-nginx-controller)
minikube tunnel --alsologtostderr
создает виртуальный LoadBalancer в Minikube, для перенаправления трафика на нужный сервис, вместо использования NodePort
kubectl
Node
- физическая или виртуальная машина, на которой работает Kubernetes-кластер, каждый узел выполняет контейнеры и поды
Pod
- содержит один или несколько контейнеров работающих вместе, которые всегда разворачиваются в кластере
Deployment
- управляет состоянием подов и отвечает за масштабируемость (автоматический перезапуск контейнеров и замена подов при сбоях), чтобы их количество соответствовало желаемому числу реплик (ReplicaSet)
Service
- абстракция, которая отвечает за балансировку нагрузки (обрабатывает входящий трафик и распределяет его между подами), а также обеспечивая стабильный IP-адрес и DNS-имя для общения с ними
kubectl config view
отобразить конфигурацию кластера (настройка подключения kubectl к Kubernetes, которое взаимодействует с приложением через конечные точки REST API)
sudo cp ~/.minikube/ca.crt /usr/local/share/ca-certificates/minikube.crt && update-ca-certificates && openssl verify /usr/local/share/ca-certificates/minikube.crt
установка сертификатов в Linux
Import-Certificate -FilePath "$HOME\.minikube\ca.crt" -CertStoreLocation Cert:\LocalMachine\Root && Import-Certificate -FilePath "$HOME\.minikube\profiles\minikube\client.crt" -CertStoreLocation Cert:\CurrentUser\My && ls Cert:\LocalMachine\Root | Where-Object Subject -Match "minikube"
установка сертификатов в Windows
curl -k https://192.168.27.252:8443/version
удаленный доступ к API Kubernetes (адрес и порт можно взять из config view)
kubectl get namespaces
вывести все namespace
kubectl get nodes
отобразить список node и их статус работы, роль (master/node), время запуска и версию
kubectl get events
отобразить логи кластера
kubectl create deployment test-node --image=registry.k8s.io/e2e-test-images/agnhost:2.39 -- /agnhost netexec --http-port=8080
создать под из указанного Docker образа (запускает контейнер и внутри него команду для запуска веб-сервера на порту 8080)
kubectl get deployments
статус всех Deployments (контроллеров), которые в свою очередь управляют Pod-ами (RADY - количество экземпляров-реплик, UP-TO-DATE — количество реплик, которые были обновлены)
kubectl get pods
статус всех подов
kubectl get pods -o go-template --template '{{range .items}}{{.metadata.name}}{{"\n"}}{{end}}'
получить список имен всех под через шаблон фильтра
kubectl proxy
запустить прокси сервер для локального взаимодействия с частной сетью кластера через API (без авторизации), где автоматически создаются конечные точки для каждого пода в соответствии с его именем
curl http://localhost:8001
отобразить список всех конечных точек (endpoints)
curl http://localhost:8001/api/v1/namespaces/default/pods/test-node-69f66d85f8-2d2tv:8080/proxy/
конечная точка, которая проксирует запрос внутрь пода по его имени (напрямую к приложению в контейнере)
kubectl port-forward pod/test-node-69f66d85f8-2d2tv 8080:8080
запустить сервер для проброса порта из пода
curl http://localhost:8080
kubectl expose deployment test-node --type=LoadBalancer --port=8080
предоставить pod как service (пробросить порт из частной сети Kubernetes) в режиме балансировки нагрузки
--type=ClusterIP
- открывает доступ к сервису по внутреннему IP-адресу в кластере (по умолчанию), этот тип делает сервис доступным только внутри кластера
--type=NodePort
- открывает сервис на том же порту каждого выбранного узла в кластере с помощью NAT, и делает сервис доступным вне кластера через <NodeIP>:<NodePort>
(надмножество ClusterIP)
--type=LoadBalancer
- создает внешний балансировщик нагрузки и назначает фиксированный внешний IP-адрес для сервиса (надмножество NodePort)
--type=ExternalName
- открывает доступ к сервису по содержимому поля externalName (например, foo.bar.example.com), возвращая запись CNAME с его значением
kubectl get services
отобразить список сервисов (CLUSTER-IP, EXTERNAL-IP и PORT 8080:32467/TCP), которые принимают внешний трафик
kubectl describe services test-node
отобразить настройки сервиса для внешнего доступа (ip, тип сервиса и конечные точки)
curl http://192.168.27.252:32467
проверить доступность приложения
kubectl describe pods test-node
отобразить какие контейнеры находятся внутри пода, а также какие образы и команды (/agnhost netexec –http-port=8080) использовались при сборке этих контейнеров
kubectl logs test-node-69f66d85f8-2d2tv
отобразить логи контейнера в поде (сообщения, которые приложение отправляет в standard output)
kubectl exec test-node-69f66d85f8-2d2tv -c agnhost -- ls -lha
выполнить команду в контейнере указанного пода
kubectl exec test-node-69f66d85f8-2d2tv -c agnhost -- env
отобразить список глобальных переменных в контейнере
kubectl exec -it test-node-69f66d85f8-2d2tv -c agnhost -- curl http://localhost:8080
проверить доступность приложения внутри контейнера
kubectl exec -it test-node-69f66d85f8-2d2tv -c agnhost -- bash
запустить bash сессию в контейнере пода
kubectl get rs
состояние реплик (ReplicaSet) для всех deployment
kubectl scale deployments/test-node --replicas=4
масштабируем deployment до 4 реплик
kubectl scale deployments/test-node --replicas=2
уменьшить deployment до 2 реплик подов
kubectl describe deployments/test-node
изменения фиксируется в конфигурации deployment -> Events (Scaled down replica set test-node-69f66d85f8 from 4 to 2)
kubectl get rs
проверить текущее количество под в deployment и их состояние (DESIRED - желаемое количество экземпляров-реплик и CURRENT - текущее количество реплик)
kubectl get endpoints test-node
отобразить на какие адреса (ip и порт) подов перенаправляется трафик сервиса test-node
kubectl get pods -o wide
отобразить количество всех подов (у каждого пода разное время работы в AGE и свой ip-адрес)
kubectl logs -l app=test-node --follow
выводить лог в реальном времени для всех запущенных репликах подов указанного deployment
PODS_NAME=$(kubectl get pods -l app=test-node -o jsonpath="{.items[*].metadata.name}")
получаем названия всех подов указанного deployment
for POD_NAME in $PODS_NAME; do kubectl logs $POD_NAME --follow | awk -v pod=$POD_NAME '{print "[" pod "] " $0}' & done
отобразить лог приложения конкретного пода по имени
NODE_PORT="$(kubectl get services test-node -o go-template='{{(index .spec.ports 0).nodePort}}')"
получить порт указанного сервиса
for i in {1..5}; do curl -s "http://$(minikube ip):$NODE_PORT"; echo ""; done
каждый запрос будет попадать на разный под
kubectl delete service test-node
удалить службу
kubectl delete deployment test-node
удалить под
kubectl run busybox --rm -it --image=busybox:latest -- /bin/sh
создание временного пода для отладки (контейнер busybox, который можно использовать для отладки сети и команд curl, ping и т.д.)
kubectl create deployment kubernetes-bootcamp --image=gcr.io/google-samples/kubernetes-bootcamp:v1 \
kubectl expose deployment/kubernetes-bootcamp –type=“NodePort” –port 8080
kubectl set image deployments/kubernetes-bootcamp kubernetes-bootcamp=docker.io/jocatalin/kubernetes-bootcamp:v2
выполнение плавающего обновления версии образа работающего контейнера
kubectl rollout status deployments/kubernetes-bootcamp
проверить статус обновления
kubectl set image deployments/kubernetes-bootcamp kubernetes-bootcamp=gcr.io/google-samples/kubernetes-bootcamp:v10
выполнить обновление на несуществующую версию
kubectl rollout undo deployments/kubernetes-bootcamp
откатить deployment к последней работающей версии (к предыдущему известному состоянию в образе v2)
kubectl get configmap
Получить все ConfigMap
kubectl describe configmap kube-root-ca.crt
отобразить содержимое корневого сертифика
Deployment
echo '
apiVersion: apps/v1
kind: Deployment
metadata:
name: torapi # ммя Deployment, который управляет созданием подов (Pods)
spec:
replicas: 2 # количество реплик (2 пода с одинаковыми настройками)
selector:
matchLabels:
app: torapi # определяет, какие поды будут управляться этим Deployment
template:
metadata:
labels:
app: torapi # метка, которая связывает этот шаблон с селектором выше
spec:
containers:
- name: torapi # имя контейнера внутри пода
image: lifailon/torapi:latest # используемый образ контейнера
ports:
- containerPort: 8443 # порт, который будет открыт внутри контейнера
resources: # ограничения и минимальные требования по ресурсам
requests:
cpu: "100m" # Минимальный запрашиваемый процессор (100 милли-ядра)
memory: "64Mi" # Минимальный запрашиваемый объем оперативной памяти (64 МБайт)
limits:
cpu: "200m" # Максимально доступное процессорное время
memory: "256Mi" # Максимальный объем памяти
livenessProbe: # Проверка работоспособности контейнера
httpGet:
path: /api/provider/list # endpoint контейнера, по которому проверяется работоспособность
port: 8443 # порт, на котором доступен этот endpoint внутри контейнера
initialDelaySeconds: 5 # ждет 5 секунд после запуска контейнера перед первой проверкой
periodSeconds: 10 # интервал проверки (повторяет проверку каждые 10 секунд)
timeoutSeconds: 3 # максимальное время ожидания ответа
failureThreshold: 3 # количество неудачных попыток перед рестартом
' > torapi-deployment.yaml
kubectl apply -f torapi-deployment.yaml
echo '
apiVersion: v1
kind: Service
metadata:
name: torapi-service
namespace: default
spec:
selector:
app: torapi
ports:
- protocol: TCP
port: 8444 # Внутренний порт сервиса
targetPort: 8443 # Порт контейнера
nodePort: 30000 # Фиксированный внешний порт (valid range 30000-32767)
type: LoadBalancer
' > torapi-service.yaml
kubectl apply -f torapi-service.yaml
kubectl get pods
будет создано два пода
kubectl logs torapi-54775d94b8-vp26b
отобразить логи пода, будут идти запросы от 10.244.0.1 (kube-probe/1.32) для проверки доступности
kubectl exec -it torapi-54775d94b8-vp26b -- npm --version
вывести версию npm внутри контейнера
kubectl get services torapi-service
kubectl describe service torapi-service
узнать Server Port, TargetPort (container) и NodePort
kubectl port-forward --address 0.0.0.0 service/torapi-service 8444:8444
curl http://192.168.3.100:8444/api/provider/list
HPA
HPA
(Horizontal Pod Autoscaling) - горизонтальное масштабирование позволяет автоматически увеличивать или уменьшать количество реплик (подов) в зависимости от текущей нагрузки по показателям метрик, получаемых из metrics-server
.
kubectl apply -f https://github.com/kubernetes-sigs/metrics-server/releases/latest/download/components.yaml
активировать metrics-server в Docker-Desktop (загрузить и применить конфигурацию)
kubectl logs -n kube-system deployment/metrics-server
проверить логи metrics-server
kubectl get deployment metrics-server -n kube-system
отобразить статус работы metrics-server
kubectl top nodes
отобразить метрики ресурсов для всех узлов в кластере
kubectl edit deployment metrics-server -n kube-system
отключить проверку TLS
spec:
containers:
- args:
- --kubelet-insecure-tls
kubectl rollout restart deployment metrics-server -n kube-system
перезапустить metrics-server
echo '
apiVersion: autoscaling/v2
kind: HorizontalPodAutoscaler
metadata:
name: torapi-hpa
namespace: default
spec:
scaleTargetRef:
apiVersion: apps/v1
kind: Deployment
name: torapi
minReplicas: 1
maxReplicas: 5
metrics:
- type: Resource
resource:
name: cpu
target:
type: Utilization
averageUtilization: 50 # когда среднее использование CPU превышает 50%, будет увеличено количество реплик, чтобы уменьшить нагрузку на поды
' > torapi-hpa.yaml
kubectl apply -f torapi-hpa.yaml
kubectl get hpa
отобразить статус работы всех HPA и текущие таргеты (cpu: 1%/50%)
kubectl get pods
будет активен 1 под из 5 подов (вместо двух, изначально определенных в Deployment)
Ingress
Ingress
- это балансировщик нагрузки, который также управляет HTTP/HTTPS трафиком в кластер и направляет его к нужным логическим сервисам (маршрутизация запросов к разным конечным точкам в path).
kubectl apply -f https://raw.githubusercontent.com/kubernetes/ingress-nginx/main/deploy/static/provider/cloud/deploy.yaml
установить Ingress Controller
kubectl get pods -n ingress-nginx
kubectl get svc -n ingress-nginx
echo '
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: torapi-ingress
namespace: default
annotations:
nginx.ingress.kubernetes.io/rewrite-target: /
spec:
ingressClassName: nginx
rules:
- host: torapi.local
http:
paths:
- path: /
pathType: Prefix
backend:
service:
name: torapi-service
port:
number: 8444
' > torapi-ingress.yaml
kubectl apply -f torapi-ingress.yaml
kubectl get ingress
отобразить статус работы ingress
Настраиваем HPA
на основе 100 и выше HTTP-запросов в секунду через метрику nginx_ingress_controller_requests
:
echo '
apiVersion: autoscaling/v2
kind: HorizontalPodAutoscaler
metadata:
name: torapi-hpa
namespace: default
spec:
scaleTargetRef:
apiVersion: apps/v1
kind: Deployment
name: torapi
minReplicas: 1
maxReplicas: 5
metrics:
- type: External
external:
metric:
name: nginx_ingress_controller_requests
target:
type: Value
value: "100"
' > torapi-hpa.yaml
kubectl apply -f torapi-hpa.yaml
kubectl get hpa
отобразить статус работы HPA
Secrets
kubectl create secret generic admin-password --from-literal=username=admin --from-literal=password=Secret2025
создать секрет в формате ключ-значение
kubectl create secret generic api-key --from-file=api-key.txt
создать секрет из содержимого файла
kubectl get secret
получить список всех секретов
kubectl describe secret admin-password
получить информацию о секрете (размер в байтах)
kubectl get secret admin-password -o yaml
получить содержимое секретов в кодировке base64
kubectl get secret admin-password -o jsonpath="{.data.password}" | base64 --decode
декодировать содержимое секрета
kubectl delete secret admin-password
удалить секрет
echo '
apiVersion: v1
kind: Secret
metadata:
name: admin-password
type: Opaque
data:
username: YWRtaW4=
password: U2VjcmV0MjAyNQ==
' > admin-secret.yaml
kubectl apply -f admin-secret.yaml
Передать secret в контейнер через переменные окружения:
apiVersion: v1
kind: Pod
metadata:
name: nginx-secret-test
spec:
containers:
- name: nginx-secret-test
image: nginx
env:
- name: USERNAME
valueFrom:
secretKeyRef:
name: admin-password # Имя секрета
key: username # Ключ в секрете
- name: PASSWORD
valueFrom:
secretKeyRef:
name: admin-password
key: password
Kompose
Kompose - это инструмент, который конвертируемт спецификацию docker-compose в файлы Kubernetes.
curl -L https://github.com/kubernetes/kompose/releases/download/v1.35.0/kompose-linux-amd64 -o kompose
установка
kompose --file docker-compose.yaml convert
конвертация
k9s
K9s - это TUI интерфейс для взаимодействия с кластерами Kubernetes (управление и чтение логов).
snap install k9s --devmode || wget https://github.com/derailed/k9s/releases/download/v0.32.7/k9s_linux_amd64.deb && apt install ./k9s_linux_amd64.deb && rm k9s_linux_amd64.deb
winget install k9s || scoop install k9s || choco install k9s || curl.exe -A MS https://webinstall.dev/k9s | powershell
GitHub API
$user = "Lifailon"
$repository = "ReverseProxyNET"
Invoke-RestMethod https://api.github.com/users/$($user)
получаем информацию о пользователе
Invoke-RestMethod https://api.github.com/users/$($user)/repos
получаем список последних (актуальные коммиты) 30 репозиториев указанного пользователя
Invoke-RestMethod https://api.github.com/users/$($user)/repos?per_page=100
получаем список последних (актуальные коммиты) 100 репозиториев указанного пользователя
Invoke-RestMethod https://api.github.com/repos/$($user)/$($repository)/contents
получаем содержимое корневой директории репозитория
Invoke-RestMethod https://api.github.com/repos/$($user)/$($repository)/contents/source/rpnet.cs
получаем содержимое файла в формате Base64
$commits = Invoke-RestMethod https://api.github.com/repos/$($user)/$($repository)/commits
получаем список коммитов
$commits[0].commit.message
читаем комментарий последнего коммита
$commits[0].commit.committer.date
получаем дату последнего коммита
Invoke-RestMethod https://api.github.com/repos/$($user)/$($repository)/commits/$($commits[0].sha)
получаем подробную информацию изменений о последнем коммите в репозитории
$releases_latest = Invoke-RestMethod "https://api.github.com/repos/$($user)/$($repository)/releases/latest"
получаем информацию о последнем релизе в репозитории
$releases_latest.assets.name
список приложенных файлов последнего релиза
$releases_latest.assets.browser_download_url
получаем список url для загрузки файлов
$($releases_latest.assets | Where-Object name -like "*win*x64*exe*").browser_download_url
фильтруем по ОС и разрядности
$(Invoke-RestMethod -Uri "https://api.github.com/repos/Lifailon/epic-games-radar/commits?path=api/giveaway/index.json")[0].commit.author.date
узнать дату последнего обновления файла в репозитории
$issues = Invoke-RestMethod https://api.github.com/repos/LibreHardwareMonitor/LibreHardwareMonitor/issues?per_page=500
получаем список открытых проблем в репозитории (получаем максимум 100 последних, по умолчанию забираем последние 30 issues)
$issue_number = $($issues | Where-Object title -match "PowerShell").number
получаем номер issue, в заголовке которого есть слово “PowerShell”
Invoke-RestMethod https://api.github.com/repos/LibreHardwareMonitor/LibreHardwareMonitor/issues/$($issue_number)/comments
отобразить список комментарием указанного issues
Invoke-RestMethod https://api.github.com/repos/LibreHardwareMonitor/LibreHardwareMonitor/languages
получаем список языков программирования, используемых в репозитории
Invoke-RestMethod https://api.github.com/repos/LibreHardwareMonitor/LibreHardwareMonitor/pulls
получаем список всех pull requests в репозитории
Invoke-RestMethod https://api.github.com/repos/LibreHardwareMonitor/LibreHardwareMonitor/forks
получаем список форков (forks)
Invoke-RestMethod https://api.github.com/repos/LibreHardwareMonitor/LibreHardwareMonitor/stargazers?per_page=4000
получаем список пользователей, которые поставили звезды репозиторию
Invoke-RestMethod https://api.github.com/repos/LibreHardwareMonitor/LibreHardwareMonitor/subscribers
получаем список подписчиков (watchers) репозитория
GitHub Actions
Runner (Agent)
mkdir actions-runner; cd actions-runner
Invoke-WebRequest -Uri https://github.com/actions/runner/releases/download/v2.316.1/actions-runner-win-x64-2.316.1.zip -OutFile actions-runner-win-x64-2.316.1.zip
загрузить пакет с Runner последней версии
if((Get-FileHash -Path actions-runner-win-x64-2.316.1.zip -Algorithm SHA256).Hash.ToUpper() -ne 'e41debe4f0a83f66b28993eaf84dad944c8c82e2c9da81f56a850bc27fedd76b'.ToUpper()){ throw 'Computed checksum did not match' }
проверить валидность пакета с помощью hash-суммы
Add-Type -AssemblyName System.IO.Compression.FileSystem ; [System.IO.Compression.ZipFile]::ExtractToDirectory("$PWD/actions-runner-win-x64-2.316.1.zip", "$PWD")
разархивировать
Remove-Item *.zip
удалить архив
./config.cmd --url https://github.com/Lifailon/egapi --token XXXXXXXXXXXXXXXXXXXXXXXXXXXXX
авторизовать и сконфигурировать сборщика с помощью скрипта (что бы на последнем пункте создать службу для управления сборщиком, нужно запустить консоль с правами администратора)
./run.cmd
запустить процесс (если не используется служба)
Get-Service *actions* | Start-Service
запустить службу
Get-Process *Runner.Listener*
./config.cmd remove --token XXXXXXXXXXXXXXXXXXXXXXXXXXXXX
удалить конфигурацию
Build (Pipeline)
name: build-game-list
on:
# Разрешить ручной запуск workflow через интерфейс GitHub
workflow_dispatch:
# Запускать workflow по расписанию каждый час в 00 минут
schedule:
- cron: '00 * * * *'
jobs:
Job_01:
# Указываем, что job будет выполняться на последней версии Ubuntu
runs-on: ubuntu-latest
steps:
# Шаги, которые будут выполнены в рамках этого job
- name: Checkout repository
# Клонирования репозиторий
uses: actions/checkout@v2
- name: Get content and write to file
# Выполняем скрипт PowerShell, расположенный в ./scripts/Get-GameList.ps1
run: pwsh -File ./scripts/Get-GameList.ps1
# Указываем, что команда должна выполняться в оболочке bash
shell: bash
- name: Commit and push changes
run: |
# Задаем имя пользователя и email для коммитов
git config --global user.name 'GitHub Actions'
git config --global user.email 'actions@github.com'
# Добавляем все изменения в индекс
git add .
# Делаем коммит с комментарием
git commit -m "update game list"
# Отправляем коммит в удаленный репозиторий
git push
CI
name: Docker Build and Push Image
on:
# Запусать при git push в ветку main
push:
branches:
- main
jobs:
build:
runs-on: ubuntu-latest
steps:
- name: Клонируем репозиторий
uses: actions/checkout@v2
- name: Авторизация в Docker Hub
uses: docker/login-action@v3
with:
username: ${{ secrets.DOCKER_USERNAME }}
password: ${{ secrets.DOCKER_PASSWORD }}
- name: Сборка образа и отправка в Docker Hub
run: |
docker build -t lifailon/torapi:latest .
docker push lifailon/torapi:latest
Logs
$(Invoke-RestMethod https://api.github.com/repos/Lifailon/TorAPI/actions/workflows).total_count
получить количество запусков всех рабочих процессов
$(Invoke-RestMethod https://api.github.com/repos/Lifailon/TorAPI/actions/workflows).workflows
подробная информации о запускаемых рабочих процессах
$actions_last_id = $(Invoke-RestMethod https://api.github.com/repos/Lifailon/TorAPI/actions/workflows).workflows[-1].id
получить идентификатор последнего события
$(Invoke-RestMethod https://api.github.com/repos/Lifailon/TorAPI/actions/workflows/$actions_last_id/runs).workflow_runs
подробная информация о последней сборке
$run_id = $(Invoke-RestMethod https://api.github.com/repos/Lifailon/TorAPI/actions/workflows/$actions_last_id/runs).workflow_runs.id
получить идентификатор запуска рабочего процесса
$(Invoke-RestMethod "https://api.github.com/repos/Lifailon/TorAPI/actions/runs/$run_id/jobs").jobs.steps
подробная информация для всех шагов выполнения (время работы и статус выполнения)
$jobs_id = $(Invoke-RestMethod "https://api.github.com/repos/Lifailon/TorAPI/actions/runs/$run_id/jobs").jobs[0].id
получить идентификатор последнего задания указанного рабочего процесса
$url = "https://api.github.com/repos/Lifailon/TorAPI/actions/jobs/$jobs_id/logs"
$headers =
Invoke-RestMethod -Uri $url -Headers $headers # получить логи задания
act
act - пользволяет запускать действия GitHub Actions локально.
version=
act --list
список доступных действий, указаных в файлах .github/workflows
act -j build
запуск указанного действия по Job ID (имя файла, не путать с названием Workflow)
act -n -j build
пробный запуск (–dry-run), без выполнения команд, для отображения всех выполняемых jobs и steps
act -e event.json -W .github/workflows/build.yml -P ubuntu-24.04=catthehacker/ubuntu:act-latest
запустить указанный файл workflow с переданным файлом переменных (предварительно определенных параметров) и указанным сборщиком
act -e event.json -W .github/workflows/build.yml -P ubuntu-24.04=catthehacker/ubuntu:act-latest --artifact-server-path $PWD/artifacts
примонтировать рабочий каталог в контейнер для сохранения артефактов
act --secret-file .secrets
act -s DOCKER_HUB_USERNAME=username -s DOCKER_HUB_PASSWORD=password
передать содержимое секретов
act push
симуляция push-ивента (имитация коммита и запуск workflow, который реагирует на push)
act --reuse
не удалять контейнер из успешно завершенных рабочих процессов для сохранения состояния между запусками (кэширование)
act --parallel
запуск всех jobs одновременно или последовательно (–no-parallel, по умолчанию)
Vercel
npm i -g vercel
установить глобально в систему Vercel CLI
vercel --version
выводит текущую версию установленного Vercel CLI
vercel login
выполняет вход в аккаунт Vercel (> Continue with GitHub
)
vercel logout
выполняет выход из аккаунта Vercel
vercel init
инициализирует новый проект в текущей директории (создает файл конфигурации vercel.json и другие файлы, необходимые для проекта)
vercel dev
запускает локальный сервер для проверки работоспособности (http://localhost:3000)
vercel deploy
загружает проект на серверы Vercel и развертывает его
vercel link
привязывает текущую директорию к существующему проекту на сервере Vercel (выбрать из списка)
vercel unlink
отменяет привязку текущей директории от проекта Vercel
vercel env
управляет переменными окружения для проекта
vercel env pull
подтягивает переменные окружения с Vercel в локальный .env файл
vercel env ls
показывает список всех переменных окружения для проекта
vercel env add <key> <environment>
добавляет новую переменную окружения для указанного окружения (production, preview, development)
vercel env rm <key> <environment>
удаляет переменную окружения из указанного окружения
vercel projects
управляет проектами Vercel
vercel projects ls
показывает список всех проектов
vercel projects add
добавляет новый проект
vercel projects rm <project>
удаляет указанный проект
vercel pull
подтягивает последние настройки окружения с Vercel
vercel alias
управляет алиасами доменов для проектов
vercel alias ls
показывает список всех алиасов для текущего проекта
vercel alias set <alias>
устанавливает алиас для указанного проекта
vercel alias rm <alias>
удаляет указанный алиас
vercel domains
управляет доменами, привязанными к проекту
vercel domains ls
показывает список всех доменов
vercel domains add <domain>
добавляет новый домен к проекту
vercel domains rm <domain>
удаляет указанный домен
vercel teams
управляет командами и членами команд на Vercel
vercel teams ls
показывает список всех команд
vercel teams add <team>
добавляет новую команду
vercel teams rm <team>
удаляет указанную команду
vercel logs <deployment>
выводит логи для указанного деплоя
vercel secrets
управляет секретами, используемыми в проектах
vercel secrets add <name> <value>
добавляет новый секрет
vercel secrets rm <name>
удаляет указанный секрет
vercel secrets ls
показывает список всех секретов
vercel switch <team>
переключается между командами и аккаунтами Vercel
CD
name: Deploy to Vercel
on:
workflow_dispatch:
jobs:
deploy:
runs-on: ubuntu-latest
steps:
- name: Clone repository
uses: actions/checkout@v4
- name: Install Node.js
uses: actions/setup-node@v4
with:
node-version: '20'
- name: Install dependencies
run: npm install
- name: Deploy to Vercel
uses: amondnet/vercel-action@v25
with:
vercel-token: ${{ secrets.VERCEL_TOKEN }}
vercel-org-id: ${{ secrets.VERCEL_ORG_ID }}
vercel-project-id: ${{ secrets.VERCEL_PROJECT_ID }}
vercel-args: '--prod'
GitLab
docker logs -f gitlab
логи контейнера
docker exec -it gitlab cat /etc/gitlab/initial_root_password
получить пароль для root
docker exec -it gitlab cat /etc/gitlab/gitlab.rb
конфигурация сервера
Получить токен регистрации Runner: http://192.168.3.101/root/torapi/-/settings/ci_cd#js-runners-settings
curl -L --output /usr/local/bin/gitlab-runner https://gitlab-runner-downloads.s3.amazonaws.com/latest/binaries/gitlab-runner-linux-amd64
загрузить исполняемый файл Runner chmod +x /usr/local/bin/gitlab-runner
docker exec -it gitlab-runner bash
gitlab-runner list
список сборщиков
gitlab-runner verify
проверка
gitlab-runner restart
применить настройки
gitlab-runner status
статус
gitlab-runner unregister --all-runners
удалить все регистрации
gitlab-runner install
установить службу
gitlab-runner run
запустить с выводом в консоль
gitlab-runner register
Enter the GitLab instance URL (for example, https://gitlab.com/): http://192.168.3.101/
Enter the registration token: GR1348941enqAxqQgm8AZJD_g7vme
Enter an executor: shell
cat /etc/gitlab-runner/config.toml
конфигурация
Включить импорт проектов из GitHub: http://192.168.3.101/admin/application_settings/general#js-import-export-settings
variables:
PORT: 2024
TITLE: "The+Rookie"
stages:
- test
test:
stage: test
script:
- |
pwsh -Command "
Write-Host PORT - $env:PORT
Write-Host TITLE - $env:TITLE
npm install
Start-Process -NoNewWindow -FilePath 'npm' -ArgumentList 'start -- --port $env:PORT' -RedirectStandardOutput 'torapi.log'
Start-Sleep -Seconds 5
Invoke-RestMethod -Uri http://localhost:$env:PORT/api/search/title/all?query=$env:TITLE | Format-List
Get-Content torapi.log
Stop-Process -Name 'node' -Force -ErrorAction SilentlyContinue
"
Jenkins
docker run -d --name=jenkins -p 8080:8080 -p 50000:50000 --restart=unless-stopped -v jenkins_home:/var/jenkins_home jenkins/jenkins:latest
ls /var/lib/docker/volumes/jenkins_home/_data/jobs
директория хранящая историю сборок в хостовой системе
docker exec -it jenkins /bin/bash
подключиться к контейнеру
cat /var/jenkins_home/secrets/initialAdminPassword
получить токен инициализации
docker run -d \
--name jenkins-remote-agent-01 \
--restart unless-stopped \
-e JENKINS_URL=http://192.168.3.101:8080 \
-e JENKINS_AGENT_NAME=remote-agent-01 \
-e JENKINS_SECRET=3ad54fc9f914957da8205f8b4e88ff8df20d54751545f34f22f0e28c64b1fb29 \
-v jenkins_agent:/home/jenkins \
jenkins/inbound-agent:latest
# Или ссылаться на локальный контейнер сервера по имени
# --link jenkins:jenkins
# -e JENKINS_URL=http://jenkins:8080
docker exec -u root -it jenkins-remote-agent-01 /bin/bash
подключиться к slave агенту под root
apt-get update && apt-get install -y iputils-ping netcat-openbsd
установить ping и nc на машину сборщика (slave)
jenkinsVolumePath=$(docker inspect jenkins | jq -r .[].Mounts.[].Source)
получить путь к директории Jenkins в хостовой системе
sudo tar -czf $HOME/jenkins-backup.tar.gz -C $jenkinsVolumePath .
резервная копия всех файлов
(crontab -l ; echo "0 23 * * * sudo tar -czf /home/lifailon/jenkins-backup.tar.gz -C /var/lib/docker/volumes/jenkins_home/_data .") | crontab -
sudo tar -xzf $HOME/jenkins-backup.tar.gz -C /var/lib/docker/volumes/jenkins_home/_data
восстановление
wget http://127.0.0.1:8080/jnlpJars/jenkins-cli.jar -P $HOME/
скачать jenkins-cli (http://127.0.0.1:8080/manage/cli)
apt install openjdk-17-jre-headless
установить java runtime
java -jar jenkins-cli.jar -auth lifailon:password -s http://127.0.0.1:8080 -webSocket help
получить список команд
java -jar jenkins-cli.jar -auth lifailon:password -s http://127.0.0.1:8080 groovysh
запустить консоль Groovy
java -jar jenkins-cli.jar -auth lifailon:password -s http://127.0.0.1:8080 install-plugin ssh-steps -deploy
устанавливаем плагин SSH Pipeline Steps
API
$username = "Lifailon"
$password = "password"
$base64AuthInfo = [Convert]::ToBase64String([Text.Encoding]::ASCII.GetBytes(("{0}:{1}" -f $username,$password)))
$headers =
Invoke-RestMethod "http://192.168.3.101:8080/rssAll" -Headers $headers # RSS лента всех сборок и их статус в title
Invoke-RestMethod "http://192.168.3.101:8080/rssFailed" -Headers $headers # RSS лента всех неудачных сборок
# проверить статус работы slave агента
.offline
$jobs = Invoke-RestMethod "http://192.168.3.101:8080/api/json/job" -Headers $headers
$jobs.jobs.name # список всех проектов
$jobName = "Update SSH authorized_keys"
$job = Invoke-RestMethod "http://192.168.3.101:8080/job/${jobName}/api/json" -Headers $headers
$job.builds # список всех сборок
$buildNumber = $job.lastUnsuccessfulBuild.number # последняя неуспешная сборка
Invoke-RestMethod "http://192.168.3.101:8080/job/${jobName}/${buildNumber}/consoleText" -Headers $headers # вывести лог указанной сборки
$lastCompletedBuild = $job.lastCompletedBuild.number # последняя успешная сборка
$crumb = .crumb # получаем временный токен доступа (crumb)
$headers["Jenkins-Crumb"] = $crumb # добавляем crumb в заголовки
$body = # добавляем crumb в тело запроса
Invoke-RestMethod "http://192.168.3.101:8080/job/${jobName}/${lastCompletedBuild}/rebuild" -Headers $headers -Method POST -Body $body # перезапустить сборку
Plugins
Плагин | Описание |
---|---|
Pipeline: Stage View | Визуализация шагов (stages) в интерфейсе проекта с временем их выполнения. |
Rebuilder | Позволяет перезапускать параметризованную сборку с предустановленными параметрами в выбранной сборке. |
Schedule Build | Позволяет запланировать сборку на указанный момент времени. |
Job Configuration History | Сохраняет копию файла сборки в формате xml (который хранится на сервере) и позволяет производить сверку. |
Export Job Parameters | Добавляет кнопку Export Job Parameters для конвертации все параметров в декларативный синтаксис Pipeline. |
SSH Pipeline Steps | Плагин для подключения к удаленным машинам через протокол ssh по ключу или паролю. |
Active Choices | Активные параметры, которые позволяют динамически обновлять содержимое параметров. |
File Parameters | Поддержка параметров для загрузки файлов (перезагрузить Jenkins для использования нового параметра). |
Ansible | Параметраризует запуск ansible-playbook (требуется установка на агенте) через метод ansiblePlaybook . |
HTTP Request | Простой REST API Client для отправки и обработки GET и POST запросов через метод httpRequest . |
Pipeline Utility Steps | Добавляет методы readJSON и writeJSON . |
ANSI Color | Добавляет поддержку стандартных escape-последовательностей ANSI для покраски вывода. |
Email Extension | Отправка сообщений на почту из Pipeline. |
Test Results Analyzer | Показывает историю результатов сборки junit тестов в табличном древовидном виде. |
Embeddable Build Status | Предоставляет настраиваемые значки (like shields.io ), который возвращает статус сборки. |
Prometheus Metrics | Предоставляет конечную точку /prometheus с метриками, которые используются для сбора данных. |
Web Monitoring | Добавляет конечную точку /monitoring для отображения графиков мониторинга в веб-интерфейсе. |
CloudBees Disk Usage | Отображает использование диска всеми заданиями во вкладке Manage-> Disk usage . |
SSH Steps and Artifacts
Добавляем логин и Private Key
для авторизации по ssh: Manage (Settings)
=> Credentials
=> Global
=> Add credentials
=> Kind: SSH Username with private key
Сценарий проверяет доступность удаленной машины, подключается к ней по ssh, выполняет скрипт hwstat для сбора метрик и выгружает json отчет в артефакты:
// Глобальный массив для хранения данных подключения по ssh
def remote =
pipeline
Upload File Parameter
Передача файла через параметр и чтение его содержимого:
pipeline
Input Text and File
Останавливает выполнение Pipeline
и заставляет пользователя передать текстовый параметр и файл:
pipeline
HttpURLConnection
Любой код Groovy возможно запустить и проверить через Script Console
(http://127.0.0.1:8080/manage/script)
Пример API
запроса к репозиторию PowerShell на GitHub для получения последней версии и всех доступных версий:
def url = new URL("https://api.github.com/repos/PowerShell/PowerShell/tags")
def connection = url.
connection.
connection.
def responseCode = connection.
if (responseCode == 200) else
connection.
httpRequest
Пример HTTP запроса и чтения json
файла с помощью плагинов HTTP Request
и Pipeline Utility Steps
:
pipeline
Active Choices Parameter
Пример получения списка доступных версий в выбранном репозитории и содержимого файлов для выбранного релиза, а также загрузка указанного файла:
pipeline
Vault
Интеграция HashiCorp Vault в Jenkins Pipeline через REST API
для получения содержимого секретов и использовая в последующих стадиях/этапах сборки:
def url = new URL(" /")
def connection = url.
connection.
connection.
connection.
def response = new groovy.json.JsonSlurper().
def user = response.data.data.user
def password = response.data.data.password
return
}
def USER_NAME
def USER_PASS
pipeline
Email Extension
Для отправки на почту и настроить SMTP сервер в настройках Jenkins (System
=> Extended E-mail Notification
)
SMTP server: smtp.yandex.ru
SMTP port: 587
Credentials: Username with password
(username@yandex.ru
и app-password
) Use TLS
Default Content Type: HTML (text/html)
Настройка логирования в System Log: emailDebug
+ фильтр hudson.plugins.emailext
и уровень ALL
pipeline
Parallel
pipeline
Groovy
Базовый синтаксис языка Groovy
:
// Переменные
javaString = 'java'
javaString
println javaString
javaString.class // class java.lang.String
println 100.class // class java.lang.Integer
j = '${javaString}' // не принимает переменные в одинарных кавычках
groovyString = ""
bigGroovyString = """
"""
// java
// ${javaString}
// java
// 4
a = "a" // a
a + "123" // a123
a * 5 // aaaaa
// Массивы и списки
list =
list// 1
list// [1, 2]
range = "0123456789"
range// 12345
map =
map// true
server =
server.ip = "192.168.3.1"
server.port = 22
println(server) // [ip:192.168.3.1, port:22]
// Функции
println a+b
}
// 4
// Условия
if (x < 10) else if (x == 10) else
}
// 11 > 10
// Циклы
list.each
// 123
for (i in 0..5)
// 012345
for (int i = 0; i < 10; i++)
// 0123456789
i = 0
while (i < 3)
// 0
// 1
// 2
// Классы
def str = "start"
println str
println param
}
}
def main = new Main()
def array =
for (element in array)
// 1
// 2
// 3
// Обработка ошибок
def newList =
newList= 1
newList= 2
for (index in 0..1)
// 4
// 5
// 6
println str.
// Коллекция для синхронизации сохранения данных в потоках
def sharedList = Collections.
// Анонимная функция для обработки данных в потоке
def runTask =
def threads =
// Ждём завершения всех потоков
threads <<
threads <<
threads <<
threads*.
println "Результат: $sharedList"
// Функции строк
" text ". // удаляет пробелы в начале и конце => "text"
"ping". // заменяет буквы в строке => pong
"a,b,c". // разбивает строку по разделителю => ["a", "b", "c"]
"abc". // возвращает длину строки или размер списка (кол-во элементов) => 3
"abc". // переворачивает строку => "cba"
"abc". // проверяет наличие подстроки => true
"abc". // проверяет начало строки => true
"abc". // проверяет конец строки => true
"123". // проверяет, является ли строка числом => true
"abc". // проверяет соответствие регулярному выражения => true
"hello". // преобразует строку в верхний регистр => "HELLO"
"HELLO". // преобразует строку в нижний регистр => "hello"
// Функции массивов
. // объединяет элементы в строку => "a,b,c"
. // проверяет наличие элемента => true
. // суммирует элементы => 6
. // находит максимум => 3
. // находит минимум => 1
. // вычисляет среднее => 2
. // переворачивает список => [3, 2, 1]
. // сортирует список => [1, 2, 3]
. // удаляет дубли => [1, 2, 3]
.findAll // фильтрует элементы => [2, 3]
.collect // преобразует элементы => [2, 4, 6]
.collect // строки => числа => [1, 2]
def users =
users.collect
// ["Alex", "Jack"]
// Функции карт (map)
. // получает значение по ключу => 1
. // возвращает все ключи => ["a", "b"]
. // возвращает все значения => [1, 2]
. // проверяет наличие ключа => true
.findAll // фильтрует записи => ["b": 2]
.collect // преобразует => ["a-1", "b-2"]
. // добавляет новую пару ключ-значение => ["a": 1, "b": 2]
. // объединяет мапы => ["a": 1, "b": 2]
// Директории и файлы
new File("dir"). // создает директорию => boolean
new File("dir/subdir"). // создает все недостающие директории d genb => boolean
new File("dir"). // список имен файлов => String[]
new File("dir"). // возвращает список файлов в директории => File[]
new File("dir"). // удаляет директорию (рекурсивно) => boolean
new File("dir"). // проверяет, что это директория => boolean
new File("file.txt"). // создает пустой файл => boolean
new File("file.txt"). // удаляет файл => boolean
new File("file.txt"). // проверяет существование файла => boolean
new File("file.txt"). // проверяет, что это файл => boolean
new File("file.txt"). // возвращает размер файла в байтах => long
new File("file.txt"). // возвращает время последнего изменения => long (timestamp)
new File("file.txt"). // возвращает имя файла (без пути) => String
new File("file.txt"). // возвращает относительный путь => String
new File("file.txt"). // возвращает абсолютный путь => String
new File("file.txt").text // читает содержимое файла в строку
new File("file.txt"). // указать кодировку при чтение
new File("file.txt"). // читает файл как массив байтов => byte[]
new File("file.txt"). // читает файл построчно (получаем массив из строк) => List<String>
new File("file.txt").eachLine // обработать каждую строку
new File("file.txt"). // перезаписывает файл (если существует) => void
new File("file.txt"). // аналог write() => void
new File("file.txt").bytes = // записывает массив байтов => void
new File("file.txt") << "text" // добавляет текст в конец файла => void
Ansible
apt -y update && apt -y upgrade
apt -y install ansible
v2.10.8
apt -y install ansible-core
v2.12.0
apt -y install sshpass
ansible-galaxy collection install ansible.windows
установить коллекцию модулей
ansible-galaxy collection install community.windows
ansible-galaxy collection list | grep windows
ansible-config dump | grep DEFAULT_MODULE_PATH
путь хранения модулей
apt-get -y install python-dev libkrb5-dev krb5-user
пакеты для Kerberos аутентификации
apt install python3-pip
pip3 install requests-kerberos
nano /etc/krb5.conf
настроить [realms] и [domain_realm]
kinit -C support4@domail.local
klist
ansible --version
config file = None
nano /etc/ansible/ansible.cfg
файл конфигурации
inventory = /etc/ansible/hosts
# uncomment this to disable SSH key host checking
# Отключить проверку ключа ssh (для подключения используя пароль)
host_key_checking = False
Hosts
nano /etc/ansible/hosts
pi-hole-01 ansible_host=192.168.3.101
zabbix-01 ansible_host=192.168.3.102
grafana-01 ansible_host=192.168.3.103
netbox-01 ansible_host=192.168.3.104
ansible_ssh_port=2121
ansible_user=lifailon
ansible_password=123098
path_user=/home/lifailon
ansible_python_interpreter=/usr/bin/python3
huawei-book-01 ansible_host=192.168.3.99
plex-01 ansible_host=192.168.3.100
ansible_port=5985
#ansible_port=5986
ansible_user=Lifailon
#ansible_user=support4@DOMAIN.LOCAL
ansible_password=123098
ansible_connection=winrm
ansible_winrm_scheme=http
ansible_winrm_transport=basic
#ansible_winrm_transport=kerberos
ansible_winrm_server_cert_validation=ignore
validate_certs=false
huawei-book-01 ansible_host=192.168.3.99
plex-01 ansible_host=192.168.3.100
ansible_python_interpreter=C:\Users\Lifailon\AppData\Local\Programs\Python\Python311\` добавить переменную среды интерпритатора Python в Windows
ansible_connection=ssh
#ansible_shell_type=cmd
ansible_shell_type=powershell
ansible-inventory --list
проверить конфигурацию (читает в формате JSON) или YAML (-y) с просмотром все применяемых переменных
Windows Modules
ansible us -m ping
ansible win_ssh -m ping
ansible us -m shell -a "uptime && df -h | grep lv"
ansible us -m setup | grep -iP "mem|proc"
информация о железе
ansible us -m apt -a "name=mc" -b
повысить привилегии sudo (-b)
ansible us -m service -a "name=ssh state=restarted enabled=yes" -b
перезапустить службу
echo "echo test" > test.sh
ansible us -m copy -a "src=test.sh dest=/root mode=777" -b
ansible us -a "ls /root" -b
ansible us -a "cat /root/test.sh" -b
ansible-doc -l | grep win_
список всех модулей Windows
ansible ws -m win_ping
windows модуль
ansible ws -m win_ping -u WinRM-Writer
указать логин
ansible ws -m setup
собрать подробную информацию о системе
ansible ws -m win_whoami
информация о правах доступах, группах доступа
ansible ws -m win_shell -a '$PSVersionTable'
ansible ws -m win_shell -a 'Get-Service | where name -match "ssh|winrm"'
ansible ws -m win_service -a "name=sshd state=stopped"
ansible ws -m win_service -a "name=sshd state=started"
- win_shell (vars/debug)
nano /etc/ansible/PowerShell-Vars.yml
- hosts: ws
` Указать коллекцию модулей
collections:
- ansible.windows
` Задать переменные
vars:
SearchName: PermitRoot
tasks:
- name: Get port ssh
win_shell: |
Get-Content "C:\Programdata\ssh\sshd_config" | Select-String "{{SearchName}}"
` Передать вывод в переменную
register: command_output
- name: Output port ssh
` Вывести переменную на экран
debug:
var: command_output.stdout_lines
ansible-playbook /etc/ansible/PowerShell-Vars.yml
ansible-playbook /etc/ansible/PowerShell-Vars.yml --extra-vars "SearchName='LogLevel|Syslog'"
передать переменную
- win_powershell
nano /etc/ansible/powershell-param.yml
- hosts: ws
tasks:
- name: Run PowerShell script with parameters
ansible.windows.win_powershell:
parameters:
Path: C:\Temp
Force: true
script: |
[CmdletBinding()]
param (
[String]$Path,
[Switch]$Force
)
New-Item -Path $Path -ItemType Directory -Force:$Force
ansible-playbook /etc/ansible/powershell-param.yml
- win_chocolatey
nano /etc/ansible/setup-adobe-acrobat.yml
- hosts: ws
tasks:
- name: Install Acrobat Reader
win_chocolatey:
name: adobereader
state: present
ansible-playbook /etc/ansible/setup-adobe-acrobat.yml
nano /etc/ansible/setup-openssh.yml
- hosts: ws
tasks:
- name: install the Win32-OpenSSH service
win_chocolatey:
name: openssh
package_params: /SSHServerFeature
state: present
ansible-playbook /etc/ansible/setup-openssh.yml
- win_regedit
nano /etc/ansible/win-set-shell-ssh-ps7.yml
- hosts: ws
tasks:
- name: Set the default shell to PowerShell 7 for Windows OpenSSH
win_regedit:
path: HKLM:\SOFTWARE\OpenSSH
name: DefaultShell
` data: C:\Windows\System32\WindowsPowerShell\v1.0\powershell.exe
data: 'C:\Program Files\PowerShell\7\pwsh.exe'
type: string
state: present
ansible-playbook /etc/ansible/win-set-shell-ssh-ps7.yml
- win_service
nano /etc/ansible/win-service.yml
- hosts: ws
tasks:
- name: Start service
win_service:
name: sshd
state: started
# state: stopped
# state: restarted
# start_mode: auto
ansible-playbook /etc/ansible/win-service.yml
- win_service_info
nano /etc/ansible/get-service.yml
- hosts: ws
tasks:
- name: Get info for a single service
win_service_info:
name: sshd
register: service_info
- name: Print returned information
ansible.builtin.debug:
var: service_info.services
ansible-playbook /etc/ansible/get-service.yml
- fetch/slurp
nano /etc/ansible/copy-from-win-to-local.yml
- hosts: ws
tasks:
- name: Retrieve remote file on a Windows host
# Скопировать файл из Windows-системы
ansible.builtin.fetch:
# Прочитать файл (передать в память в формате Base64)
# ansible.builtin.slurp:
src: C:\Telegraf\telegraf.conf
dest: /root/telegraf.conf
flat: yes
register: telegraf_conf
- name: Print returned information
ansible.builtin.debug:
msg: "{{ telegraf_conf['content'] | b64decode }}"
ansible-playbook /etc/ansible/copy-from-win-to-local.yml
- win_copy
echo "Get-Service | where name -eq vss | Start-Service" > /home/lifailon/Start-Service-VSS.ps1
nano /etc/ansible/copy-file-to-win.yml
- hosts: ws
tasks:
- name: Copy file to win hosts
win_copy:
src: /home/lifailon/Start-Service-VSS.ps1
dest: C:\Users\Lifailon\Desktop\Start-Service-VSS.ps1
ansible-playbook /etc/ansible/copy-file-to-win.yml
curl -OL https://github.com/PowerShell/PowerShell/releases/download/v7.3.6/PowerShell-7.3.6-win-x64.msi
nano /etc/ansible/copy-file-to-win.yml
- hosts: ws
tasks:
- name: Copy file to win hosts
win_copy:
src: /home/lifailon/PowerShell-7.3.6-win-x64.msi
dest: C:\Install\PowerShell-7.3.6.msi
ansible-playbook /etc/ansible/copy-file-to-win.yml
- win_command
nano /etc/ansible/run-script-ps1.yml
- hosts: ws
tasks:
- name: Run PowerShell Script
win_command: powershell -ExecutionPolicy ByPass -File C:\Users\Lifailon\Desktop\Start-Service-VSS.ps1
ansible-playbook /etc/ansible/run-script-ps1.yml
- win_package
nano /etc/ansible/setup-msi-package.yml
- hosts: ws
tasks:
- name: Install MSI Package
win_package:
# path: C:\Install\7z-23.01.msi
path: C:\Install\PowerShell-7.3.6.msi
arguments:
- /quiet
- /passive
- /norestart
ansible-playbook /etc/ansible/setup-msi-package.yml
- win_firewall_rule
nano /etc/ansible/win-fw-open.yml
- hosts: ws
tasks:
- name: Open RDP port
win_firewall_rule:
name: Open RDP port
localport: 3389
action: allow
direction: in
protocol: tcp
state: present
enabled: yes
ansible-playbook /etc/ansible/win-fw-open.yml
- win_group
nano /etc/ansible/win-creat-group.yml
- hosts: ws
tasks:
- name: Create a new group
win_group:
name: deploy
description: Deploy Group
state: present
ansible-playbook /etc/ansible/win-creat-group.yml
- win_group_membership
nano /etc/ansible/add-user-to-group.yml
- hosts: ws
tasks:
- name: Add a local and domain user to a local group
win_group_membership:
name: deploy
members:
- WinRM-Writer
state: present
ansible-playbook /etc/ansible/add-user-to-group.yml
- win_user
nano /etc/ansible/creat-win-user.yml
- hosts: ws
tasks:
- name: Creat user
win_user:
name: test
password: 123098
state: present
groups:
- deploy
ansible-playbook /etc/ansible/creat-win-user.yml
nano /etc/ansible/delete-win-user.yml
- hosts: ws
tasks:
- name: Delete user
ansible.windows.win_user:
name: test
state: absent
ansible-playbook /etc/ansible/delete-win-user.yml
- win_feature
nano /etc/ansible/install-feature.yml
- hosts: ws
tasks:
- name: Install Windows Feature
win_feature:
name: SNMP-Service
state: present
ansible-playbook /etc/ansible/install-feature.yml
- win_reboot
nano /etc/ansible/win-reboot.yml
- hosts: ws
tasks:
- name: Reboot a slow machine that might have lots of updates to apply
win_reboot:
reboot_timeout: 3600
ansible-playbook /etc/ansible/win-reboot.yml
- win_find
nano /etc/ansible/win-ls.yml
- hosts: ws
tasks:
- name: Find files in multiple paths
ansible.windows.win_find:
paths:
- D:\Install\OpenSource
patterns:
` Файл созданный менее 7 дней назад
age: -7d
` Размер файла больше 10MB
size: 10485760
` Рекурсивный поиск (в дочерних директориях)
recurse: true
register: command_output
- name: Output
debug:
var: command_output
ansible-playbook /etc/ansible/win-ls.yml
- win_uri
nano /etc/ansible/rest-get.yml
- hosts: ws
tasks:
- name: REST GET request to endpoint github
ansible.windows.win_uri:
url: https://api.github.com/repos/Lifailon/pSyslog/releases/latest
register: http_output
- name: Output
debug:
var: http_output
ansible-playbook /etc/ansible/rest-get.yml
- win_updates
nano /etc/ansible/win-update.yml
- hosts: ws
tasks:
- name: Install only particular updates based on the KB numbers
ansible.windows.win_updates:
category_names:
- SecurityUpdates
- CriticalUpdates
- UpdateRollups
- Drivers
` Фильтрация
` accept_list:
` - KB2267602
` Поиск обновлений
` state: searched
` Загрузить обновления
` state: downloaded
` Установить обновления
state: installed
log_path: C:\Ansible-Windows-Upadte-Log.txt
reboot: false
register: wu_output
- name: Output
debug:
var: wu_output
ansible-playbook /etc/ansible/win-update.yml
- win_chocolatey
- name: Ensure Chocolatey installed from internal repo
win_chocolatey:
name: chocolatey
state: present
# source: URL-адрес внутреннего репозитория
source: https://community.chocolatey.org/api/v2/ChocolateyInstall.ps1
Jinja
Локальное использование:
pip install jinja2 --break-system-packages
inventory.j2
шаблон для генерации
[dev]
{% for host in hosts -%}
{{ host }} ansible_host={{ host }}
{% endfor %}
env.json
файл с переменными
render.py
скрипт для генерации файла inventory
# Загружаем переменные из JSON
=
# Настройка шаблонизатора
=
=
=
# Сохраняем результат в файл
python render.py
Использование в Ansible для обновления файла hosts
:
inventory.ini
[dev]
dev1 ansible_host=192.168.3.101
dev2 ansible_host=192.168.3.102
dev3 ansible_host=192.168.3.103
templates/hosts.j2
127.0.0.1 localhost
{% for host in groups['all'] -%}
{{ hostvars[host]['ansible_host'] }} {{ host }}
{% endfor %}
playbook.yml
- name: Update hosts file
hosts: all
become: true
tasks:
- name: Generate hosts file
template:
src: hosts.j2
dest: /etc/hosts
owner: root
group: root
mode: '0644'
ansible-playbook -i inventory.ini playbook.yml --check --diff
отобразит изменения без их реального применения
ansible-playbook -i inventory.ini playbook.yml -K
позволяет передать пароль для root
Puppet
Bolt
Bolt - это инструмент оркестровки, который выполняет заданную команду или группу команд на локальной рабочей станции, а также напрямую подключается к удаленным целям с помощью SSH или WinRM, что не требует установки агентов.
Docs: https://www.puppet.com/docs/bolt/latest/getting_started_with_bolt.html
nano inventory.yaml
groups:
- name: bsd
targets:
- uri: 192.168.3.102:22
name: openbsd
- uri: 192.168.3.103:22
name: freebsd
config:
transport: ssh
ssh:
user: root
# password: root
host-key-check: false
bolt command run uptime --inventory inventory.yaml --targets bsd
выполнить команду uptime на группе хостов bsd, заданной в файле inventory
echo name: lazyjournal > bolt-project.yaml
создать файл проекта
mkdir plans && nano test.yaml
создать директорию и файл с планом работ
parameters:
targets:
type: TargetSpec
steps:
- name: clone
command: rm -rf lazyjournal && git clone https://github.com/Lifailon/lazyjournal
targets: $targets
- name: test
command: cd lazyjournal && go test -v -cover --run TestMainInterface
targets: $targets
- name: remove
command: rm -rf lazyjournal
targets: $targets
bolt plan show
вывести список всех планов
bolt plan run lazyjournal::test --inventory inventory.yaml --targets bsd -v
запустить план
Sake
Sake - это командный раннер для локальных и удаленных хостов. Вы определяете серверы и задачи в файле sake.yaml
, а затем запускаете задачи на серверах.
|
Пример конфигурации:
servers:
localhost:
host: 0.0.0.0
local: true
obsd:
host: root@192.168.3.102:22
tags:
fbsd:
host: root@192.168.3.103:22
tags:
work_dir: /tmp
env:
DATE: $(date -u +"%Y-%m-%dT%H:%M:%S%Z")
specs:
info:
output: table
ignore_errors: true
omit_empty_rows: true
omit_empty_columns: true
any_fatal_errors: false
ignore_unreachable: true
strategy: free
tasks:
ping:
desc: Pong
spec: info
cmd: echo "pong"
uname:
name: OS
desc: Print OS
spec: info
cmd: |
os=$(uname -s)
release=$(uname -r)
echo "$os $release"
uptime:
name: Uptime
desc: Print uptime
spec: info
cmd: uptime
info:
desc: Get system overview
spec: info
tasks:
- task: ping
- name: date
cmd: echo $DATE
- name: pwd
cmd: pwd
- task: uname
- task: uptime
sake run info --tags bsd
запустить набор из 5 заданий из группы info
Secret Manager
Bitwarden
choco install bitwarden-cli || npm install -g @bitwarden/cli || sudo snap install bw
установить bitwarden cli
bw login <email> --apikey
авторизвация в хранилище, используя client_id и client_secret
$session = bw unlock --raw
получить токен сессии
$items = bw list items --session $session | ConvertFrom-Json
получение всех элементов в хранилище с использованием мастер-пароля
echo "master_password" | bw get item GitHub bw get password $items[0].name
получить пароль по названию секрета
bw lock
завершить сессию
# Авторизация в организации
$client_id = "organization.ClientId"
$client_secret = "client_secret"
$deviceIdentifier = [guid]::NewGuid().ToString()
$deviceName = "PowerShell-Client"
$response = Invoke-RestMethod -Uri "https://identity.bitwarden.com/connect/token" -Method POST `
-Headers `
-Body
# Получение токена доступа
$accessToken = $response.access_token
# Название элемента в хранилище
$itemName = "GitHub"
# Поиск элемента в хранилище
$itemResponse = Invoke-RestMethod -Uri "https://api.bitwarden.com/v1/objects?search=$itemName" -Method GET `
-Headers
$item = $itemResponse.data[0]
# Получение информации об элементе
$detailsResponse = Invoke-RestMethod -Uri "https://api.bitwarden.com/v1/objects/$($item.id)" -Method GET `
-Headers
# Получение логина и пароля
$login = $detailsResponse.login.username
$password = $detailsResponse.login.password
Infisical
npm install -g @infisical/cli
infisical login
авторизоваться в хранилище (cloud или Self-Hosting)
infisical init
инициализировать - выбрать организацию и проект
infisical secrets
получить список секретов и их SECRET VALUE из добавленных групп Environments (Development, Staging, Production)
$clientId = "<client_id>" # создать организацию и клиент в Organization Access Control - Identities и предоставить права на Projects (Secret Management)
$clientSecret = "<client_secret>" # на той же вкладке вкладке в Authentication сгенерировать секрет (Create Client Secret)
$body =
$response = Invoke-RestMethod -Uri "https://app.infisical.com/api/v1/auth/universal-auth/login" `
-Method POST `
-ContentType "application/x-www-form-urlencoded" `
-Body $body
$TOKEN = $response.accessToken # получить токен доступа
# Получить содержимое секрета
$secretName = "FOO" # название секрета
$workspaceId = "82488c0a-6d3a-4220-9d69-19889f09c8c8" # можно взять из url проекта Secret Management
$environment = "dev" # группа
$headers =
$secrets = Invoke-RestMethod -Uri "https://app.infisical.com/api/v3/secrets/raw/${secretName}?workspaceId=${workspaceId}&environment=${environment}" -Method GET -Headers $headers
$secrets.secret.secretKey
$secrets.secret.secretValue
HashiCorp/Vault
mkdir vault && cd vault && mkdir vault_config
Создать конфигурацию:
Запускаем в контейнере:
Получить ключи разблокировки и root ключ для первичной инициализации:
Ввести любые 3 из 5 ключей для разблокировки после перезапуска контейнера:
Проверить статус (должно быть Sealed: false
) и авторизацию по root ключу в хранилище:
Secrets Engines
-> Enable new engine
+ KV
API Swagger: http://192.168.3.100:8200/ui/vault/tools/api-explorer
$TOKEN = "hvs.rxlYkJujkX6Fdxq2XAP3cd3a"
$Headers =
# Указать путь до секретов (создается в корне kv)
$path = "main-path"
$url = "http://192.168.3.101:8200/v1/kv/data/$path"
$data = Invoke-RestMethod -Uri $url -Method GET -Headers $Headers
# Получить содержимое ключа по его названию (key_name)
$data.data.data.key_name # secret_value
# Перезаписать все секреты
$Headers =
$Body = | ConvertTo-Json
$urlUpdate = "http://192.168.3.100:8200/v1/kv/data/main-path"
Invoke-RestMethod -Uri $urlUpdate -Method POST -Headers $Headers -Body $Body
# Удалить все секреты
Invoke-RestMethod -Uri "http://192.168.3.100:8200/v1/kv/data/main-path" -Method DELETE -Headers $Headers
Vault client:
# Установить клиент в Linux (debian):
|
|
&&
# Включить механизм секретов KV
# Создать секрет
# Список секретов
# Получить содержимое секрета
# Удалить секреты
HashiCorp/Consul
Consul используется для кластеризации и централизованного хранения данных Vault
, а также как самостоятельное Key-Value
хранилище.
Создать конфигурацию:
Запускаем в контейнере:
Создать root token
, который будет использоваться для управления системой ACL
и для создания политик доступа и других токенов доступа:
Создать новую политику доступа:
Создать новый токен доступа:
curl http://localhost:8500/v1/health/service/consul?pretty
curl --request PUT --data "ssh-rsa AAAA" http://localhost:8500/v1/kv/ssh/key
записать секрет KV Store Consul
curl -s http://localhost:8500/v1/kv/ssh/key | jq -r .[].Value | base64 --decode
извлечь содержимое секрета
Prometheus
Пример создания экспортера для получения метрик температуры всех дисков из CrystalDiskInfo и отправки в Prometheus через PushGateway.
Формат метрик:
# HELP название_метрики Описание метрики
# TYPE название_метрики ТИП-ДАННЫХ
название_метрики{лейбл="НАЗВАНИЕ ДИСКА 1", instance="HOSTNAME"} ЗНАЧЕНИЕ
название_метрики{лейбл="НАЗВАНИЕ ДИСКА 2", instance="HOSTNAME"} ЗНАЧЕНИЕ
Типы данных:
counter
- возрастающее значение (например, количество запросов, ошибок, завершенных задач)gauge
- переменное значение (может увеличиваться или уменьшаться, например, нагрузка CPU, объем свободной памяти, температура)histogram
- разделенные данные на корзины (buckets, с помощью лэйблаle
) и подсчет наблюдения в них (автоматически создает три метрики:_bucket, _sum, _count) summary
- аналогичен гистограмме, но вычисляет квантилиСтроки метрик содержат имя, лейблы (в фигурных скобках) и значение.
- Запускаем
pushgateway
в контейнере:
docker run -d --name pushgateway --restart unless-stopped -p 19091:9091 prom/pushgateway
- Запускаем скрипт в консоли:
$instance = [System.Net.Dns]::GetHostName() $pushgatewayUrl = "http://192.168.3.100:19091/metrics/job/disk_temperature" # Изменить адрес шлюза на имя контейнера при запуске через compose # $pushgatewayUrl = "http://pushgateway:9091/metrics/job/disk_temperature" $path = "C:/Program Files/CrystalDiskInfo/Smart" # Изменить путь при запуске в контейнере Docker через WSL # $path = "/mnt/c/Program Files/CrystalDiskInfo/Smart" # Необходимо строго использовать синтаксис PowerShell (избегая псевдонимы ls) $diskArray = .Name while ($true)
- Проверяем наличие метрик на конечной точке шлюза:
("`n") | Select-String "disk_temperature" .Split
- Добавляем конфигурацию в
prometheus.yml
:
scrape_configs: - job_name: cdi-exporter scrape_interval: 10s scrape_timeout: 2s metrics_path: /metrics static_configs: - targets: - '192.168.3.100:19091'
docker-compose kill -s SIGHUP prometheus
применяем изменения- Собираем контейнер в среде
WSL
с помощьюdockerfile
монтированием системного диска Windows:
FROM mcr.microsoft.com/powershell:latest WORKDIR /cdi-exporter COPY cdi-exporter.ps1 ./cdi-exporter.ps1 CMD ["pwsh", "-File", "cdi-exporter.ps1"]
docker build -t cdi-exporter .
docker run -d -v /mnt/c:/mnt/c --name cdi-exporter cdi-exporter
- Собираем стек из шлюза и скрипта в
docker-compose.yml
:
services: cdi-exporter: build: context: . dockerfile: dockerfile container_name: cdi-exporter volumes: - /mnt/c:/mnt/c restart: unless-stopped pushgateway: image: prom/pushgateway container_name: pushgateway ports: - "19091:9091" restart: unless-stopped
docker-compose up -d
- Настраиваем
Dashboard
вGrafana
:
Переменные для фильтрации запроса:
hostName:label_values(exported_instance)
diskName:label_values(disk)
Метрика температуры:disk_temperature{exported_instance="$hostName", disk=~"$diskName"}
PromQL Functions
Функция Тип данных Описание Пример rate()
counter
Средняя скорость роста метрики за интервал (increase / seconds) rate(http_requests_total[$__rate_interval])
irate()
counter
Мгновенная скорость роста (использует последние 2 точки) irate(http_requests_total[1m])
increase()
counter
Абсолютный прирост метрики за интервал (end time - start time) increase(http_requests_total[5m])
resets()
counter
Количество сбросов counter-метрики за интервал. resets(process_cpu_seconds_total[1h])
delta()
gauge
Разница между первым и последним значением метрики за интервал delta(node_memory_free[[5m]])
idelta()
gauge
Разница между последними двумя точками delta(node_memory_free[1m])
avg_over_time()
gauge
Среднее значение за интервал avg_over_time(temperature[5m])
max_over_time()
gauge
Максимальное значение за интервал max_over_time(temperature[5m])
predict_linear()
gauge
Предсказывает значение метрики через N секунд (для прогнозирования) predict_linear(disk_free[1h], 3600)
count()
counter
/gauge
Количество элементов метрики count(http_requests_total) by (status_code)
sum()
counter
/gauge
Суммирует значения метрик по указанным labels sum(rate(cpu_usage[5m])) by (pod)
avg()
counter
/gauge
Среднее значение метрики по указанным labels avg(node_memory_usage_bytes) by (instance)
min() / max()
counter
/gauge
Возвращает минимальное/максимальное значение max(container_cpu_usage) by (namespace)
round()
counter
/gauge
Округляет значения до указанного числа дробных знаков round(container_memory_usage / 1e9, 2)
floor() / ceil()
counter
/gauge
Округляет вниз/вверх до целого числа floor(disk_usage_percent)
absent()
counter
/gauge
Возвращает 1, если метрика отсутствует (для алертинга) absent(up{job="node-exporter"})
clamp_min() / clamp_max()
counter
/gauge
Ограничивает значения минимумом/максимумом (уменьшает если больше) clamp_max(disk_usage_percent, 100)
label_replace()
counter
/gauge
Изменяет или добавляет labels в метрике label_replace(metric, "new_label", "$1", "old_label", "(.*)")
sort() / sort_desc()
counter
/gauge
Сортирует метрики по возрастанию/убыванию sort(node_filesystem_free_bytes)
Graylog
- Устанавливаем MongoDB:
- Используем прокси для установки Elassticsearch:
- Указываем статический IP адрес для подключения к API
- Настройка Syslog на клиенте Linux:
nano /etc/rsyslog.d/graylog.conf
;
systemctl restart rsyslog
- Создать входящий поток (
inputs
) для Syslog на порту 514 по протоколу TCP:
http://192.168.3.101:9000/system/inputs
- Пример фильтра для логов:
facility:"system daemon" AND application_name:bash AND message:\[ AND message:\]
- Настройка Winlogbeat на клиенте Windows
Установка агента:
irm https://artifacts.elastic.co/downloads/beats/winlogbeat/winlogbeat-8.15.0-windows-x86_64.zip -OutFile $home\Documents\winlogbeat-8.15.0.zip Expand-Archive $home\Documents\winlogbeat-8.15.0.zip cd $home\Documents\winlogbeat-8.15.0-windows-x86_64
Добавить отправку в Logstash:
code winlogbeat.yml
И закомментировать отправку данных в Elasticsearch (output.elasticsearch)
.\winlogbeat.exe -c winlogbeat.yml
запустить агент с правами администратора в консоли|
- Настроить Inputs для приема Beats на порту 5044