Так как ранее я поставил Debian то будем его настраивать через ансибл. На NASе установлена редакция minimal, а значит нет ниего лишнего. Нужно только установить необходимые пакеты и чуть поправить конфиги для совместимости с Cloud OS5.
По идеи все можно описать в одном плейбуке, но предположим что серверов у нас много и у каждого будет своя роль. Сначала подготовим структуру каталогов:
В самом плейбуке никаких тасков нет, я их перенес в отдельную роль и указал на нее. В роли можно сразу перечислять таски:
Настройка вентиятора
wdhwd как следует из названия это wd hardware daemon, он управляет вентилятором и кнопками. Сам по себе debian не умеет взаимодействовать с сенсорами, даже при наличии пакета lm_sensors, для этого комьюнити и написало wdhwd. Предварительно клонируем репозиторий с гита в files/root/wd.
На этом моменте вентилятор должен утихнуть. Вообще, разработчик предлагает создать отдельного пользователя для работы сервиса, но я поправил конфиг и у меня сервис работает от рута.
fstab
Монтировать диски мы будем в каталоги volume1 и volume2 путем добавления записей в fstab. Сами записи однотипные и отличается только точкой монтирования и partuuid. Т.к. дисков у нас 3, а смонтировать надо 2 нужно сначала определить интересующие нас диски и разделы, а потом добавить записи в fstab. Ансибл умеет регистрировать переменные которые можно использовать в дальнейшем.
Таким образом какие бы диски у нас ни были, в любом случае у нас все будет смонтировано в нужный каталог, дополнительно монитруем каталоги для nfs шары, чтоб не сломались маунты.
ssh
Так как у нас только один пользователь и это root, то оставлять ему возможность заходить по ssh не самая лушая идея, для этого создадим нового пользователя и группу
Теперь можно заходить с логином ssh и пользоваться sudo, для полной секурности выключим пароль у рута и доступ по ссш по паролю предварительно закинув свой ссш ключ
С докером вышла засада, я пытался запустить его таким образом чтоб он увидел все контейнеры созданные через приложение докера в OS5, в итоге все поломалось и пришлось переустанавливать все контейнеры, включая сам портейнер. В этом случае останется просто установить portainer и настраивать все "заново"