Как правильно почистить Debian?
Блин только недавно взял синологи с 4Гб диска и система отказывается обновляется.
Что за фигня показывается? Суппорт написал команду... откуда 8Гигов, если два диска в "зеркальном раиде"?
root@Soft:/# du -h -dl | sort -h -r
du: cannot access './proc/9100/task/9100/fd/3' : No such file or directory du:
cannot access './proc/9100/task/9100/fdinfo/3' : No such file or directory du:
cannot access ' ./proc/9100/fd/4' : No such file or directory du:
cannot access './proc/9100/fdinfo/4’ : No such file or directory
7.8G .
5.5G ./volume1
8 8 4M ./usr
599M ./gnu
449M ./opt
247M ./root
...
df -h
Получше показывает
Filesystem Size Used Avail Use% Mounted on /dev/md0 2.3G 1.8G 379M 83% / none 2.8G 0 2.8G 0% /dev /tmp 2.9G 1.8M 2.9G 1% /tmp /run 2.9G 4.5M 2.9G 1% /run /dev/shm 2.9G 4.0K 2.9G 1% /dev/shm none 4.0K 0 4.0K 0% /sys/fs/cgroup cgmfs 100K 0 100K 0% /run/cgmanager/fs /dev/vg1/volume_2 984G 18M 984G 1% /volume2 /dev/vg1/volume_3 1.6T 95M 1.6T 1% /volume3 /dev/vg1/volume_1 984G 3.0G 981G 1% /opt tmpfs 1.0T 0 1.0T 0% /dev/virtualization
ncdu - не explorer, но пойдет. Спасибо.
Теперь как бы нужное не удалить. Ведь никаких личных данных нет. Только загрузил что может понадобится
Ну да диски в raid1
mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Tue Mar 23 15:52:38 2021
Raid Level : raid1
Array Size : 2490176 (2.37 GiB 2.55 GB)
Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Sat Apr 17 23:06:08 2021
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : 376fe17a:07b7f74c:05d949f7:b0bbaec7
Events : 0.1153
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sata2p1
1 8 1 1 active sync /dev/hda1
да, а как оно замаунчено?
Не имею понятия, не делал
Ну или что mount выдаёт?
дофига, но вначале это
/dev/md0 on / type ext4 (rw,relatime,barrier,data=ordered)
Значицца так... /dev/md0 (а ещё может и /dev/md1 быть) это стандартный синоложный "загрузочный диск". 1-й рейд собранный из разделов на всех дисках, включенных в DS.
Можно посмотреть на что (на какие разделы) разбиты диски:
fdisk -l /dev/hda
fdisk -l /dev/sata2p
Первым разделом будет раздел на 2.4 гига.
На этом диске не должно быть ничего кроме системных библиотек, ядра и те пе.
Но похоже кто-то поигрался с именами замаунченых томов и слегка налажал:
/dev/vg1/volume_2 984G 18M 984G 1% /volume2 /dev/vg1/volume_3 1.6T 95M 1.6T 1% /volume3 /dev/vg1/volume_1 984G 3.0G 981G 1% /opt
Вместо /volume1 /dev/vg1/volume_1 замаунчен на /opt
Получается что все, кто пишет в /volume1 теперь пишут в каталог на замаученном в / /dev/md0 и забивают его:
sudo df /volume1 покажет с какого устройства этот каталог.
Но похоже кто-то поигрался
Кроме системы играться было некому
Это всё я всё что я указал: 1000,1000,остаток при разбивке диска
984G,984G,1.6T
Отчего только суппорт синологи это не понимает
Первым разделом будет раздел на 2.4 гига. На этом диске не должно быть ничего кроме системных библиотек, ядра и те пе.
Я же туда ничего сам не писал.
В принципе система ничего еще не содержит, можно и по новому всё сделать. Но опять же будет тоже самое, подозреваю.
Блин, какого txt файл нельзя прикрепить? Там весь вывод с рекомендованных команд.
Не надо ничего по другому разбивать. Надо понять что куда замаунтилось...
df показывает что том volume_1 правильно замаунчен на /volume1
df /volume1 Filesystem 1K-blocks Used Available Use% Mounted on /dev/vg1/volume_1 1030792152 1889956 1028902196 1% /volume1
a почему он раньше показывал что volume_1 на /opt замаунчен?
/dev/vg1/volume_1 984G 3.0G 981G 1% /opt
Посмотри что выдаст mount и что в файле /etc/fstab написано?
mount cat /etc/fstab
Надо понять что куда замаунтилось...
Для виндузятника это будет достаточно проблематично
Но похоже действительно с volume_1 что то не то. Может быть докер что то нифигачил?
В приложении результаты команд
Итого... volume_1 до volume_3 все используют файловую систему btrfs, в которой есть "подтома" (subvolume).
Сейчас примаунчено 3 подтома из volume_1:
/dev/mapper/vg1-volume_1 on /volume1 type btrfs (rw,relatime,ssd,synoacl,space_cache=v2,auto_reclaim_space,metadata_ratio=50,subvolid=257,subvol=/@syno) /dev/mapper/vg1-volume_1 on /opt type btrfs (rw,relatime,ssd,synoacl,space_cache=v2,auto_reclaim_space,metadata_ratio=50,subvolid=257,subvol=/@syno/@optware) /dev/mapper/vg1-volume_1 on /volume1/@docker type btrfs (rw,relatime,ssd,synoacl,space_cache=v2,auto_reclaim_space,metadata_ratio=50,subvolid=257,subvol=/@syno/@docker)
Но. В системном /etc/fstab прописана только точка маунта в /volume1
/dev/vg1/volume_1 /volume1 btrfs auto_reclaim_space,synoacl,ssd,relatime 0 0
Кто и когда насоздавал подтома и кто их маунтит при рестарте - я не знаю...
Проверь что эти точки правильно примаунчиваютсйа при каждом рестарте. Перезагрузи DS и посмотри, выдаст ли mount опять эти три точки.
Если они есть, то делаем следующее:
- размаунчиваем все три точки vg1-volume1
umount /volume1
umount /opt
umount /volume1/@docker
- смотрим в каких папках у нас что на / (на который /dev/md0 замаунчен) лежит
du -h --max-depth=1 /
все используют файловую систему btrfs
Я не стал менять "умолчание", нормальная система. Про подтома не знал вообще.
Так как docker снёс, после перегрузки осталось только два
/dev/mapper/vg1-volume_1 on /volume1 type btrfs (rw,relatime,ssd,synoacl,space_cache=v2,auto_reclaim_space,metadata_ratio=50,subvolid=257,subvol=/@syno)
/dev/mapper/vg1-volume_1 on /opt type btrfs (rw,relatime,ssd,synoacl,space_cache=v2,auto_reclaim_space,metadata_ratio=50,subvolid=257,subvol=/@syno/@optware)
/opt отмонтировать можно, но ничего не изменилось
/dev/md0 2.3G 1.8G 376M 84%
А вот /volume1 низзя
# umount /volume1
umount: /volume1: target is busy
(In some cases useful info about processes that
use the device is found by lsof(8) or fuser(1).)
du -h --max-depth=1 /
основные потребители
1.9G /volume1
882M /usr
599M /gnu
247M /root
После низких баллов суппорт подсуетился и запросил удаленный доступ. Система обновилась, как будет дальне не знаю.
Но появились новые проблемы.
Хочу на этом сервере играться с ASP.NET/
Установил докер, затем нашел имаге для VS Code
https://hub.docker.com/r/linuxserver/code-server
Запустил имаге но вот дальше ничего не получается - Access the webui at http://<your-ip>:8443
Нет ответа. Firewall-у и порт 8443 добавил - ничего. Что еще нужно ему для запуска?
В итоге оказалось просто.
1. Сейчас можно прямо в винде компилить проект под юних и деплоить его на докер хаб. И оттуда просто забирать.
Никакой компиляции с помощью "Коде" уже не нужно. Может для консольного проекта, еще не пробовал.
2. В настройках докер контейнера по умолчанию local port стоит "авто". Его нужно просто сделать таким же как container port. И всё работает без проблем.
что ИИС попробовал запустится
под юниксом для ASP core нужен nginx
Теперь бы с базой разобраться А после, наружу выпустить.