Резюме для программиста
Удали мне вот папочку если у тебя только есть разрешение на ее чтение.
-----
Тебе об этом и говорится - надо много чего изучить чтобы сделать.
В этом случае надо получать элевайтед аккаунт и из него грохать папку.
Как именно - пока не делал - смотреть надо.
В этом случае надо получать элевайтед аккаунт и из него грохать папку.
И всё это должно быть в одном классе в одном методе Directory.Delete с кучей перегрузок для разных случаев. А не в 2-3 классах с разными методами, каждый из которых какие-то свои ограничения имеет, которые надо вычитывать в описании.
В .NET уже столько мусора напихали, и никто не чистит.
Пришло. Почти 7 месяцев заняло после отправки уже готового пакета документов. Из-за рождественских праздников, отпусков сотрудников и их болезней, как мне объяснили. Причём само признание бесплатное - платил только за сбор и оформление документов (переводы там, заверения, почтовые расходы). Только я не понял про инженеров - мне нельзя называться инженером, а только бакалавром или мастером, т.к. у меня инженерного абшлюсса нету? Ну вроде и норм - мастер же круче, да?
Пришло всего 4 страницы, где никаких оценок по конкретным предметам и ничего кроме вот этих двух званий. По признанию оценок по конкретным предметам, как я понял - это в Анабин? Впрочем, я думаю, для меня бесполезное занятие - наверняка состав и названия предметов разные, поэтому много там не перезачтут при поступлении в немецкий ВУЗ. Мне в принципе и не надо. Я программист и разные доп. образования с дипломами сейчас мне не нужны. Лучше опыт работы в Германии набирать. А всяким врачам и инженерам не по программистской специальности - им да, скорее всего доучиваться-переучиваться придётся, и соответственно важно, чтобы часть предметов перезачли. Правильно я понимаю?
Единственное, что для бакалавра у меня указан срок обучения больше 4 лет. Они написали, что не видели обоснования, почему так (по закону же 4). Но признали всё равно. А я забыл написать, что академ брал.
Тебе об этом и говорится - надо много чего изучить чтобы сделать.
А тебе говориться, что это уже другая задача
В этом случае надо ...
ни одна нормальная ОС не должна позволять это сделать
Та же - грохнуть папку
Ну если не отличаешь безопасное удаление от спец. операции по удалению, то тут ничего не могу больше сказать
А грохнуть - да можно всегда, особенно какой ни будь маленький файлик.
Бывает так, что о вас начальство "забывает" на день-два-три? Т.е. не надо ни на митингах быть, ни отчитываться кому-то, ни шеф не подходит с чашечкой?
Ну т.е. просто сидишь и кодишь, иногда отвлекаясь на форумчик или статейку в инете. И никто не мешает. И так несколько дней подряд.
Бывает?
"Бывает обычно перед увольнением" не вариант. ))
У меня на прошлом проекте иногда так было :) Вообще мне иногда казалось, что шефу нужно мое участи при "пожаре", а между пожарами он не знает чем меня занять :D
Тебе задачу поставили? Сиди делай и задавай вопросы
Бывает так, что о вас начальство "забывает" на день-два-три?
А зачем им встревать, вопросы есть спрашиваешь.
А дейлик это закон.
иногда отвлекаясь
А вот отвлекаться не надо, особенно с рабочего компа. Даже если форум по работе, но малоизвестный.
Фирма пишет управляющий и диагностический софт для станков, которые делают печатные платы и электронные компоненты на них размещают. Станки от небольших, размером с половинку маленькой машинки, до большой комнаты. У таких станков стоит обычный писюк, на котором крутится Винда. Ну а на ней управляющее ПО. Одно из приложение написано на WPF. Первое задание моё - написать сжиматель БД с логами. Логи - многословные XML, в которых много повторяющихся элементов. Чтобы скажем 10 ГБ усохло раз в 10. Ну я использовал стандартный GZipStream - вроде, zip-архивы тоже подобным алгоритмом создаются. Трудность была не только в том, чтобы вспомнить, как с потоками, базами данных и прочим работать, а ещё и чтобы 10 ГБ за раз не утягивать в оперативку - оно минимум 20 ГБ тогда в ней займёт (сами данные, плюс их копируешь, пока обрабатываешь, плюс упакованное хранишь и передаёшь на запись). Т.е. пакетную обработку надо сделать. Ну я написал и протестил пока на 1,5 ГБ БД. В памяти такая бы раза в 2 больше места заняла - т.е. 3. У меня больше 800 МБ потребление не поднималось (судя по графику потребления RAM в Студии). Сейчас протестирую с БД размером ГБ на 5. Но и эти полтора гига у меня ноут минуты 3 обрабатывал. Там хоть и сборщик мусора работает по отработанным пакетам, но всё равно потребление видно, что потихоньку растёт. Если до 2 ГБ на процесс дойдёт, то надо что-то ещё придумывать. Может, размеры пакетов уменьшать. Щас у меня 8к записей (1,5 ГБ) обрабатываются пакетами по 500.
Шеф зачем-то просит сохранять промежуточные результаты в файлах - может, чтобы проверить. Так-то можно всё в памяти делать (в streams), без файлов. Если без сохранения промежуточных результатов в файлы, то можно урезать потребление памяти, я думаю. Шеф сказал, что такое пишется за 1 день, если знаешь, как делать, а я уже вторую неделю. )) Ну, во второй раз я конечно по шаблону гораздо быстрее напишу.
Так и есть. Уменьшил пакет до 200 записей - теперь больше 500 МБ рамы не потребляет. Буду тестиь на большой БД.
подвязались к ASM?
сжиматель БД с логами. Логи - многословные XML
Не понял? Свой zip.exe для xml надо сделать? А причем база тогда и логи?
Что за ASM?
Наверное ассемблер.
Не понял? Свой zip.exe для xml надо сделать? А причем база тогда и логи?
Не свой, а стандартный GZipStream - в нём используется GZip алгоритм, который везде давно используется. Я читаю таблицу, где в некоторых полях XML-логи, которые составляют 99% веса записи, сжимаю их и вместе с остальными данными копирую в другую таблицу. Первая таблица, насколько я понял, иногда очищается, т.к. занимает гораздо больше места и быстрее заполняется. А у них там ограничение по лицензии на размер БД или что-то такое.
Сжиматься будет на той же машине, на которой БД крутится, но сейчас я подключаюсь к БД удалённо, поэтому кидаюсь данными по сети. Ну и опять же, сразу несколько гигов в память не загрузишь (хотя процесс может потреблять и больше 2 ГБ - вроде, в .NET с какой-то версии сняли это ограничение, когда на 64-бита всё перевели). Поэтому пакетно:
db.Table
.AsNoTracking
.OrderBy(o => o.Id)
.Skip
.Take
Это упрощённо. Меня только смущает, что на каждый пакет нужен отдельный запрос, и каждый раз нужно всю таблицу сначала упорядочить. Таблица, из которой я читаю, имеет кластерный индекс Id. Т.е. по идее можно не сортировать при каждом запросе, если всё, что мне нужно, просто пакеты по порадку считать? Кластерный индекс уже отсортирован - т.е. при каждом чтении нескольких записей из такой таблицы возвращается уже отсортированная последовательность? Т.е. в записи выше можно опустить OrderBy, не боясь, что пакеты перекроются по индексам?
Она скорее имела ввиду какую-то фирму. Я ещё до конца не разобрался, производит ли их заказчик или только использует. Да и мне это не особо надо. Главное, что мы пишем софт для управления и диагностики этих станков. Из-за этого надо вникать в детали и сказали, что будет курс лекций от заказчика. Там куча более низкоуровневого софта, с которым надо из Дотнета взаимодействовать, поэтому полно нюансов, и они про это всё на лекциях будут рассказывать.
Ещё странно, что когда рассказывали об этом, как будто извиняющимся тоном. Ещё переспросили, мол увлекает или нет? Нам, мол, нравится. Как будто к ними приходили уже много народу, и видя, что там что-то с железом и неджавакскрипт - уходили. ))
Я читаю таблицу, где в некоторых полях XML-логи, которые составляют 99% веса записи,
А не лучше ли сразу писать упакованные или в более компактном формате?