EugeneRoshal
Advanced Member | Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору maru66649 Цитата: но вот хотелось бы обсудить всё же вопрос сортировки файлов в архивах на основе анализа похожести файлов. | Там ведь совпадающие данные в похожих файлах не обязаны находиться по одинаковым смещениям и даже в одинаковом порядке. Тогда определение похожести может оказаться достаточно трудоемким и ресурсоемким. Например, посчитать для каждого файла сколько-то хэшей 1кб блоков по случайным позициям. Или не случайным, а с каким-то сдвигом. Подсчитать количество совпадающих хэшей для каждой пары файлов, а потом сортировать пары по количеству совпадений. И то не уверен, что это будет надежно работать. Для файлов в сотни мб, как в вашем примере, вероятно, потребуются десятки тысяч хэшей. GoblinNN Цитата: возьмем этот rr. сейчас я считаю вообще не актуально. это раньше, во времена дискет и сдром было актуально. а сейчас сделал архив. закинул в четыре разных облака и норм. | Если исходящая скорость соединения медленнее записи на локальный носитель, на больших объемах локальный бэкап может быть заметно быстрее. За большие объемы в облаке нужно платить. Эти деньги можно потратить и на организацию локального бэкапа. За облаком надо следить, не поменялись ли тарифы и условия, не собираются ли там закрыть бизнес. Конфиденциальность опять же, с облаком надо шифровать каждый байт. У облака, конечно, немало плюсов, но и локальный бэкап ушел в прошлое далеко не для всех. Тем более, что облако и локальный бэкап могут использоваться совместно. Цитата: а можно включить сортировку по rarfiles.lst не только в solid архивах? в обыкновенных тоже. | А зачем это в обыкновенных? |