uShell
Advanced Member | Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору EugeneRoshal Не умаляя достоинств Rar5, хочу выразить сомнение в его производительности. Обработка 4-гигабайтного архива за 14 секунд (пусть даже в один проход) означает, что Ваш диск обладает скоростью свыше 290 МБ/с - это либо SSD, либо архив был закэширован в память. Ориентация на современные системы мне понятна, но всё же не у всех пользователей будут достигаться такие цифры. Я пересжал тот же DVD9, что и в прошлом своём тесте: размер тома 4095 МБ, RR 10%, словарь 1 МБ, режим Fastest для Rar5 и Fast для Rar4 (плюс старая схема именования томов). Итого получились тома 4095+3575 МБ для Rar5 и 4095+3389 МБ для Rar4. Архивы лежали на USB HDD (чтение 23-26 МБ/с, копирование вдвое медленнее, но за счёт кэширования записи стартует быстрее), Rar 5.90b3 x86 запускался в однопоточном режиме. Тестирование - 06:38 против 03:45, восстановление - 20:05+12:12 против 20:00+15:19. Результаты измерений имеют точность +- несколько секунд на поиск Rar.exe в каталогах PATH. Дисковый кэш специально не сбрасывал, т.к. размеры томов должны превосходить размер кэша. В этом тесте на восстановление Rar4 потребовалось 5 проходов: поиск RR, два прохода на анализ CRC (по крайней мере, строчка Analyzing file data была выведена дважды) и копирование (которое я считаю за два прохода: чтение+запись). Примерно 9 минут из 20 были потрачены на первые 3 прохода, ядро процессора было при этом загружено наполовину. При копировании загрузка процессора была меньше - очевидно, основное время тратилось на чтение/запись. Rar5 выводит строчку Analyzing file data один раз - вероятно, сказывается оптимизация. Получается 4 прохода, но файл fixed*.rar сразу после создания удаляется. (Кстати, это надо будет учитывать в сценариях: если я пишу bat-файл для восстановления битых архивов, я не могу быть уверен, что у меня останется fixed*.rar, т.е. надо будет использовать дополнительный if exists.) То есть Rar узнаёт, что архив не повреждён, но не может ли он это узнать до начала копирования? Этим можно было бы вдвое уменьшить число дисковых операций. |