Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты) | Wget2.
.
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: anynamer, 11:40 25-12-2023
vcrank

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
wget "http://127.0.0.1:8000/link.html" --background=off -U Opera --load-cookies=1c-cookies.txt --keep-session-cookies --no-check-certificate  -np -erobots=off -r -l0 -H -c -nd --accept-regex="https?://dl.*public/file/get.*"  

Спасибо попробую. Мне кажется, что wget попробует скачать все ссылки на странице по данному шаблону
А поидее надо скачать только одну. Там же ссылка и 2 зеркала. Если по основной ссылке всё скачалось, то и зеркала не нужны вроде как.
 
Хотя с другой стороны wget просто не будет скачивать файл повторно... надо пробовать

Всего записей: 1067 | Зарегистр. 24-10-2005 | Отправлено: 13:15 29-06-2020
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Доброе время, vcrank

Цитата:
А поидее надо скачать только одну. Там же ссылка и 2 зеркала. Если по основной ссылке всё скачалось, то и зеркала не нужны вроде как.  
Хотя с другой стороны wget просто не будет скачивать файл повторно... надо пробовать

Если хотите, чтобы зеркала трогались только если основной файл недоступен, добавьте "-Q 100k". Тогда wget остановится если по завершении скачивания файла объем скачанного превышает 100 килобайт. Надеюсь, что файлов размером менее 100k не будет...

Всего записей: 1891 | Зарегистр. 07-08-2002 | Отправлено: 14:03 29-06-2020
vcrank

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy
И снова здравствуйте
Вот такая команда в bat-файле

Цитата:
wget "https://releases.1c.ru/version_file?nick=Accounting30&ver=3.0.79.11&path=Accounting\3_0_79_11\Accounting_3_0_79_11_updsetup.exe" --background=off -U Opera --load-cookies=1c-cookies.txt --keep-session-cookies --no-check-certificate  -np -erobots=off -r -l0 -H -c -nd -o log --accept-regex="https?://dl.*public/file/get.*"  

 
Ссылка странная, но это ссылка на страницу, а не на файл
 
скачивает просто страницу со списком файлов
log

Всего записей: 1067 | Зарегистр. 24-10-2005 | Отправлено: 18:23 29-06-2020 | Исправлено: vcrank, 18:24 29-06-2020
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
vcrank

Цитата:
скачивает просто страницу со списком файлов

К сожалению, у меня и браузер и wget получают страницу:

Цитата:
Ошибка доступа У Вас нет доступа к данной странице. Уточните пожалуйста ссылку. Если она верна - то обратитесь в техподдержку и вам обязательно помогут найти интересующие вас данные.

Имя пользователя в правом углу верное. В общем списке, если выбираю - "Скрыть недоступные конфигурации" - то есть только Драйвер, СЛК и "Клиент ЭДО".  
 
Возможно ли, что Вы не поменяли куки от тестового пользователя на настоящего?
Посмотрите содержимое скачанной страницы. Перекачайте заново, добавив "-d -o full_log.txt". В full_log.txt будет список найденных ссылок и что с ними решено делать.
Я проверил еще раз работу с Вашей командой и файлом на локальном сервере. Мои логи https://www.upload.ee/files/11943957/full_log.zip.html

Всего записей: 1891 | Зарегистр. 07-08-2002 | Отправлено: 18:47 29-06-2020
vcrank

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Куки точно чистил.
Вот, что в логах и содержимое скачанной страницы
https://www.upload.ee/files/11944356/full_log.zip.html
 
Страница правильно отображается... с нужными данными
Может это из-за обилия слэшей в разные стороны или из-за странного имени страницы
 
 
Кстати, Клиент ЭДО можно качать и в тестовом аккаунте. Принцип страницы ровно такой же
https://releases.1c.ru/version_file?nick=ClientEDO82&ver=1.0.3.8&path=ClientEDO\1_0_3_8\updsetup.exe

Всего записей: 1067 | Зарегистр. 24-10-2005 | Отправлено: 20:05 29-06-2020 | Исправлено: vcrank, 20:08 29-06-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
vcrank,

Цитата:
ПРЕДУПРЕЖДЕНИЕ: невозможно проверить сертификат releases.1c.ru...

это у вас только с этим сайтом или и с остальными https?

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 20:57 29-06-2020
vcrank

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
los
В браузерах всё нормально.
Попробовать что-то по https скачать?

Всего записей: 1067 | Зарегистр. 24-10-2005 | Отправлено: 21:12 29-06-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
vcrank

Цитата:
В браузерах всё нормально.  

это из вашего *.log файла.

Цитата:
Попробовать что-то по https скачать?

попробуйте.

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 21:18 29-06-2020
vcrank

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
los
 

Цитата:
wget.exe https://download.geo.drweb.com/pub/drweb/c
ureit/cureit.exe -d -o full_log.txt
Setting --output-file (logfile) to full_log.txt
Работа продолжается в фоновом режиме, pid 5932.

 
https://www.upload.ee/files/11944731/full_log_cureit.zip.html

Всего записей: 1067 | Зарегистр. 24-10-2005 | Отправлено: 21:45 29-06-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
vcrank
с этим сайтом такого предупреждения нет. Может особенности работы под windows или еще чего, а может не помешает использовать более новые ssl сертификаты.

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 22:11 29-06-2020
vcrank

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
а может не помешает использовать более новые ssl сертификаты

Скачал https://curl.haxx.se/docs/caextract.html
Переименовал. Предупреждение осталось

Всего записей: 1067 | Зарегистр. 24-10-2005 | Отправлено: 22:22 29-06-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Переименовал. Предупреждение осталось

подходящий ключ с указанием пути к файлу сертификата правильно указали?

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 22:36 29-06-2020
vcrank

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
подходящий ключ с указанием пути к файлу сертификата правильно указали?

Просто в папке с программой заменил файл curl-ca-bundle.crt

Всего записей: 1067 | Зарегистр. 24-10-2005 | Отправлено: 23:08 29-06-2020
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Доброе время, vcrank
Не пойму, в чем дело. Похоже что ссылки все-таки придется вручную извлекать (с sed)...

Код:
set "userName1C=test100500"
set "passWord1C=qwerty123456"
set "wgetOpts= -np --background=off -U Opera --load-cookies=1c-cookies.txt --save-cookies=1c-cookies.txt --keep-session-cookies --no-check-certificate -erobots=off "
 
if exist 1c-cookies.txt del 1c-cookies.txt
wget %wgetOpts% "https://login.1c.ru/login" -O login.html
sed -n -e "/execution/s/.*execution[^<>]*value=\x22\([^\x22]\+\)\x22.*/\1/p" login.html > exec.txt
for /f %%i in (exec.txt) do wget %wgetOpts% --post-data="action=dologin&username=%userName1C%&password=%passWord1C%&_eventId=submit&geolocation&submit=%%D0%%92%%D0%%BE%%D0%%B9%%D1%%82%%D0%%B8&execution=%%i&rememberMe=on&inviteCode&inviteType" "https://login.1c.ru/login" -O login2.html
wget %wgetOpts% -t1 -nd "https://releases.1c.ru/total?hideUnavailablePrograms=false" -O total.html
wget %wgetOpts% "https://releases.1c.ru/version_file?nick=ClientEDO82&ver=1.0.3.8&path=ClientEDO\1_0_3_8\updsetup.exe" -O- | sed -e "s/href/\n/g" | sed -n -r -e "/^=/{s@=['\x22](https?://dl[^'\x22]+get[^'\x22]+)['\x22].*@\1@p}" | wget  %wgetOpts% -i- -c
 

Всего записей: 1891 | Зарегистр. 07-08-2002 | Отправлено: 07:57 30-06-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
vcrank

Цитата:
Просто в папке с программой заменил файл curl-ca-bundle.crt

вы используете wgetrc в котором указан путь к сертификату или в windows это и должно работать таким образом?
 
Alex_Piggy
с sed конструкция получается не самая короткая

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 09:58 30-06-2020
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Доброе время, los
Знамо дело...
grep -E -o "https://dl[^\'\"]+get[^\'\"]+"
 
Добавлено:

Цитата:
вы используете wgetrc в котором указан путь к сертификату или в windows это и должно работать таким образом?  

Это же не ванилька ;-) Надо искать откуда был скачан бинарник и какие патчи для него применялись... Были версии Wget для Windows, которые используют System Cert Store, были - которые ищут curl-ca-bundle.crt  в AppData и возле бинарника.

Всего записей: 1891 | Зарегистр. 07-08-2002 | Отправлено: 10:16 30-06-2020 | Исправлено: Alex_Piggy, 10:20 30-06-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Доброе время, Alex_Piggy

Цитата:
grep -E -o "https://dl[^\'\"]+get[^\'\"]+"  

уже короче и работает не только с gnu версией sed.

Цитата:
Были версии Wget для Windows, которые используют System Cert Store, были - которые ищут curl-ca-bundle.crt  в AppData и возле бинарника.

в full_log.txt присутствует "невозможно проверить сертификат releases.1c.ru." и до и после обновления сертификата. Либо вариант с "поместить в папку программой" не работает и нужно использовать доп. ключи или прописывать нужное в wgetrc либо у самого сайта проблема с сертификатом.
Скорее всего на решение задачи это не влияет, но факт остается фактом.
 

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 10:46 30-06-2020
vcrank

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy

Цитата:
Не пойму, в чем дело. Похоже что ссылки все-таки придется вручную извлекать (с sed)...  

Сейчас за другим компом нахожусь.
Качнул  
https://eternallybored.org/misc/wget/  (x64)
http://sed.sf.net/grabbag/ssed/sed-3.62.zip (пеерименовал в sed)
 
Ваш скрипт отработал. Файл скачался. В идеале бы получать такое же имя файла, как при скачивании через браузер, но в целом это скорее всего решу другими средствами
 
Кстати, попробовал скачать с не тестовыми учётными данными. Одна учётка не проходит авторизацию. Я подозреваю, что это из-за того, что в пароле используется кириллица о_О
 
Батник сохранён в кодировке DOS

Всего записей: 1067 | Зарегистр. 24-10-2005 | Отправлено: 12:29 30-06-2020 | Исправлено: vcrank, 12:31 30-06-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
В идеале бы получать такое же имя файла, как при скачивании через браузер, но в целом это скорее всего решу другими средствами  

попробуйте добавить ключ '--trust-server-names'
'wget --trust-server-names URL'

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 12:57 30-06-2020
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
vcrank

Цитата:
Ваш скрипт отработал. Файл скачался. В идеале бы получать такое же имя файла, как при скачивании через браузер, но в целом это скорее всего решу другими средствами  


Цитата:
попробуйте добавить ключ '--trust-server-names'  

Поправлю - конкретно здесь - "--content-disposition"
ИМХО таки лучше из URL полный путь вытянуть.

Цитата:
Я подозреваю, что это из-за того, что в пароле используется кириллица

Именно так.
1. Попробовать --local-encoding=cp866
2. Использовать пароль в форме urlEncoded из UTF-8 с удвоенными процентами. То есть "Пароль" становится "%%D0%%9F%%D0%%B0%%D1%%80%%D0%%BE%%D0%%BB%%D1%%8C" Пример онлайн энкодера - https://meyerweb.com/eric/tools/dencoder/ . Вроде ничего никуда не посылает...

Всего записей: 1891 | Зарегистр. 07-08-2002 | Отправлено: 13:29 30-06-2020 | Исправлено: Alex_Piggy, 13:29 30-06-2020
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru