Wget

‘-T seconds’ ‘—timeout=seconds’

Set the network timeout to seconds seconds. This is equivalent to specifying ‘—dns-timeout’, ‘—connect-timeout’, and ‘—read-timeout’, all at the same time.

When interacting with the network, Wget can check for timeout and abort the operation if it takes too long. This prevents anomalies like hanging reads and infinite connects. The only timeout enabled by default is a 900-second read timeout. Setting a timeout to 0 disables it altogether. Unless you know what you are doing, it is best not to change the default timeout settings.

All timeout-related options accept decimal values, as well as subsecond values. For example, ‘0.1’ seconds is a legal (though unwise) choice of timeout. Subsecond timeouts are useful for checking server response times or for testing network latency.

Синтаксис опций

Поскольку Wget использует библиотеку «GNU getops» для обработки
аргументов командной строки, каждая опция имеет короткую и длинную
формы. Длинные опции проще в запоминании, но требуют большего
времени для набора. Вы можете свободно смешивать разные стили
опций или вводить их после аргументов командной строки. Поэтому
вы можете писать:

wget -r --tries=10 http://fly.cc.fer.hr/ -o log

Пробел между опцией принимающей аргумент и самим аргументом может
быть опущен, т.е. вместо вы можете писать
.

Опции, которые не требуют аргумента, можно объединять вместе,
например:

wget -drc URL
wget -d -r -c URL

Поскольку опции могут быть определены после аргументов, вы можете
прервать обработку опций при помощи . Таким образом
следующая команда приведет к попытке получения доступа к URL «-x»,
с выводом отчета об отказе в файл «log».

wget -o log -- -x

Опции, которые принимают в качестве аргумента список значений
разделенных запятыми, отвечают соглашению, что определение пустого
списка приводит к очистке аргумента. Это может быть полезно для
для перекрытия установок . К примеру, если
ваш устанавливает параметр «exclude_directories»
в «/cgi-bin», то следующий пример будет сначала сбрасывать это
значение, а затем устанавливать исключение для «/~nobody» и «/~somebody».
Вы так же можете очищать списки в
(см. ).

wget -X '' -X /~nobody,/~somebody

Опции генерации отчета и входного файла

-o ФАЙЛ_ОТЧЕТА
—output-file=ФАЙЛ_ОТЧЕТА

Выводить все сообщения в файл ФАЙЛ_ОТЧЕТА. В нормальном режиме сообщения
выводятся в стандартный поток ошибок.

-a ФАЙЛ_ОТЧЕТА
—append-output=ФАЙЛ_ОТЧЕТА

Добавлять сообщения в файл ФАЙЛ_ОТЧЕТА. Подобно «-o», но вместо перезаписи
файла отчета вывод будет добавляться в его конец. Если ФАЙЛ_ОТЧЕТА не существует,
то он будет создан.

-d
—debug

Включение отладочного вывода. Предназначена для разработчиков Wget
на случай если он работает не верно. Ваш системный администратор мог
собрать Wget без поддержки отладочного вывода, в этом случае данная
опция работать не будет. Отметим что сборка Wget с поддержкой отладки
совершенно безопасна. Wget собранный таким образом не будет
выводить никакой отладочной информации, пока ее не запросят опцией
«-d». См.
для дополнительной информации как пользоваться «-d» для отправки
отчета об ошибках.

-q
—quiet

Полностью отключить вывод Wget.

-v
—verbose

Включить подробный вывод всей доступной информации. По умолчанию
вывод подробный.

-nv
—non-verbose

Сокращенный вывод. Отключает подробный вывод но не выключает вывод
полностью (для этого используйте «-q»), это означает, что сообщения об
ошибках и основная информация будут выводиться.

-i ФАЙЛ
—input-file=ФАЙЛ

Читать список URL из ФАЙЛА, в этом случае нет необходимости вводить URL
в командной строке. Если же они присутствуют в обоих местах: и в командной
строке, и в файле; то впервую очередь будут обработаны URL из командной
строки. ФАЙЛ не обязательно должен быть в формате HTML, хотя HTML тоже
допустим, достаточно чтобы URL были перечислены последовательно.

Однако, если вы определите опцию
, индексный документ
будет рассматриваться как HTML. В этом случае могут возникнуть проблемы
с относительными ссылками, которые вы можете решить добавлением тега
в документ или задав

в командной строке.

-F
—force-html

Когда входные данные читаются из файла, включает обработку этого
файла как HTML документа. Для корректной обработки относительных ссылок
в этом документе необходимо задать базовый URL путем указания его в
самом документе тегом , либо
опцией командной строки .

‘-O file’ ‘—output-document=file’

The documents will not be written to the appropriate files, but all will be concatenated together and written to file. If ‘-’ is used as file, documents will be printed to standard output, disabling link conversion. (Use ‘./-’ to print to a file literally named ‘-’.)

Документы не будут записываться в соответствующие файлы, но все они будут объединены вместе и записаны в файл. Если ‘-‘ используется как файл, документы будут напечатаны на стандартный вывод, отключив преобразование ссылок. (Используйте ‘./-‘ для печати в файл, буквально названный ‘-‘.)

Use of ‘-O’ is not intended to mean simply “use the name file instead of the one in the URL;” rather, it is analogous to shell redirection: ‘wget -O file http://foo’ is intended to work like ‘wget -O — http://foo > file’; file will be truncated immediately, and all downloaded content will be written there.

Использование «-O» не означает просто «использовать файл имен вместо URL-адреса», скорее, аналогично перенаправлению оболочки: «wget -O file http://foo» предназначен для работы например ‘wget -O — http://foo > file‘; файл будет усечён сразу, и весь загруженный контент будет там написан.

For this reason, ‘-N’ (for timestamp-checking) is not supported in combination with ‘-O’: since file is always newly created, it will always have a very new timestamp. A warning will be issued if this combination is used.

По этой причине «-N» (для проверки временной отметки) не поддерживается в сочетании с «-O»: поскольку файл всегда создан, он всегда будет иметь очень новую метку времени. При использовании этой комбинации будет выдано предупреждение.

Similarly, using ‘-r’ or ‘-p’ with ‘-O’ may not work as you expect: Wget won’t just download the first file to file and then download the rest to their normal names: all downloaded content will be placed in file. This was disabled in version 1.11, but has been reinstated (with a warning) in 1.11.2, as there are some cases where this behavior can actually have some use.

Аналогично, использование ‘-r‘ или ‘-p‘ с ‘-O‘ может не работать так, как вы ожидаете: Wget не просто загрузит первый файл в файл и затем загрузит остальное в их обычные имена: все загруженные материалы будут помещается в файл. Это было отключено в версии 1.11, но было восстановлено (с предупреждением) в 1.11.2, так как есть случаи, когда это поведение действительно может быть использовано.

A combination with ‘-nc’ is only accepted if the given output file does not exist.

Комбинация с ‘-nc‘ принимается только в том случае, если данный выходной файл не существует.

Note that a combination with ‘-k’ is only permitted when downloading a single document, as in that case it will just convert all relative URIs to external ones; ‘-k’ makes no sense for multiple URIs when they’re all being downloaded to a single file; ‘-k’ can be used only when the output is a regular file.

Обратите внимание, что комбинация с «-k» разрешена только при загрузке одного документа, так как в этом случае он будет просто преобразовывать все относительные URI в внешние; «-k» не имеет смысла для нескольких URI, когда все они загружаются в один файл; ‘-k‘ может использоваться только тогда, когда вывод является обычным файлом

Параметры сообщений

-o logfile
—output-file=logfile
Записывать все сообщения в logfile. Иначе они будут направлены в stderr.
-a logfile
—append-output=logfile
Дополнить logfile. Как и -o, только logfile не заменяется, а дополняется. Если logfile не существует, создается новый файл.
-d
—debug
Отображать сообщения отладки — разная информация, важная для разработчиков Wget.
-q
—quiet
Выключить сообщения Wget.
-v
—verbose
Включить подробные сообщения, со всеми доступными данными. По умолчанию включено.
-nv
—non-verbose
Исопльзовать сокращенные сообщения (чтобы выключить сообщения, см. -q). Сообщения об ошибках и основная информация будут отображаться.
-i file
—input-file=file
Считать URL из file. В этом случае указывать URL в командной строке не требуется. Если URL указаны и в командной строке и в file, то сначала будут загружены URL из командной строки. file не обязательно должен иметь формат HTML (но ничего страшного, если это так) — URL просто должны быть указаны в нем.

Если вы укажете —force-html, то файл будет прочтен как html. В этом случае могут возникнуть проблемы с относительными ссылками. Это можно предотвратить добавлением в него "" или вводом в командной строке —base=url.

-F
—force-html
При чтении URL из файла, включает чтение файла как HTML. Для предотвращения ошибок в случае локального файла HTML добавьте в файл "" или введите параметр командной строки —base.
-B URL
—base=URL
При чтении URL из файла (-F) определяет URL, добавляемый к относительным адресам файла, указанного параметром -i.

‘—remote-encoding=encoding’

Force Wget to use encoding as the default remote server encoding. That affects how Wget converts URIs found in files from remote encoding to UTF-8 during a recursive fetch. This options is only useful for IRI support, for the interpretation of non-ASCII characters.

Заставить Wget использовать кодировку как стандартную кодировку удаленного сервера. Это влияет на то, как Wget преобразует URI, найденные в файлах из удаленного кодирования, в UTF-8 во время рекурсивной выборки. Эти параметры полезны только для поддержки IRI, для интерпретации символов, отличных от ASCII.

For HTTP, remote encoding can be found in HTTP Content-Type header and in HTML Content-Type http-equiv meta tag.

Для HTTP удаленное кодирование можно найти в заголовке HTTP Content-Type и в метатеге http-equiv HTML Content-Type.

You can set the default encoding using the remoteencoding command in .wgetrc. That setting may be overridden from the command line.

Вы можете установить кодировку по умолчанию, используя команду remoteencoding в .wgetrc. Этот параметр может быть переопределен из командной строки.

‘—limit-rate=amount’

Limit the download speed to amount bytes per second. Amount may be expressed in bytes, kilobytes with the ‘k’ suffix, or megabytes with the ‘m’ suffix. For example, ‘—limit-rate=20k’ will limit the retrieval rate to 20KB/s. This is useful when, for whatever reason, you don’t want Wget to consume the entire available bandwidth.

This option allows the use of decimal numbers, usually in conjunction with power suffixes; for example, ‘—limit-rate=2.5k’ is a legal value.

Note that Wget implements the limiting by sleeping the appropriate amount of time after a network read that took less time than specified by the rate. Eventually this strategy causes the TCP transfer to slow down to approximately the specified rate. However, it may take some time for this balance to be achieved, so don’t be surprised if limiting the rate doesn’t work well with very small files.

Использование рекурсивной закачки

Чтобы заставить wget автоматически переходить по ссылкам и скачивать соответствующие ресурсы, нужно воспользоваться ключом -r. Также с помощью ключа -l можно указать, до какой глубины спускаться по ссылкам:

$ wget -r -l 0 -np http://my.home-site.ru/articles

В данном случае для ключа -l указано значение 0 — бесконечная глубина ссылок. Дополнительный ключ -np указывает wget, что в ходе рекурсивного исполнения нельзя подниматься выше указанного уровня (директории), т. е. в данном случае выше articles.

Следующая команда скачает сайт полностью

wget -r -k -l 0 -p -E -nc http://site.ru/

После чего в директорию site.ru загрузится сайт со всеми страницами. Параметр «-E» добавляет к файлам расширение html, «-nc» — не перезаписывать уже существующие файлы. Остальные опции мы уже рассмотрели выше.

‘—progress=type’

Select the type of the progress indicator you wish to use. Legal indicators are “dot” and “bar”.

The “bar” indicator is used by default. It draws an ASCII progress bar graphics (a.k.a “thermometer” display) indicating the status of retrieval. If the output is not a TTY, the “dot” bar will be used by default.

Use ‘—progress=dot’ to switch to the “dot” display. It traces the retrieval by printing dots on the screen, each dot representing a fixed amount of downloaded data.

The progress type can also take one or more parameters. The parameters vary based on the type selected. Parameters to type are passed by appending them to the type sperated by a colon (:) like this: ‘—progress=type:parameter1:parameter2’.

When using the dotted retrieval, you may set the style by specifying the type as ‘dot:style’. Different styles assign different meaning to one dot. With the default style each dot represents 1K, there are ten dots in a cluster and 50 dots in a line. The binary style has a more “computer”-like orientation—8K dots, 16-dots clusters and 48 dots per line (which makes for 384K lines). The mega style is suitable for downloading large files—each dot represents 64K retrieved, there are eight dots in a cluster, and 48 dots on each line (so each line contains 3M). If mega is not enough then you can use the giga style—each dot represents 1M retrieved, there are eight dots in a cluster, and 32 dots on each line (so each line contains 32M).

With ‘—progress=bar’, there are currently two possible parameters, force and noscroll.

When the output is not a TTY, the progress bar always falls back to “dot”, even if ‘—progress=bar’ was passed to Wget during invokation. This behaviour can be overridden and the “bar” output forced by using the “force” parameter as ‘—progress=bar:force’.

By default, the ‘bar’ style progress bar scroll the name of the file from left to right for the file being downloaded if the filename exceeds the maximum length allotted for its display. In certain cases, such as with ‘—progress=bar:force’, one may not want the scrolling filename in the progress bar. By passing the “noscroll” parameter, Wget can be forced to display as much of the filename as possible without scrolling through it.

Note that you can set the default style using the progress command in .wgetrc. That setting may be overridden from the command line. For example, to force the bar output without scrolling, use ‘—progress=bar:force:noscroll’.

‘—bind-dns-address=ADDRESS’

This address overrides the route for DNS requests. If you ever need to circumvent the standard settings from /etc/resolv.conf, this option together with ‘—dns-servers’ is your friend. ADDRESS must be specified either as IPv4 or IPv6 address. Wget needs to be built with libcares for this option to be available.

Этот адрес переопределяет маршрут для DNS-запросов. Если вам когда-либо нужно обойти стандартные настройки из /etc/resolv.conf, этот параметр вместе с ‘—dns-servers’ является вашим другом. ADDRESS должен указываться либо как IPv4, либо IPv6-адрес. Wget необходимо создать с помощью libcares, чтобы этот параметр был доступен.

Опции рекурсивной выгрузки

-r
—recursive

Включить рекурсивную выгрузку. Подробности смотрите в разделе
«Рекурсивная выгрузка».

-l ГЛУБИНА
—level=ГЛУБИНА

Определение максимальной ГЛУБИНЫ рекурсии. Умалчиваемое значение 5.

—delete-after

Данная опция говорит Wget удалять каждый единичный выгруженный файл
после того как он выгружен. Это полезно для предвыборки популярных
страниц через прокси сервер, например:

wget -r -nd --delete-after http://whatever.com/~popular/page/

Здесь: «-r» — выбирать рекурсивно, «-nd» — не создавать каталоги.

-k
—convert-links

Конвертировать абсолютные ссылки в относительные локально.
Преобразование будет выполнено только для для ссылок на документы,
которые действительно были выгружены, остальные ссылки будут оставлены
как есть.

Отметим, что только по завершению выгрузки Wget сможет выяснить,
что подлежит конвертации. По этой причине большинство работы будет
выполняться по завершению процесса выгрузки.

-m
—mirror

Включить опции необходимые для операции зеркалирования. К этим
опциям относятся: рекурсия (-r), контроль дат модификации (-N), неограниченная
рекурсия (-l inf) и сохранение списков FTP каталогов (-nr).

-nr
—dont-remove-listing

Не удалять временные файлы списков («.listing») FTP каталогов
генерируемые при FTP выгрузке. Обычно эти списки содержат полный перечень
содержимого каталогов, полученный с FTP сервера. Сохранение этих файлов
может быть полезно для доступа к полному списку удаленных файлов при
запуске зеркалирования или для отладки.

Параметры HTTP

-E
—html-extension
Если тип загруженного файла text/html и его адрес не оканчивается на .?, при использовании данного параметра к его имени будет добавлено .html. Это может быть полезно при зеркальном хранении страниц .asp, если вы не хотите, чтобы они вмешивались в работу вашего сервера Apache. Другой случай применения этого парамера — это загрузка страниц-ответов CGI скриптов. Страница с URL вида http://site.com/article.cgi?25 будет сохранена, как article.cgi?25.html.

Примечание: при обновлении или другой перезагрузке страниц с данным параметром последние будут загружаться заново в любом случае, т.к. Wget не может узнать, имеет ли отношение локальный файл X.html к загружаемому с URL X. Чтобы избежать лишней перезагрузки, используйте опции -k и -K. При этом оригинальные версии файлов будут также сохранены как X.orig.

—http-user=user
—http-passwd=password
Имя пользователя user и пароль password для сервера HTTP. В зависимости от типа отклика, Wget будет использовать "basic" (небезопасную) или "digest" (защищенную) авторизацию.

Можно также указывать имя пользователя и пароль и в самом URL.

-C on/off
—cache=on/off
Включает или выключает кеширование со стороны сервера. При этом Wget посылает соответствующих запрос (Pragma: no-cache). Также используется для быстрого обновления файлов на прокси-сервере.

По умолчанию кеширование разрешено.

—cookies=on/off
Включает или выключает использование cookie. Сервер отправляет клиенту cookie, используя заголовок "Set-Cookie" и клиент отвечает таким же cookie. Благодаря этому сервер может вести статистику посетителей. По умолчанию cookie используются, но запись их на диск выключена.
—load-cookies file
Загружать cookie из file перед первой загрузкой HTTP. file имеет текстовый формат, как cookies.txt у Netscape.

Этот параметр используется при зеркалировании. Для этого Wget отправляет те же cookies, которые отправляет ваш браузер при соединении с сервером HTTP. Это включается данным параметром — просто укажите Wget путь к cookies.txt. Разные браузеры хранят cookie в разных папках:

Netscape 4.x.
Файл находится в ~/.netscape/cookies.txt.
Mozilla и Netscape 6.x.
Mozilla хранит cookies в cookies.txt, расположенном где-то в ~/.mozilla, в папке вашего профиля. Полный путь обычно заканчивается чем-то вроде ~/.mozilla/default/some-weird-string/cookies.txt.
Internet Explorer.
Чтобы экспортировать cookie для Wget, выберите «Файл», «Импорт и Экспорт», в мастере выберите «Экспорт файлов cookie». Проверено в Internet Explorer 5; возможно не будет работать в ранних версиях.
Другие обозреватели.
Параметр —load-cookies будет работать с cookie в формате Netscape, который поддерживается Wget.

Если вы не можете использовать параметр —load-cookies, то все равно есть выход. Если ваш обозреватель поддерживает Запишите имя и значение cookie и вручную укажите Wget отправку этих cookie:

        wget --cookies=off --header "Cookie: I=I"
—save-cookies file
Сохранить cookie из file в конце сессии. Устаревшие cookie не сохраняются.
—ignore-length
Некоторые серверы HTTP (точнее, скрипты CGI) отправляют заголовки "Content-Length", которые указывают Wget, что загружено еще не все. И Wget загружает один документ несколько раз.

С этим параметром, Wget будет игнорировать заголовки "Content-Length".

—header=additional-header
Определяет additional-header, отправляемый серверу HTTP. Он должен содержать и символы после него.

Вы можете определить несколько дополнительных заголовков через использование —header несколько раз.

        wget --header='Accept-Charset: iso-8859-2'              --header='Accept-Language: hr'        http://fly.srk.fer.hr/

Указание пустой строки в значении заголовка очистит все определенные пользователем до этого заголовки.

—proxy-user=user
—proxy-passwd=password
Определяет имя пользователя user и пароль password для авторизации сервере прокси. Будет использован тип авторизации "basic".
—referer=url
Добавляет заголовок `Referer: url‘ в запрос HTTP. Используется при загрузке страниц, которые передаются правильно только если сервер знает, с какой страницы вы пришли.
-s
—save-headers
Сохранять заголовки, отправляемые серверам HTTP.
-U agent-string
—user-agent=agent-string
Идентифицироваться, как agent-string при запросе на HTTP сервер.

Протокол HTTP позволяет определять себя использованием заголовка агента. Wget по умолчанию идентифицируется, как Wget/version, где version — это версия Wget.

Некоторые серверы выдают требуемую информацию только для обозревателей, идентифицирующихся как "Mozilla" или Microsoft "Internet Explorer". Этот параметр позволяет обмануть такие серверы.

Скачиваем несколько файлов утилитой Wget

С одиночными файлами все понятно, вводим название утилиты – wget а адрес файла, но что делать, если необходимо скачать сразу несколько файлов? Тут опять нам поможет утилита Wget, и для этих нужд необходимо сначала создать файл и в него запишем все файлы которые хотим скачать. И так, создадим файл под названием “Download” и в него запишем URL адреса файлов которые и будем скачивать, для примера возьмем все тот же Port-Wine, а так же Hard Disk Sentinel, это утилита для диагностики HDD и SDD для Linux, подробней о ней написано тут:

Затем вводим название утилиты – “wget”, указываем ключ “-i” и указываем название созданного чуть ранее файла “Download”:

Утилита Wget скачает все файлы которые были указаны в Download в данную директорию. Таким образом можно создавать списки для скачивания файлов.

Использование wget Linux

Команда wget linux, обычно поставляется по умолчанию в большинстве дистрибутивов, но если нет, ее можно очень просто установить. Например установка с помощью yum будет выглядеть следующим образом:

А в дистрибутивах основанных на Debian:

Теперь перейдем непосредственно к примерам:

1. Загрузка файла

Команда wget linux скачает один файл и сохранит его в текущей директории. Во время загрузки мы увидим прогресс, размер файла, дату его последнего изменения, а также скорость загрузки:

Опция -О позволяет задать имя сохраняемому файлу, например, скачать файл wget с именем wget.zip:

Вы можете скачать несколько файлов одной командой даже по разным протоколам, просто указав их URL:

4. Взять URL из файла

Вы можете сохранить несколько URL в файл, а затем загрузить их все, передав файл опции -i. Например создадим файл tmp.txt, со ссылками для загрузки wget, а затем скачаем его:

5. Продолжить загрузку

Утилита wget linux рассчитана на работу в медленных и нестабильных сетях. Поэтому если вы загружали большой файл, и во время загрузки было потеряно соединение, то вы можете скачать файл wget с помощью опции -c.

6. Загрузка файлов в фоне

Опция -b заставляет программу работать в фоновом режиме, весь вывод будет записан в лог файл, для настройки лог файла используются специальные ключи wget:

7. Ограничение скорости загрузки

Команда wget linux позволяет не только продолжать загрузку файлов, но и ограничивать скорость загрузки. Для этого есть опция —limit-rate. Например ограничим скорость до 100 килобит:

Здесь доступны, как и в других подобных командах индексы для указания скорости — k — килобит, m — мегабит, g — гигабит, и так далее.

8. Подключение по логину и паролю

Некоторые ресурсы требуют аутентификации, для загрузки их файлов. С помощью опций —http-user=username, –http-password=password и —ftp-user=username, —ftp-password=password вы можете задать имя пользователя и пароль для HTTP или FTP ресурсов.

Или:

9. Загрузить и выполнить

Вы, наверное, уже видели такие команды. wget позволяет сразу же выполнять скачанные скрипты:

Если опции -O не передать аргументов, то скачанный файл будет выведен в стандартный вывод, затем мы его можем перенаправить с интерпретатор bash, как показано выше.

По умолчанию wget сохраняет файл в текущую папку, но это поведение очень легко изменить с помощью опции -P:

11. Передать информацию о браузере

Некоторые сайты фильтруют ботов, но мы можем передать фальшивую информацию о нашем браузере (user-agent) и страницу с которой мы пришли (http-referer).

12. Количество попыток загрузки

По умолчанию wget пытается повторить загрузку 20 раз, перед тем как завершить работу с ошибкой. Количество раз можно изменить с помощью опции —tries:

13. Квота загрузки

Если вам доступно только ограниченное количество трафика, вы можете указать утилите, какое количество информации можно скачивать, например разрешим скачать файлов из списка только на десять мегабайт:

Здесь работают те же индексы для указания размера — k, m, g, и т д.

14. Скачать сайт

Wget позволяет не только скачивать одиночные файлы, но и целые сайты, чтобы вы могли их потом просматривать в офлайне. Использование wget, чтобы скачать сайт в linux выглядит вот так:

Особенности wget

Утилита wget обладает рядом особенностей, делающих её самым эффективным и популярным инструментом для организации загрузок, в особенности среди системных администраторов:

  • утилита является стандартным инструментом для дистрибутивов на базе Не нужно предварительно ничего устанавливать, настраивать или компилировать (если, конечно не нужно использовать самую актуальную версию wget), достаточно просто начать использование;
  • wget поддерживает работу в фоновом режиме;
  • утилита самостоятельно контролирует соединения и поэтому способна осуществлять докачку при потере соединений или плохой связи;
  • поддержка рекурсивного режима работы wget позволяет автоматически выполнять закачки из множества ресурсов, например, закачивая несколько HTML-страниц или поддиректорий с FTP-сервера.

Утилита wget обладает очень богатым функционалом, который полностью описан на официальных страницах технической документации, доступной по команде man wget. Также можно воспользоваться опцией —help для получения списка поддерживаемых ключей и их описания. В большинстве случаев опция —help предоставляет описание на языке, соответствующем текущей локализации системы.

Как разрешить ошибку «bash: wget: command not found»

Для того, чтобы решить ошибку «bash: wget: command not found», вам необходимо установить утилиту wget на сервере.

В Debian и Ubuntu:

root@ubuntu:~# apt-get install wget

Пример журнала установки:

root@ubuntu:~# apt-get install wget
Reading package lists... Done
Building dependency tree
Reading state information... Done
The following NEW packages will be installed:
  wget
0 upgraded, 1 newly installed, 0 to remove and 0 not upgraded.
Need to get 298 kB of archives.
After this operation, 901 kB of additional disk space will be used.
Get:1 http://ap-south-1.ec2.archive.ubuntu.com/ubuntu xenial-updates/main amd64                                                                                         
wget amd64 1.17.1-1ubuntu1.2 
Fetched 298 kB in 0s (401 kB/s)
Selecting previously unselected package wget.
(Reading database ... 51222 files and directories currently installed.)
Preparing to unpack .../wget_1.17.1-1ubuntu1.2_amd64.deb ...
Unpacking wget (1.17.1-1ubuntu1.2) ...
Processing triggers for install-info (6.1.0.dfsg.1-5) ...
Processing triggers for man-db (2.7.5-1) ...
Setting up wget (1.17.1-1ubuntu1.2) ...

На RHEL и Centos. 

# yum install wget

Пример журнала установки:

# yum install wget
Loaded plugins: amazon-id, rhui-lb, search-disabled-repos
Resolving Dependencies
--> Running transaction check
---> Package wget.x86_64 0:1.14-13.el7 will be installed
--> Finished Dependency Resolution
 
Dependencies Resolved
 
========================================================================================================================================================================
Package                        Arch                             Version                               Repository                                                  Size
========================================================================================================================================================================
Installing:
wget                           x86_64                           1.14-13.el7                           rhui-REGION-rhel-server-releases                           546 k
 
Transaction Summary
========================================================================================================================================================================
Install  1 Package
 
Total download size: 546 k
Installed size: 2.0 M
Is this ok [y/d/N]: y
Downloading packages:
wget-1.14-13.el7.x86_64.rpm                                                                                                                      | 546 kB  00:00:00
Running transaction check
Running transaction test
Transaction test succeeded
Running transaction
  Installing : wget-1.14-13.el7.x86_64                                                                                                                              1/1
  Verifying  : wget-1.14-13.el7.x86_64                                                                                                                              1/1
 
Installed:
  wget.x86_64 0:1.14-13.el7
 
Complete!
#

Как использовать wget для загрузки файлов через Интернет.

Синтаксис:

wget http://url/file
 
or
 
wget ftp://url/file

Примеры журнала загрузки:

# wget http://packages.sw.be/rpmforge-release/rpmforge-release-0.5.2-2.el6.rf.x86_64.rpm
--2017-05-06 11:21:34--  http://packages.sw.be/rpmforge-release/rpmforge-release-0.5.2-2.el6.rf.x86_64.rpm
Resolving packages.sw.be (packages.sw.be)... failed: Name or service not known.
wget: unable to resolve host address ‘packages.sw.be’
# wget http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-9.noarch.rpm
--2017-05-06 11:21:34--  http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-9.noarch.rpm
Resolving dl.fedoraproject.org (dl.fedoraproject.org)... 209.132.181.24, 209.132.181.25, 209.132.181.23
Connecting to dl.fedoraproject.org (dl.fedoraproject.org)|209.132.181.24|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 14704 (14K) [application/x-rpm]
Saving to: ‘epel-release-7-9.noarch.rpm’
 
100% 14,704      57.8KB/s   in 0.2s
 
2017-05-06 11:21:34 (57.8 KB/s) - ‘epel-release-7-9.noarch.rpm’ saved [14704/14704]

В приведенном выше примере мы загрузили файл «rpmforge-релиз-0.5.2-2.el6.rf.x86_64.rpm» с адреса URL «packages.sw.be/rpmforge-release/rpmforge-release-0.5.2- 2.el6.rf.x86_64.rpm»с использованием протокола HTTP.

Рейтинг
( Пока оценок нет )
Понравилась статья? Поделиться с друзьями:
Все про сервера
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: