Отправляет email-рассылки с помощью сервиса Sendsay

wget help

Здравствуйте! У меня стоит Free 5.0 Только начал изучать. Задача - надо
скачать с сайта (по http) файлы .jpg c с обоями, много, за несколько заходов

в инет. Возможно ли это сделать с помощью wget? Е сли да - то как? Причем так

чтобы лишнеее не качать - канал и так некачественный, много помех в линии.
Заранее благодарен всем откликнувшимся!
Kim

-*Информационный канал Subscribe.Ru
Написать в лист: mailto:comp.soft.bsd.all-list@subscribe.ru
Отписаться: mailto:comp.soft.bsd.all--unsub@subscribe.ru

http://subscribe.ru/ mailto:ask@subscribe.ru

Ответить   kim Sat, 06 Mar 2004 11:39:06 +0900 (#97728)

 

Ответы:

On Sat, 6 Mar 2004, kim wrote:

Читайте man. Там все написано.

Пример:
wget -r -l inf -t 50 -A.jpg http://www.server.com/dir/

mkb

-*Информационный канал Subscribe.Ru
Написать в лист: mailto:comp.soft.bsd.all-list@subscribe.ru
Отписаться: mailto:comp.soft.bsd.all--unsub@subscribe.ru

http://subscribe.ru/ mailto:ask@subscribe.ru

Ответить   Sat, 6 Mar 2004 20:24:15 +0300 (MSK) (#97943)

 

Задача - надо
скачать с сайта (по http) файлы .jpg c с обоями, много, за несколько
заходов
в инет. Возможно ли это сделать с помощью wget? Е сли да - то как?
чтобы лишнеее не качать - канал и так некачественный, много помех в линии.

Однако не все так однозначно, такого типа конструкция работает если в искомом

каталоге есть индекс файл, а если нет - облом получается. А весь сайт грабить

на картинки не требуется, зачем лишнее качать. Надо выкачать из определенного

каталога исключая вложенные (нижние) -np, или как вариант включая parent.
есть ли решение?? Помогите бестолковому, да еще не знающему английский...
С наилучшими пожеланиями Kim

-*Информационный канал Subscribe.Ru
Написать в лист: mailto:comp.soft.bsd.all-list@subscribe.ru
Отписаться: mailto:comp.soft.bsd.all--unsub@subscribe.ru

http://subscribe.ru/ mailto:ask@subscribe.ru

Ответить   kim Sun, 07 Mar 2004 21:56:30 +0900 (#98484)

 

On Sun, 7 Mar 2004, kim wrote:

Вот, родил :-))
wget -m -k -E -np -A.jpg http://milky/pics/

Да, задачка не простая :). Однако, в этом случае, он все-равно будет
качать еще кое-что, но это будет отбрасывать. Можно еще указать
глубину -l <depth>, но я не знаю как это будет совмещаться с -m.

Дальнейшие извращения прошу осуществлять самому ;-)

mkb

-*Информационный канал Subscribe.Ru
Написать в лист: mailto:comp.soft.bsd.all-list@subscribe.ru
Отписаться: mailto:comp.soft.bsd.all--unsub@subscribe.ru

http://subscribe.ru/ mailto:ask@subscribe.ru

Ответить   Mon, 8 Mar 2004 13:40:11 +0300 (MSK) (#98989)

 

On Sat, 06 Mar 2004 11:39:06 +0900, kim <kim19***@f*****.ru> wrote:

можно попробовать решить проблему с помошью GetLeft.tcl - она много умеет
(в т ч сливать динамические сайты, фильтровать содержимое по разным
шаблонам итд)

Ответить   "Egor Evtiuckov" Mon, 08 Mar 2004 02:28:27 +0300 (#98943)