|
|
3.13, Хряк (?), 15:08, 20/01/2018 [^] [^^] [^^^] [ответить]
| +7 +/– |
сизиф -> сизифов труд - бесконечный и безрезультативный?
| |
|
|
5.26, Andrey Mitrofanov (?), 11:46, 22/01/2018 [^] [^^] [^^^] [ответить]
| +2 +/– |
#>>изифов труд - бесконечный и безрезуль
> О да! Основатели этой репы что-то такое знали.
Эге.
Они знали эту шутку лет за ...цать до вас двоих.
И в отличие от вас сами пошутили над собой.
ПошутИте над их самоиронией? Искромётно, зажигательно! Чтоб на следующие ..цать лет. Не повторяйте заезженное -- удвойте и побейте, да сколько ж можно уже??
| |
|
|
|
|
3.7, ssh (ok), 13:25, 20/01/2018 [^] [^^] [^^^] [ответить]
| +7 +/– |
Не думаю, что на диалап востребована многопоточная загрузка, там скорее функция докачки файла после обрыва актуальна.
| |
|
2.12, data man (ok), 15:05, 20/01/2018 [^] [^^] [^^^] [ответить]
| +/– |
Многопоточная есть в Wget2.
"Designed and written from scratch" и т.д. :)
11.01.2018 Release 1.99.0 (alpha)
HTTP/2.0, brotli, плагины, и другие, кому-то нужные, фичи.
| |
|
3.27, Andrey Mitrofanov (?), 11:56, 22/01/2018 [^] [^^] [^^^] [ответить]
| –1 +/– |
> Многопоточная есть в Wget2.
> "Designed and written from scratch" и т.д. :)
> 11.01.2018 Release 1.99.0 (alpha)
> HTTP/2.0, brotli, плагины, и другие, кому-то нужные, фичи.
Ммм... Как "они" ухитрились чисто GPLv3+ проект форкнуть в GPLv3+ обёртку с _L_GPLv3+ ядром/библиотекой?
С нуля что ли переписывали, не форкали? И заодно [из-]бегали инфраструктуры [и правил монастыря] GNU?
| |
|
|
1.15, Аноним (-), 17:59, 20/01/2018 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
не знаю, как сформулировать в гугле, спрошу тут.
Иногда с некоторых серверов объемные файлы скачиваются на высокой скорости только скажем первые 200 Мб, далее скорость снижается и, пока не перезапустишь через wget -c, не подымается. Поэтому приходится делать что-то вроде
wget -c http://...
(спустя 200 Мб) ^C
wget -c http://...
(спустя 200 Мб) ^C
wget -c http://...
(спустя 200 Мб) ^C
wget -c http://...
(спустя 200 Мб) ^C
Есть ли у wget опция прерывать скачивание и перезапускать его через Partial Content каждые 200 Мб? Ну или хотя бы по таймеру. Ну и заодно - как вообще называется такая настройка в хттп-серверах?
| |
|
2.20, angra (ok), 02:20, 21/01/2018 [^] [^^] [^^^] [ответить]
| +1 +/– |
> Ну и заодно - как вообще называется такая настройка в хттп-серверах?
А это не обязательно через них сделано, могли через шейпинг трафика. В http серверах она может называться как угодно. В nginx это директивы limit_*.
| |
2.21, Гоги (?), 02:21, 21/01/2018 [^] [^^] [^^^] [ответить]
| +/– |
Видимо, админ посчитал так: если файл отдаётся дольше 10-15 минут, то вряд ли кто-то сидит и смотрит на прогрессбар - значит скорость можно занизить в пользу "живых" скачек.
| |
2.22, Аноним (-), 14:09, 21/01/2018 [^] [^^] [^^^] [ответить]
| +4 +/– |
> Есть ли у wget опция прерывать скачивание и перезапускать его через Partial Content каждые 200 Мб?
Нет, зато есть опция --limit-rate. Можешь выставить скорость ещё ниже и отомстить серверу.
| |
2.29, фноним (?), 13:10, 23/01/2018 [^] [^^] [^^^] [ответить]
| +/– |
Так умеет curl с ключами -y и -Y . Докачка по -C - . Недостаток -- не берёт с сервера дату, нужно городить скрипт.
Очень полезно было с модемом.
| |
|
|