Продолжаем изучать... На этот раз такая ситуация:
В инет торчит https-сайт на nginx, настроен basic http auth, сессии определяет по кукам. Нужно периодически выгружать с сайта страницы и файлы. Файлы бывают большие, гигабайты.
Делаю первый httprequest корня сайта с пробросом заголовка, включающего base64 логин:пароль, получаю ответ, читаю его заголовок, вытягиваю set-cookie.
Далее в заголовок запроса добавляю печеньку и получаю доступ к содержимому на какое-то время.
В случае с загрузкой бинарников читаю поток в память и формирую файл из буфера.
Но вот засада, с большими файлами это почему-то очень медленно, а компилятор не подаёт признаков работы. При этом теряю функционал RecieveHttpFile с httpProgress - gui превращается в тыкву.
Может есть какой-то другой путь поддерживать сессию или добавить заголовок к функции закачки?