Объекты Session¶
Объект Session позволяет сохранять определенные параметры в requests. Он также
сохраняет cookie во всех запросах, созданных из экземпляра Session, и
будет использовать пул соединений . Поэтому, если вы
подключаете несколько requests к одному и тому же хосту, базовое TCP-соединение
будет использоваться повторно, что может привести к значительному увеличению
производительности.
У объекта Session есть все методы основного API Requests.
Давайте сохраним некоторые cookie в запросах:
s = requests.Session() s.get('https://httpbin.org/cookies/set/sessioncookie/123456789') r = s.get('https://httpbin.org/cookies') print(r.text) # '{"cookies": {"sessioncookie": "123456789"}}'
Сеансы также могут использоваться для предоставления данных по умолчанию
методам запроса. Это делается путём предоставления данных свойствам объекта
Session:
s = requests.Session() s.auth = ('user', 'pass') s.headers.update({'x-test' 'true'}) # отправляются как «x-test», так и «x-test2» s.get('https://httpbin.org/headers', headers={'x-test2' 'true'})
Любые словари, которые вы передаете методу запроса, будут объединены с
заданными значениями уровня сеанса. Параметры уровня метода переопределяют
параметры сеанса.
Однако обратите внимание, что параметры уровня метода не будут сохраняться в
requests, даже если используется сеанс. В этом примере cookie будут
отправляться только с первым запросом, но не со вторым:
s = requests.Session() r = s.get('https://httpbin.org/cookies', cookies={'from-my' 'browser'}) print(r.text) # '{"cookies": {"from-my": "browser"}}' r = s.get('https://httpbin.org/cookies') print(r.text) # '{"cookies": {}}'
Если вы хотите вручную добавить cookie в сеанс, используйте
для управления .
Сеансы также можно использовать в качестве менеджеров контекста:
with requests.Session() as s s.get('https://httpbin.org/cookies/set/sessioncookie/123456789')
Это обеспечит закрытие сеанса сразу после выхода из блока , даже если
возникли необработанные исключения.
Удалить значение из параметра Dict
Иногда вам нужно пропустить ключи уровня сеанса из параметра dict. Для
этого вы просто устанавливаете значение этого ключа на в параметре
уровня метода. Он будет автоматически пропущен.
Иммитация браузера с помощью cURL
Иногда сайт, к которому мы обращаемся может фильтровать запросы, защищаясь от парсинга. Если для этого используются упрощенные способы защиты, например проверка User-Agent, то мы можем легко притвориться, что являемся реальным польователем, который взаимодействует с сайтом через браузер, мы можем послать заголовки и cookie, которые обычно посылает браузер.
В данном примере установлены заголовки, которые посылает Chrome.
$url = 'https://phpstack.ru/'; $headers = [ 'Connection: keep-alive', 'Upgrade-Insecure-Requests: 1', 'User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36', 'Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9', 'Accept-Encoding: gzip, deflate', 'Accept-Language: ru,en-US;q=0.9,en;q=0.8', ]; $cookieFile = __DIR__ . '/cookie.txt'; $curl = curl_init(); // создаем экземпляр curl curl_setopt($curl, CURLOPT_HTTPHEADER, $headers); curl_setopt($curl, CURLOPT_RETURNTRANSFER, 1); curl_setopt($curl, CURLOPT_VERBOSE, 1); curl_setopt($curl, CURLOPT_COOKIEFILE, $cookieFile); curl_setopt($curl, CURLOPT_COOKIEJAR, $cookieFile); curl_setopt($curl, CURLOPT_POST, false); // curl_setopt($curl, CURLOPT_URL, $url); $result = curl_exec($curl);
В простых ситуациях этого хватает. Но если используется защита при помощи javascript или что-то более продвинутое, то здесь cURL бессилен, и следует использовать либо BAS либо Zennoposter. Либо если вы хотите попытать счастье с PHP, то Selenium.
Не используйте эти знания в противоправных целях.
Использование wget Linux
Команда wget linux, обычно поставляется по умолчанию в большинстве дистрибутивов, но если нет, ее можно очень просто установить. Например установка с помощью yum будет выглядеть следующим образом:
А в дистрибутивах основанных на Debian:
Теперь перейдем непосредственно к примерам:
1. Загрузка файла
Команда wget linux скачает один файл и сохранит его в текущей директории. Во время загрузки мы увидим прогресс, размер файла, дату его последнего изменения, а также скорость загрузки:
Опция -О позволяет задать имя сохраняемому файлу, например, скачать файл wget с именем wget.zip:
Вы можете скачать несколько файлов одной командой даже по разным протоколам, просто указав их URL:
4. Взять URL из файла
Вы можете сохранить несколько URL в файл, а затем загрузить их все, передав файл опции -i. Например создадим файл tmp.txt, со ссылками для загрузки wget, а затем скачаем его:
5. Продолжить загрузку
Утилита wget linux рассчитана на работу в медленных и нестабильных сетях. Поэтому если вы загружали большой файл, и во время загрузки было потеряно соединение, то вы можете скачать файл wget с помощью опции -c.
6. Загрузка файлов в фоне
Опция -b заставляет программу работать в фоновом режиме, весь вывод будет записан в лог файл, для настройки лог файла используются специальные ключи wget:
7. Ограничение скорости загрузки
Команда wget linux позволяет не только продолжать загрузку файлов, но и ограничивать скорость загрузки. Для этого есть опция —limit-rate. Например ограничим скорость до 100 килобит:
Здесь доступны, как и в других подобных командах индексы для указания скорости — k — килобит, m — мегабит, g — гигабит, и так далее.
8. Подключение по логину и паролю
Некоторые ресурсы требуют аутентификации, для загрузки их файлов. С помощью опций —http-user=username, –http-password=password и —ftp-user=username, —ftp-password=password вы можете задать имя пользователя и пароль для HTTP или FTP ресурсов.
Или:
9. Загрузить и выполнить
Вы, наверное, уже видели такие команды. wget позволяет сразу же выполнять скачанные скрипты:
Если опции -O не передать аргументов, то скачанный файл будет выведен в стандартный вывод, затем мы его можем перенаправить с интерпретатор bash, как показано выше.
По умолчанию wget сохраняет файл в текущую папку, но это поведение очень легко изменить с помощью опции -P:
11. Передать информацию о браузере
Некоторые сайты фильтруют ботов, но мы можем передать фальшивую информацию о нашем браузере (user-agent) и страницу с которой мы пришли (http-referer).
12. Количество попыток загрузки
По умолчанию wget пытается повторить загрузку 20 раз, перед тем как завершить работу с ошибкой. Количество раз можно изменить с помощью опции —tries:
13. Квота загрузки
Если вам доступно только ограниченное количество трафика, вы можете указать утилите, какое количество информации можно скачивать, например разрешим скачать файлов из списка только на десять мегабайт:
Здесь работают те же индексы для указания размера — k, m, g, и т д.
14. Скачать сайт
Wget позволяет не только скачивать одиночные файлы, но и целые сайты, чтобы вы могли их потом просматривать в офлайне. Использование wget, чтобы скачать сайт в linux выглядит вот так:
Несколько примеров на Guzzle
GET запросы на Guzzle
// Создаем клиента с базовым URL $client = new GuzzleHttp\Client(['base_uri' => 'https://foo.com/api/']); // Посылаем запрос на https://foo.com/api/test $response = $client->request('GET', 'test'); // Посылаем запрос на https://foo.com/root $response = $client->request('GET', '/root');
Разные типы запросов на Guzzle
$response = $client->get('http://httpbin.org/get'); $response = $client->delete('http://httpbin.org/delete'); $response = $client->head('http://httpbin.org/get'); $response = $client->options('http://httpbin.org/get'); $response = $client->patch('http://httpbin.org/patch'); $response = $client->post('http://httpbin.org/post'); $response = $client->put('http://httpbin.org/put');
Асинхронные запросы на Guzzle
$promise = $client->getAsync('http://httpbin.org/get'); $promise = $client->deleteAsync('http://httpbin.org/delete'); $promise = $client->headAsync('http://httpbin.org/get'); $promise = $client->optionsAsync('http://httpbin.org/get'); $promise = $client->patchAsync('http://httpbin.org/patch'); $promise = $client->postAsync('http://httpbin.org/post'); $promise = $client->putAsync('http://httpbin.org/put');
Если интересно, то читайте: Guzzle Quick Start
Пишите комментарии, если что-то осталось непонятно.
Помогла ли Вам эта статья?
Да
Нет
Параллельные cURL запросы в PHP
Для чего могут потребоваться многопоточные запросы? Например у нас есть много URL адресов:
$urls = [ 'https://httpbin.org/anything?1', 'https://httpbin.org/anything?2', 'https://httpbin.org/anything?3', ];
И если мы будем по очереди отправлять запросы, то второй запрос начнется только после того, как закончился первый и так далее, а это существенно увеличивает время работы скрипта.
Выглядит это так:
$results = []; foreach ($urls as $url) { $ch = curl_init(); curl_setopt($ch, CURLOPT_URL, $url); curl_setopt($ch, CURLOPT_HEADER, false); curl_setopt($ch, CURLOPT_RETURNTRANSFER, true); $results = curl_exec($ch); curl_close($ch); } var_dump($results);
Теперь в $results у нас содержится массив, где ключи — это url адреса, а значения — результаты запросов. Однако запросы выполняются долго. Но мы можем это ускорить.
Как выполнить 3 запроса одновременно? В этом нам поможет
Давайте решим конкретную задачу при помощи параллельных curl запросов. Нам нужно отправить одновременно 3 запроса.
$urls = [ 'https://httpbin.org/anything?1', 'https://httpbin.org/anything?2', 'https://httpbin.org/anything?3', ]; // array of curl handles $multiCurl = []; // data to be returned $results = []; // multi handle $mh = curl_multi_init(); foreach ($urls as $url) { $multiCurl = curl_init(); curl_setopt($multiCurl, CURLOPT_URL, $url); curl_setopt($multiCurl, CURLOPT_HEADER, 0); curl_setopt($multiCurl, CURLOPT_RETURNTRANSFER, 1); curl_multi_add_handle($mh, $multiCurl); } $index = null; do { curl_multi_exec($mh, $index); } while ($index > 0); // get content and remove handles foreach ($multiCurl as $k => $ch) { $results = curl_multi_getcontent($ch); curl_multi_remove_handle($mh, $ch); } // close curl_multi_close($mh); var_dump($results); // в $results у нас содержатся ответы на наши 3 запроса
Такие параллельные запросы выполняются значительно быстрее чем поочередные.
Как пользоваться curl?
Мы рассмотрели все, что касается теории работы с утилитой curl, теперь пришло время перейти к практике, и рассмотреть примеры команды curl.
Загрузка файлов
Самая частая задача – это загрузка файлов linux. Скачать файл очень просто. Для этого достаточно передать утилите в параметрах имя файла или html страницы:
curl https://raw.githubusercontent.com/curl/curl/master/README.md
Но тут вас ждет одна неожиданность, все содержимое файла будет отправлено на стандартный вывод. Чтобы записать его в какой-либо файл используйте:
curl -o readme.txt https://raw.githubusercontent.com/curl/curl/master/README.md
А если вы хотите, чтобы полученный файл назывался так же, как и файл на сервере, используйте опцию -O:
curl -O https://raw.githubusercontent.com/curl/curl/master/README.md
Если загрузка была неожиданно прервана, вы можете ее возобновить:
curl -# -C – -O https://cdn.kernel.org/pub/linux/kernel/v4.x/testing/linux-4.11-rc7.tar.xz
Если нужно, одной командой можно скачать несколько файлов:
curl -O https://raw.githubusercontent.com/curl/curl/master/README.md -O https://raw.githubusercontent.com/curl/curl/master/README
Еще одна вещь, которая может быть полезной администратору – это загрузка файла, только если он был изменен:
curl -z 21-Dec-17 https://raw.githubusercontent.com/curl/curl/master/README.md -O https://raw.githubusercontent.com/curl/curl/master/README
Данная команда скачает файл, только если он был изменен после 21 декабря 2017.
Ограничение скорости
Вы можете ограничить скорость загрузки до необходимого предела, чтобы не перегружать сеть с помощью опции -Y:
curl –limit-rate 50K -O https://cdn.kernel.org/pub/linux/kernel/v4.x/testing/linux-4.11-rc7.tar.xz
Здесь нужно указать количество килобайт в секунду, которые можно загружать. Также вы можете разорвать соединение если скорости недостаточно, для этого используйте опцию -Y:
curl -Y 100 -O https://raw.githubusercontent.com/curl/curl/master/README.md
Передача файлов
Загрузка файлов, это достаточно просто, но утилита позволяет выполнять и другие действия, например, отправку файлов на ftp сервер. Для этого существует опция -T:
curl -T login.txt ftp://speedtest.tele2.net/upload/
Или проверим отправку файла по HTTP, для этого существует специальный сервис:
curl -T ~/login.txt http://posttestserver.com/post.php
В ответе утилита сообщит где вы можете найти загруженный файл.
Отправка данных POST
Вы можете отправлять не только файлы, но и любые данные методом POST. Напомню, что этот метод используется для отправки данных различных форм. Для отправки такого запроса используйте опцию -d. Для тестирования будем пользоваться тем же сервисом:
curl -d “field1=val&fileld2=val1″http://posttestserver.com/post.php
Если вас не устраивает такой вариант отправки, вы можете сделать вид, что отправили форму. Для этого есть опция -F:
curl -F “password=@pass;type=text/plain” http://posttestserver.com/post.php
Здесь мы передаем формой поле password, с типом обычный текст, точно так же вы можете передать несколько параметров.
Передача и прием куки
Куки или Cookie используются сайтами для хранения некой информации на стороне пользователя. Это может быть необходимо, например, для аутентификации. Вы можете принимать и передавать Cookie с помощью curl. Чтобы сохранить полученные Cookie в файл используйте опцию -c:
curl -c cookie.txt http://posttestserver.com/post.php
Затем можно отправить cookie curl обратно:
curl -b cookie.txt http://posttestserver.com/post.php
Передача и анализ заголовков
Не всегда нам обязательно нужно содержимое страницы. Иногда могут быть интересны только заголовки. Чтобы вывести только их есть опция -I:
curl -I https://losst.ru
А опция -H позволяет отправить нужный заголовок или несколько на сервер, например, можно передать заголовок If-Modified-Since чтобы страница возвращалась только если она была изменена:
curl -I –хедер ‘If-Modified-Since: Mon, 26 Dec 2016 18:13:12 GMT’ https://losst.ru
Аутентификация curl
Если на сервере требуется аутентификация одного из распространенных типов, например, HTTP Basic или FTP, то curl очень просто может справиться с такой задачей. Для указания данных аутентификации просто укажите их через двоеточие в опции -u:
curl -u ftpuser:ftppass -T – ftp://ftp.testserver.com/myfile_1.txt
Точно так же будет выполняться аутентификация на серверах HTTP.
Использование прокси
Если вам нужно использовать прокси сервер для загрузки файлов, то это тоже очень просто. Достаточно задать адрес прокси сервера в опции -x:
curl -x proxysever.test.com:3128 http://google.co.in
Рабочий процесс с содержимым body¶
По умолчанию, когда вы делаете запрос, сразу же загружается тело ответа. Вы
можете переопределить это поведение и отложить загрузку тела ответа до тех пор,
пока не получить доступ к атрибуту с параметром :
tarball_url = 'https://github.com/psf/requests/tarball/master' r = requests.get(tarball_url, stream=True)
На данный момент загружены только заголовки ответов, а соединение остаётся
открытым, что позволяет нам сделать получение контента условным:
if int(r.headers'content-length']) < TOO_LONG content = r.content ...
Вы можете дополнительно управлять рабочим процессом с помощью методов
и
. Кроме того, вы
можете прочитать недекодированное тело из базового urllib3
по адресу
.
Если установить на при выполнении запроса, Requests не
сможет освободить соединение обратно с пулом, если вы не потребляете все данные
или не вызовете . Это может
привести к неэффективности подключений. Если вы обнаружите, что частично
читаете тело запросов (или не читаете их вообще) при использовании
, вам следует сделать запрос в операторе , чтобы он
всегда был закрыт:
Часто используемые функции CURL и константы
- curl_init — Инициализирует сеанс;
- curl_close — Завершает сеанс;
- curl_exec — Выполняет запрос;
- curl_errno — Возвращает код ошибки;
- curl_setopt — Устанавливает параметр для сеанса, например:
- CURLOPT_HEADER – значение 1 означает, что необходимо вернуть заголовки;
- CURLOPT_INFILESIZE — параметр для указания ожидаемого размера файла;
- CURLOPT_VERBOSE — значение 1 означает что CURL будет выводить подробные сообщения о всех производимых операциях;
- CURLOPT_NOPROGRESS – отключение индикатора прогресса операции, значение 1;
- CURLOPT_NOBODY – если Вам не нужен документ, а нужны только заголовки, то поставьте значение 1;
- CURLOPT_UPLOAD — для закачки файла на сервер;
- CURLOPT_POST – выполнить запрос методом POST;
- CURLOPT_FTPLISTONLY — получение списка файлов в директории FTP сервера, значение 1;
- CURLOPT_PUT — выполнить запрос методом PUT, значение 1;
- CURLOPT_RETURNTRANSFER — возвратить результат, не выводя в браузер, значение 1;
- CURLOPT_TIMEOUT – максимальное время выполнения в секундах;
- CURLOPT_URL – указание адреса для обращения;
- CURLOPT_USERPWD — строка с именем пользователя и паролем в виде :;
- CURLOPT_POSTFIELDS – данные для POST запроса;
- CURLOPT_REFERER — задает значение HTTP заголовка «Referer: »;
- CURLOPT_USERAGENT — задает значение HTTP заголовка «User-Agent: »;
- CURLOPT_COOKIE — содержимое заголовка «Cookie: », который будет отправлен с HTTP запросом;
- CURLOPT_SSLCERT- имя файла с сертификатом в формате PEM;
- CURLOPT_SSL_VERIFYPEER – значение 0, для того чтобы запретить проверку сертификата удаленного сервера (по умолчанию 1);
- CURLOPT_SSLCERTPASSWD — пароль к файлу сертификата.
- curl_getinfo — Возвращает информацию об операции, вторым параметром может выступать константа для указания, что именно нужно показать, например:
- CURLINFO_EFFECTIVE_URL — последний использованный URL;
- CURLINFO_HTTP_CODE — последний полученный код HTTP;
- CURLINFO_FILETIME — дата модификации загруженного документа;
- CURLINFO_TOTAL_TIME — время выполнения операции в секундах;
- CURLINFO_NAMELOOKUP_TIME — время разрешения имени сервера в секундах;
- CURLINFO_CONNECT_TIME — время, затраченное на установку соединения, в секундах;
- CURLINFO_PRETRANSFER_TIME — время, прошедшее от начала операции до готовности к фактической передаче данных, в секундах;
- CURLINFO_STARTTRANSFER_TIME — время, прошедшее от начала операции до момента передачи первого байта данных, в секундах;
- CURLINFO_REDIRECT_TIME — время, затраченное на перенаправление, в секундах;
- CURLINFO_SIZE_UPLOAD — количество байт при закачке;
- CURLINFO_SIZE_DOWNLOAD — количество байт при загрузке;
- CURLINFO_SPEED_DOWNLOAD — средняя скорость закачки;
- CURLINFO_SPEED_UPLOAD — средняя скорость загрузки;
- CURLINFO_HEADER_SIZE — суммарный размер всех полученных заголовков;
- CURLINFO_REQUEST_SIZE — суммарный размер всех отправленных запросов;
- CURLINFO_SSL_VERIFYRESULT — результат проверки SSL сертификата, запрошенной с помощью установки параметра CURLOPT_SSL_VERIFYPEER;
- CURLINFO_CONTENT_LENGTH_DOWNLOAD — размер загруженного документа, прочитанный из заголовка Content-Length;
- CURLINFO_CONTENT_LENGTH_UPLOAD — размер закачиваемых данных;
- CURLINFO_CONTENT_TYPE — содержимое полученного заголовка Content-type, или NULL в случае, когда этот заголовок не был получен.
Подробнее о функциях CURL и константах к ним можете посмотреть на официальном сайте PHP — php.net
На этом все, для начинающих я думаю достаточно Удачи!
Нравится6Не нравится
Заголовки ссылок¶
Многие HTTP API содержат заголовки ссылок. Они делают API-интерфейсы более
самоописываемыми и легко обнаруживаемыми.
GitHub использует их, например, для пагинации в своём API:
>>> url = 'https://api.github.com/users/kennethreitz/repos?page=1&per_page=10' >>> r = requests.head(url=url) >>> r.headers'link' '<https://api.github.com/users/kennethreitz/repos?page=2&per_page=10>; rel="next", <https://api.github.com/users/kennethreitz/repos?page=6&per_page=10>; rel="last"'
Requests автоматически проанализирует эти заголовки ссылок и сделает их легко
потребляемыми:
Команда curl
Перед тем как перейти к описанию того как может использоваться команда curl linux, давайте разберем саму утилиту и ее основные опции, которые нам понадобятся. Синтаксис утилиты очень прост:
$ curlопции ссылка
Теперь рассмотрим основные опции:
- -# – отображать простой прогресс-бар во время загрузки;
- -0 – использовать протокол http 1.0;
- -1 – использовать протокол шифрования tlsv1;
- -2 – использовать sslv2;
- -3 – использовать sslv3;
- -4 – использовать ipv4;
- -6 – использовать ipv6;
- -A – указать свой USER_AGENT;
- -b – сохранить Cookie в файл;
- -c – отправить Cookie на сервер из файла;
- -C – продолжить загрузку файла с места разрыва или указанного смещения;
- -m – максимальное время ожидания ответа от сервера;
- -d – отправить данные методом POST;
- -D – сохранить заголовки, возвращенные сервером в файл;
- -e – задать поле Referer-uri, указывает с какого сайта пришел пользователь;
- -E – использовать внешний сертификат SSL;
- -f – не выводить сообщения об ошибках;
- -F – отправить данные в виде формы;
- -G – если эта опция включена, то все данные, указанные в опции -d будут передаваться методом GET;
- -H – передать заголовки на сервер;
- -I – получать только HTTP заголовок, а все содержимое страницы игнорировать;
- -j – прочитать и отправить cookie из файла;
- -J – удалить заголовок из запроса;
- -L – принимать и обрабатывать перенаправления;
- -s – максимальное количество перенаправлений с помощью Location;
- -o – выводить контент страницы в файл;
- -O – сохранять контент в файл с именем страницы или файла на сервере;
- -p – использовать прокси;
- –proto – указать протокол, который нужно использовать;
- -R – сохранять время последнего изменения удаленного файла;
- -s – выводить минимум информации об ошибках;
- -S – выводить сообщения об ошибках;
- -T – загрузить файл на сервер;
- -v – максимально подробный вывод;
- -y – минимальная скорость загрузки;
- -Y – максимальная скорость загрузки;
- -z – скачать файл, только если он был модифицирован позже указанного времени;
- -V – вывести версию.
Это далеко не все параметры curl linux, но здесь перечислено все основное, что вам придется использовать.
Дополнительная информация
Важно!
В этот раздел, описание метода или задачи включены действия, содержащие указания по изменению параметров реестра. Однако неправильное изменение параметров реестра может привести к возникновению серьезных проблем. Поэтому следует в точности выполнять приведенные инструкции. Для дополнительной защиты создайте резервную копию реестра, прежде чем редактировать его. Так вы сможете восстановить реестр, если возникнет проблема. Дополнительные сведения о том, как создать и восстановить реестр, см. в дополнительных сведениях о том, как создать и восстановить реестр в окне.
Возможно, вам придется увеличить значение времени ожидания по умолчанию для постоянных подключений HTTP в Internet Explorer, если вы используете веб-программу, которая должна общаться с Internet Explorer через тот же TCP/IP-розет после одной минуты простоя. Чтобы изменить значение времени ожидания по умолчанию для сохраняющихся подключений HTTP в Internet Explorer, добавьте значение DWORD, названное в следующем ключе реестра, а затем установите его данные значения до времени (в миллисекунд), которое необходимо подождать internet Explorer перед сбросом простоя подключения:
Чтобы изменить значение времени по умолчанию для постоянных подключений HTTP в Internet Explorer, выполните следующие действия:
-
Щелкните Пуск, затем Выполнить и введите regedit. Затем нажмите ОК.
-
Найдите и нажмите следующий ключ в реестре:
-
В меню Правка выберите пункт Создать, а затем Параметр DWORD.
-
Введите KeepAliveTimeout и нажмите кнопку ENTER.
-
В меню Правка щелкните Изменить.
-
Введите соответствующее значение времени (в миллисекунах), а затем нажмите кнопку ОК. Например, чтобы установить значение времени до двух минут, введите 120000 .
-
Перезапуск браузера Internet Explorer Если значение не превышает 60 000 (одна минута), могут возникнуть проблемы с общением с веб-серверами, которые требуют постоянных подключений HTTP. Например, вы можете получить сообщение об ошибке, которое не отображается на странице.
Если у вас должно быть значение выше 120000 (две минуты), необходимо создать дополнительный ключ реестра и установить его значение, равное нужному значению. Дополнительный ключ реестра . Это DWORD со значением (в миллисекунах) и в том же расположении, что и .
Например, чтобы использовать трехминутное значение, необходимо создать следующие клавиши реестра:
По умолчанию HTTP 1.1 включен в Internet Explorer, за исключением случаев, когда вы устанавливаете подключение http через прокси-сервер. При включении HTTP 1.1 подключения HTTP остаются открытыми (или настойчивыми) по умолчанию, пока подключение не будет простаивать в течение одной минуты или до тех пор, пока не будет достигнуто значение, указанное значением в реестре. Параметры HTTP 1.1 можно изменить в Internet Explorer с помощью вкладки Advanced в диалоговом окне Параметры Интернета.
Пример CURL – запрашиваем удаленную страницу для вывода на экран
В данном примере мы просто запросим удаленную страницу по протоколу HTTP методом GET и выведем ее содержимое на экран.
У нас имеется каталог test в нем 2 PHP файла это test_curl.php и test.php, где test_curl.php и есть скрипт где мы будем использовать curl, а test.php удаленный скрипт который мы будем вызывать. Код я подробно прокомментировал.
Код test_curl.php
<?PHP //Инициализирует сеанс $connection = curl_init(); //Устанавливаем адрес для подключения, по умолчанию методом GET curl_setopt($connection, CURLOPT_URL, "http://localhost/test/test.php?id=1"); //Выполняем запрос curl_exec($connection); //Завершает сеанс curl_close($connection); ?>
Код test.php
<?PHP //Принимаем методом GET if (isset($_GET)){ $id = (int)$_GET; //Выводим строку на основе id switch($id){ case 1: echo "<Н1>Заголовок 1</Н1>"; break; case 2: echo "<Н2>Заголовок 2</Н2>"; break; case 3: echo "<Н3>Заголовок 3</Н3>"; break; } } ?>
В итоге если вы запустите test_curl.php у Вас выведется на экран надпись «Заголовок 1», можете поэкспериментировать с передачей параметров id (в данном случае 2 или 3).