Литмир - Электронная Библиотека
Содержание  
A
A

5.6. Нормальный запуск

Наш небольшой пример использования TCP (около 150 строк кода для двух функций

main
,
str_echo
,
str_cli
,
readline
и
writen
) позволяет понять, как запускаются и завершаются клиент и сервер и, что наиболее важно, как развиваются события, если произошел сбой на узле клиента или в клиентском процессе, потеряна связь в сети и т.д. Только при понимании этих «граничных условий» и их взаимодействия с протоколами TCP/IP мы сможем обеспечить устойчивость клиентов и серверов, которые смогут справляться с подобными ситуациями.

Сначала мы запускаем сервер в фоновом режиме на узле

linux
.

linux % <b>tcpserv01 &amp;</b>

[1] 17870

Когда сервер запускается, он вызывает функции

socket
,
bind
,
listen
и
accept
, а затем блокируется в вызове функции
accept
. (Мы еще не запустили клиент.) Перед тем, как запустить клиент, мы запускаем программу
netstat
, чтобы проверить состояние прослушиваемого сокета сервера.

linux % <b>netstat -a</b>

Active Internet connections (servers and established)

Proto Recv-Q Send-Q Local Address Foreign Address State

tcp        0      0 *:9877        *:*             LISTEN

Здесь мы показываем только первую строку вывода и интересующую нас строку. Эта команда показывает состояние всех сокетов в системе, поэтому вывод может быть большим. Для просмотра прослушиваемых сокетов следует указать параметр

-a
.

Результат совпадает с нашими ожиданиями. Сокет находится в состоянии LISTEN, локальный IP-адрес задан с помощью символа подстановки (то есть является универсальным) и указан локальный порт 9877. Функция

netstat
выводит звездочку для нулевого IP-адреса (
INADDR_ANY
, универсальный адрес) или для нулевого порта.

Затем на том же узле мы запускаем клиент, задав IP-адрес сервера 127.0.0.1. Мы могли бы задать здесь и нормальный адрес сервера (его IP-адрес в сети).

linux % <b>tcpcli01 127.0.0.1</b>

Клиент вызывает функции

socket
и
connect
, последняя осуществляет трехэтапное рукопожатие TCP. Когда рукопожатие TCP завершается, функция connect возвращает управление процессу-клиенту, а функция
accept
— процессу-серверу. Соединение установлено. Затем выполняются следующие шаги:

1. Клиент вызывает функцию

str_cli
, которая блокируется в вызове функции
fgets
, поскольку мы еще ничего не ввели.

2. Когда функция

accept
возвращает управление процессу-серверу, последний вызывает функцию
fork
, а дочерний процесс вызывает функцию
str_echo
. Та вызывает функцию
read
, блокируемую в ожидании получения данных от клиента.

3. Родительский процесс сервера снова вызывает функцию

accept
и блокируется в ожидании подключения следующего клиента.

У нас имеется три процесса, и все они находятся в состоянии ожидания (блокированы): клиент, родительский процесс сервера и дочерний процесс сервера.

ПРИМЕЧАНИЕ

Мы специально поставили первым пунктом (после завершения трехэтапного рукопожатия) вызов функции str_cli, происходящий на стороне клиента, а затем уже перечислили действия на стороне сервера. Причину объясняет рис. 2.5: функция connect возвращает управление, когда клиент получает второй сегмент рукопожатия. Однако функция accept не возвращает управление до тех пор, пока сервер не получит третий сегмент рукопожатия, то есть пока не пройдет половина периода RTT после завершения функции connect.

Мы намеренно запускаем и клиент, и сервер на одном узле — так проще всего экспериментировать с клиент-серверными приложениями. Поскольку клиент и сервер запущены на одном узле, функция

netstat
отображает теперь две дополнительные строки вывода, соответствующие соединению TCP:

l

inux % <b>netstat -a</b>

Proto Recv-Q Send-Q Local Address   Foreign Address State

tcp        0      0 localhost:9877  localhost:42758 ESTABLISHED

tcp        0      0 localhost:42758 localhost:42758 ESTABLISHED

tcp        0      0 *:9877          *:*             LISTEN

Первая из строк состояния

ESTABLISHED
соответствует дочернему сокету сервера, поскольку локальным портом является порт 9877. Вторая строка
ESTABLISHED
— это клиентский сокет, поскольку локальный порт — порт 42 758. Если мы запускаем клиент и сервер на разных узлах, на узле клиента будет отображаться только клиентский сокет, а на узле сервера — два серверных сокета.

Для проверки состояний процессов и отношений между ними можно также использовать команду

ps
:

linux % <b>ps -t pts/6 -o pid,ppid,tty,stat,args,wchan</b>

PID   PPID  TT    STAT COMMAND    WCHAN

22038 22036 pts/6 S   -bash       wait4

17870 22038 pts/6 S   ./tcpserv01 wait_for_connect

19315 17870 pts/6 S   ./tcpserv01 tcp_data_wait

19314 22038 pts/6 S   ./tcpcli01  127.0.0.1 read_chan

Мы вызвали

ps
с несколько необычным набором аргументов для того, чтобы получить всю необходимую для дальнейшего обсуждения информацию. Мы запустили клиент и сервер из одного окна (
pts/6
, что означает псевдотерминал 6). В колонках
PID
и
PPID
показаны отношения между родительским и дочерним процессами. Можно точно сказать, что первая строка
tcpserv01
соответствует родительскому процессу, а вторая строка
tcpserv01
— дочернему, поскольку PPID дочернего процесса — это PID родительского. Кроме того, PPID родительского процесса совпадает с PID интерпретатора команд (
bash
).

Колонка

STAT
для всех трех сетевых процессов отмечена символом
S
. Это означает, что процессы находятся в состоянии ожидания (sleeping). Если процесс находится в состоянии ожидания, колонка
WCHAN
сообщит нам о том, чем он занят. В Linux значение
wait_for_connect
выводится, если процесс блокируется функцией
accept
или
connect
, значение
tcp_data_wait
— если процесс блокируется при вводе или выводе через сокет, a
read_chan
— если процесс блокируется при терминальном вводе-выводе. Так что для наших трех сетевых процессов значения
WCHAN
выглядят вполне осмысленно.

50
{"b":"225366","o":1}