Содержание к диссертации
Введение
1 Альтернативные способы передачи данных с гарантированной доставкой 19
1.1 Традиционная передача данных с гарантированной доставкой 19
1.2 Сравнение современных приложений для высокоскоростной передачи данных по сети типа WAN с пропускной способностью в 10 Гбит/с
1.2.1 Топология экспериментальной сети 23
1.2.2 Исследуемые приложения 26
2 Сравнение коммерческих приложений для скоростной передачи данных 29
2.1.1 Выводы к разделу 1.2 30
2.2 Сравнение протоколов для высокоскоростной передачи данных 32
2.2.1 Результаты экспериментов и сравнение протоколов 34
2.3 Выводы к главе 1 37
3 Активные измерения доступной полосы пропускания 39
3.1 Основные положения 40
3.2 Измерения доступной полосы пропускания, основанные на оценке дисперсии пар пакетов46
3.3 Измерение доступной полосы пропускания периодической посылкой потоков с постоянной скоростью передачи (PRM) — модель периодических потоков проб
3.3.1 Общие положения 48
3.3.2 Алгоритм Pathload 49
3.3.3 Алгоритм Claibrated Pathload 53
3.4 Выводы к главе 3 55
4 Алгоритм Kite и сопутствующие алгоритмы 56
4.1 Изменение количества тестовых пакетов в зависимости от скорости передачи в ходе итерации 56
4.2 Коэффициент понижения шага 59
4.3 Алгоритм измерения Kite 63
4.4 Алгоритм установки начальной скорости (Adjustment of Initial Rate – AIR) 65
4.5 Алгоритм возрастающей фазы 68
4.6 Алгоритм убывающей фазы 69 4.7 Алгоритм обнаружения малого размера буфера (SBD — small buffer betection) 71
4.8 Алгоритм анализа состава 74
4.9 Алгоритм «Отрезания головы» 4.10 Определение прерывания при посылке проб 79
4.11 Алгоритм «своевременной» посылки данных 81
4.12 Размер проб 86
4.13 Замеры времени 88
4.14 Объединение прерываний при получении проб 4.14.1 Описание явления 92
4.14.2 Математические модели приёма данных с включённой техникой Interrupt coalescence...98
4.14.3 Определение использования объединений прерываний на принимающей стороне 105
4.14.4 Противодействие объединению прерываний при оценке доступной полосы пропускания
108
4.15 Выводы к главе 4 111
5 Программная библиотека ABC (Available Bandwidth Control) для высокоскоростных транспортных протоколов 113
5.1 Интерфейс 113
5.2 Необходимые расширения протокола 117
5.3 Выводы к главе 4 120
6 Экспериментальное подтверждение эффективности работы алгоритмов 121
6.1 Измерения доступной полосы пропускания инструментом Kite в лабораторных условиях121
6.1.1 Измерения в сети с джиттером 123
6.1.2 Оценка доступной полосы пропускания с чередующимися, «узким» и «плотным», каналами 126
6.1.3 Оценка без искусственно введённого джиттера
6.1.3.1 Эксперименты с сетевыми адаптерами Chelsio 129
6.1.3.2 Эксперименты с сетевыми адаптерами Intel
6.2 Измерения доступной полосы пропускания в реальной сети инструментом Kite 135
6.3 Измерения производительности протокола RWTP со встроенной библиотекой ABC 137
6.4 Выводы к главе 5 140
Заключение 141
Перечень сокращений 144
Список литературы 145
- Сравнение современных приложений для высокоскоростной передачи данных по сети типа WAN с пропускной способностью в 10 Гбит/с
- Измерение доступной полосы пропускания периодической посылкой потоков с постоянной скоростью передачи (PRM) — модель периодических потоков проб
- Алгоритм установки начальной скорости (Adjustment of Initial Rate – AIR)
- Необходимые расширения протокола
Сравнение современных приложений для высокоскоростной передачи данных по сети типа WAN с пропускной способностью в 10 Гбит/с
В контексте транспортных протоколов тема «справедливости» стоит довольно остро. Так, в сетях общего пользования, где подавляющее большинство данных, которые непременно должны быть доставлены, передаются с помощью TCP, считается невозможным использование других протоколов, если они ведут себя по отношению к TCP «несправедливо». Однако, помимо транспортных протоколов с гарантией доставки, в сети есть много участников, которые передают данные реального времени по UDP. При этом, с нарастающим развитием технологий, требуются бльшие полосы пропускания для таких приложений. К примеру, видеокамеры, доступные каждому, снимают всё более и более высококачественное видео. Поток таких данных, как правило, ведёт себя «несправедливо», ведь данные должны быть переданы с постоянной скоростью. Количество пользователей, передающих данные подобным образом, растёт; а, значит, количество трафика в сети, которое ведёт себя «несправедливо» по отношению к TCP, увеличивается.
Концепция «справедливости» TCP предполагает, что, если N TCP потоков присутствуют в соединении, то каждый из них должен использовать не более чем 1/N пропускной способности соединения. Уже упомянутая выше реакция TCP на потери в сети делает его очень уязвимым со стороны UDP-потоков реального времени. Другими словами, если в соединении помимо N TCP-потоков присутствует UDP-поток, занимающий половину доступной полосы пропускания, то каждый из потоков будет использовать не более чем 1/(2N) от общей пропускной способности. Кроме этого, концепция не выполняется и самим протоколом TCP. В [9] показано, что TCP-потоки в соединениях с меньшей задержкой RTT ведут себя менее «честно» к потокам, передающим данные на бльшие расстояния. Кроме этого, в работе [10] описывается, что в высокоскоростных сетях на «честность» потоков TCP влияет также режим обслуживания очередей маршрутизаторами.
С одной стороны, высокоскоростной трафик, «несправедливо» относящийся к другим соединениям, так или иначе, вытеснит остальных участников сетевого взаимодействия. С другой стороны, передача данных в «справедливом» режиме, как это делает TCP, делает её уязвимой для огромного количества сетевых приложений, которые заполняют полосу пропускания «несправедливо».
Имея информацию о доступной полосе пропускания, можно получить возможность создания «гибридной справедливости». К примеру, такой транспортный протокол будет использовать 80% соединения агрессивно, а оставшуюся его часть «справедливо». Таким образом, смежные потоки не будут полностью блокированы и смогут передавать данные; в это время высокоскоростной транспорт будет делать то, для чего он был спроектирован — передавать данные быстрее.
Подобные решения будут интересны, если не в сетях общего пользования, то, как минимум, для корпоративного использования. В настоящее время, всё больше компаний с географически распределенными подразделениями приобретают в частное пользование так называемые L2-VPN. В этом случае в распоряжении организации оказываются целые каналы, которые необходимо использовать максимально эффективно. При этом, по 80% полосы пропускания будет передаваться необходимый для корпоративного бизнеса, «тяжёлый», контент; а остальные 20% будут использованы для нормального информационного взаимодействия подразделений.
Анализ доступной полосы пропускания ещё более интересен для приложений с передачей потокового трафика реального времени — к примеру, аудио- или видео-данных. Чем выше качество видео-потока, тем шире полоса пропускания из конца в конец требуется такому приложению. Как правило, подобный трафик передаётся посредством UDP без гарантии доставки. В случае перегрузки сети, при передаче такого трафика, некоторые IP-пакеты теряются безвозвратно, и на приёмной стороне часть данных не будет получена. В случае с видео-потоком, изображение может стать неразборчивым, и могут происходить «замирания». Если перегрузку в сети не устранить, то дальше этим сервисом невозможно будет пользоваться. Такие проблемы решаются, к примеру, снижением качества изображения при обнаружении потерь. Таким образом, приложению требуется меньше полосы пропускания, и перегрузка устраняется.
С использованием информации о доступной полосе пропускания будет предоставлена возможность зафиксировать перегрузку на ранней стадии и заблаговременно принять меры: в частности, снизить качество видео-потока для предоставления сервиса более низкого качества, но избегая при этом потери данных. В случае с видео-конференцией, к примеру, качество изображения будет ниже, но звуковая информация, требующая значительно меньшей полосы пропускания, не пострадает.
Общая характеристика работы Вопросами передачи данных с высокой скоростью и оценкой доступной полосы пропускания занимаются в ряде университетов: Самарском государственном аэрокосмическом университете, Университете Colgate в США, Технологическом институте Джорджии в США, Университете прикладных наук Саксонии-Анхальт, Германия и др. Значимый вклад в развитие тематики внесли такие исследователи, как C. Dovrolis, J. Sommers, E. Siemens, M. Janin, V. Jacobson, А. Кучерявый, Т. Сулатнов. Кроме этого, выдающийся вклад был сделан Yonghong Gu и Robert Grossman, которые в явном виде ввели в транспортный протокол процедуру измерения доступной полосы пропускания.
Измерение доступной полосы пропускания периодической посылкой потоков с постоянной скоростью передачи (PRM) — модель периодических потоков проб
Также, в маршрутизаторе пакет будет задержан на время передачи пакета (packet transmission delay), см.(3). Ещё устройству необходимо время, чтобы определить, на какой интерфейс этот пакет должен быть дальше отправлен — время обслуживания пакета. Эти две задержки будем рассматривать вместе как sin, где i — номер пакета, а n — маршрутизатора.
Примем, что размер всех пакетов одинаковый; пропускная способность интерфейсов на маршрутизаторах неизменна; а все пакеты следуют единым маршрутом. Тогда можно сказать, что задержка распространения сигнала d и время обслуживания пакетов s для всех пакетов одинаковы.
Переменной величиной остаётся лишь время, которое каждый пакет провёл в очереди, ожидая обслуживания. При этом, если из исходящего интерфейса маршрутизатора должно быть передано больше пакетов, чем его пропускная способность позволяет, то именно за счёт нахождения пакетов в очереди на обслуживание возрастёт задержка OWD. Именно это продемонстрировано на рисунке 12, где каждый следующий пакет наблюдаемого трафика проводит в очереди больше времени, чем предыдущий.
Вышесказанное даёт возможность предполагать, что характеристика OWD отображает, насколько перегружены промежуточные сетевые устройства. Так, если перегрузки не наблюдается, и каждый пакет может быть тут же обслужен; то значение q в (5) будет также равно для всех пакетов, посланных с этой скоростью. Тогда OWD всех пакетов будет постоянной величиной. Однако, если буфер будет перегружен, как показано на рисунке 12, а скорости кросс- и исследуемого трафиков не изменятся, то OWD каждого последующего пакета будет больше предыдущего, что приведёт к монотонно возрастающему тренду характеристики задержки в один конец.
Джиттер двух последовательных пакетов в сети, в соответствии с [45], определён как абсо 46 лютная разница между OWD этих пакетов. Применив (5), имеем: J(l+1,l)=OWDl+1-OWDj = к n n к n n I I dJ+1+Z Г+І r-(z +I чй d= ; = 1 ;=1 ;=1 ;=1 ;=1 j=1 I , (6) где J(i+1,i) — джиттер между пакетами i и i+1. Из (6) следует, что джиттер в сети - это результат изменения загруженности сетевого устройства к моментам поступления пакетов-проб. Предположим, что через маршрутизатор на рисунке 11, в том же направлении, что и исследуемый трафик, поступают данные от «on/off» приложения; в соответствии с которым передача осуществляется с постоянной скоростью в «on»-режиме и приложение «молчит» в «off»-режи-ме. Режимы сменяют друг друга с заданной периодичностью, воспроизводя при этом импульсивный трафик. В описанной ситуации значение джиттера будет равно нулю в моменты, когда приложение кросс-трафика выключено; и отличным от нуля при взаимодействии с кросс-трафиком. Примечательно, что в случае постоянной скорости кросс- и исследуемого трафика джиттер также не изменит своего значения.
Однако, всё указанное выше справедливо для идеальной модели взаимодействия. В реальности невозможно точно установить временную метку в пакете, которая бы указывала момент его отправления. Поэтому, фактически, время отправки олицетворяет собой время генерации пакета. Подобная ситуация происходит и на принимающей стороне. При этом фиксируется не время получения пакета интерфейсом, а время, когда данные были переданы в ядро операционной системы, или информация была получена приложением. Уже только это всегда, даже в случаях с наипростейшей топологией, при отсутствии внешнего трафика, будет являться причиной того, что джиттер будет отличен от нуля. Таким образом, измерение почти всегда будет искажено. Кроме этого, постулат, что все пакеты одного размера обслуживаются строго определённое количество времени — это тоже приближение, которое может быть ложным в реальности.
С другой стороны, в современных маршрутизаторах с пропускной способностью 10 Гбит/с на каждый порт, размер буфера каждого интерфейса измеряется сотнями Мбайт; следовательно, время буферизации q намного более существенно, чем время s. Из этого следует, что предлагаемыми далее моделями можно пользоваться.
В основе модели PGM (Модель дисперсии проб) лежит анализ изменения межпакетного временного интервала на приёме относительно межпакетного временного интервала на отправляющей стороне. В различных вариациях этот метод используется в следующих алгоритмах и соответствующих им программах: Delphi [46], Spurce [47], IGI [48] и прочих.
В рамках модели сделаны следующие допущения: 1. все промежуточные сетевые устройства обслуживают трафик по схеме FIFO (First In First Out); 2. кросс-трафик подчиняется так называемой «жидкостной» модели трафика [49], в соответствии с которой поведение трафика в каналах описывается подобно поведению жидкостей в трубах; 3. среднее значение скорости кросс-трафика изменяется медленно и в рамках одного измерения принимается за постоянную величину; 4. время получения пробы фиксируется в момент её приёма интерфейсом; 5. в сети есть только один, «узкий», канал, который является и «плотным» каналом. Эти допущения необходимо иметь в виду при анализе алгоритмами данных. Несмотря на то, что большинство соединений не удовлетворяет этим условиям, алгоритмы все равно способны производить измерения, хоть и менее точно.
Для измерения доступной полосы пропускания выше упомянутые программы посылают последовательности пар пакетов, называемые составами пар пакетов (trains of packet pairs), от источника к получателю. Пары пакетов посылаются с различным межпакетным интервалом и межпарным временным интервалом, в зависимости от алгоритма. Примечательно, что, как правило, для измерения достаточно послать всего один состав пар пакетов.
Рассматривая рисунок 12 как топологию с единственным «плотным» каналом, что удовлетворяет модели PGM, можно заключить, что время, занимаемое кросс-трафиком в канале L2, равно IpIR - IpIS. Тогда скорость кросс-трафика равна
Алгоритм установки начальной скорости (Adjustment of Initial Rate – AIR)
В ходе многих экспериментов было зафиксировано, что поведение задержки в один конец группы первых проб, как правило, не соответствует поведению всего состава проб. Чтобы исключить возможность ошибки в программном обеспечении, измерения задержки в один конец также производились с помощью программного инструмента для анализа сетей LTest [59],[60]. Измерения с помощью Kite и Ltest показали схожие результаты касательно первых проб, получаемых приёмником. Проблематика аномальной характеристики при приёме первых пакетов поднимается, например, в патенте [61] для измерения RTT.
Причина подобного поведения может скрываться в сетевом оборудовании на конечных узлах или на промежуточных устройствах, а также в ядре операционной системы. Оно было зафиксировано на порядка 80% исследуемых соединений на различных сетях, с разными конечными сетевыми узлами. Типичный график задержки в один конец продемонстрирован на рисунке 28.
Чтобы избежать анализа проб с нехарактерным поведением на каждой итерации, Kite посылает на 10% больше проб, чем было вычислено по (17), но не менее 15 проб. В ходе тестов было замечено, что 10% в большинстве случаев покрывает подобное нехарактерное поведение «головы» состава. На рисунке серым цветом выделена область от 1 до 21 пробы. Эта область и будет отброшена перед анализом состава. Приведённая характеристика была снята на соединении с пропускной способностью в 5 Гбит/с, на котором доступная полоса пропускания составляла не менее 2.5 Гбит/с. Скорость передачи состава была 2 Гбит/с.
В ходе каждой итерации пробы посылаются с постоянной скоростью или, другими слова 79 ми, с неизменным межпакетным интервалом. Современные компьютеры, к сожалению, неидеальны; и во время выполнения посылки состава проб операционная система может приостановить процесс передачи данных, переключить контекст процессора и позже возобновить посылку проб. В этом случае, измерение может быть некорректным в том смысле, что изменение межпакетных интервалов произошло не во время прохождения пробами соединения, а ещё до отправки проб в сеть.
Рисунок 29 иллюстрирует характеристики межпакетного интервала при посылке. Каждая точка на графике — это разность времени посылки текущей пробы и предыдущей. Характеристики сняты на одном и том же соединении с пропускной способностью 10 Гбит/с, при скорости посылки состава 3 Гбит/с.
На рисунке 29А показан случай, когда в ходе передачи данных не происходило переключения контекста. В идеальном случае, это должна быть прямая линия, но из-за неидеальности системы, всегда фиксируются флуктуации в несколько сотен наносекунд.
На рисунке 29В продемонстрирован случай, когда во время передачи произошло переключение контекста. Стоит отметить, что подобное событие негативно отразится на измерении, поэтому подобные события необходимо отфильтровывать. Значения IpIS должны стремиться к единой величине, поэтому для определения исходного межпакетного интервала при посылке на принимающей стороне идеально подойдёт одномерный медианный фильтр [62].
Учитывая, что переключения контекстов происходят, как правило, не один за другим, а через некий промежуток времени, целесообразно выбрать окно не слишком маленькое, но и не слишком большое. В текущей версии Kite скользящее окно медианного фильтра равно 5. Скользящее окно проходит весь набор значений. В каждом положении окна все элементы, попавшие в него, ранжируются по возрастанию. Средний элемент — а это в приведённом случае 3-й элемент — называется медианой данного окна. Данное значение заменяет собой полученное в середине окна. Таким образом, все аномальные точки — а точка, в которой произошло переключение контекста, безусловно, аномальная — будут устранены.
После этого среднее значение полученного ряда межпакетных интервалов начнёт с высокой точностью отображать истинный межпакетный интервал при посылке.
После определения значения межпакетного интервала при посылке, вновь анализируется исходный ряд значений. Если в ряду находится элемент, который в 5 и более раз превышает найденный межпакетный интервал, то, значит, в этом месте произошло переключение контекста. Для дальнейшего анализа необходимо устранить пробу, с номером на единицу большим, чем номер положения найденного переключения контекста. Таким образом, неточность в ходе измерения на приёмнике будет частично устранена.
Как было показано в 4.10, иногда происходят непредвиденные ситуации, которые могут увеличить межпакетный интервал в рамках одного состава проб. Речь идёт не о переключениях контекста, а о задержках посылки пакетов, соизмеримых с межпакетным временным интервалом. Измерение в этом случае может быть неточным. Проблема заключается не только в том, что одна проба придёт позже другой; а в том, что во время этой паузы буферы в промежуточных устройствах высвободятся; а, значит, все последующие пробы будут приходить быстрее (их OWD будет меньше) чем у проб, отправленных до аномалии.
Для того, чтобы приблизить значения IpIS как можно более к идеальным, предлагается использовать алгоритм «своевременной» посылки данных.
В общем случае, алгоритм посылки проб с постоянной скоростью продемонстрирован на рисунке 30. Проблема заключается в том, что длительность всех вызовов, за исключением вызова Send в операционной системе Linux, можно предсказать с большой вероятностью с точностью до сотен наносекунд. Однако, длительность вызова Send, как показали многочис 81 ленные эксперименты, может сильно варьироваться.
К примеру, на высокопроизводительном оборудовании, при посылке пакетов размером 1500 байт, с максимальной скоростью на интерфейсе с полосой пропускания 10 Гбит/с, длительность вызова send может достигать 2.7 мкс, в то время как среднеквадратическое отклонение составляет порядка 1.2 мкс. Эти значения могут варьироваться в зависимости от сетевой карты, используемой на компьютере. Также было подмечено, что, начиная с определённого времени передачи, длительность вызова send может уменьшаться в зависимости от производителя сетевой карты. На рисунке 31 показаны характеристики межпакетных интервалов для карт двух производителей 10 Гбит/с карт: Intel Corporation 82599ES [63] — представитель дешёвого сегмента. Эти устройства наиболее распространены в промышленности; Chelsio Communications Inc T420-CR [64] — представитель более дорогого сегмента. Встречаются реже, но в профессиональной среде более предпочтительны.
Приведённая характеристика была снята на соединении с пропускной способностью 10 Гбит/с, при посылке состава размером 10 000 проб, размером 1500 байт с максимальной скоростью, т. е. без искусственно введённого межпакетного интервала. Как уже было указано в схеме на рисунке 30, наиболее затратным является вызов send; тогда как все другие операции вместе занимают порядка нескольких сотен наносекунд. Для Intel достигнутая скорость передачи данных была порядка 5.9 Гбит/с. При этом, средний фактический IpIS оказался равным 1.7 мкс, а среднеквадратическое отклонение 1.2 мкс. В ходе передачи состава было потерянно 493 пробы, причём большая часть в рамках одной группы; что можно наблюдать на рисунке 31А, в районе значения 250 по оси абсцисс. Стоит отметить, что систематически, с периодичностью порядка 70 проб, повторяются всплески до 12 мкс, т. е. вызов send
Необходимые расширения протокола
В главе представлено экспериментальное подтверждение эффективности инструмента Kite в лабораторной сети и в реальной сети Internet. Проверены возможности точного измерения доступной полосы пропускания с помощью Kite в каналах с различной пропускной способностью в присутствии джиттера; с различным расположением «узкого» и «плотного» каналов, с использованием различных сетевых интерфейсов, в том числе и с активной технологией объединения прерываний при различной загрузке каналов кросс-трафиком. В ходе экспериментов результаты полученные с помощью Kite сопоставлялся результатам полученными инструментом Yaz, как наиболее близкого по поведению и самого точного из ранее представленных методов.
Как уже упоминалось в главе 4, в данной диссертационной работе для определения качества работы алгоритмов вводится пороговое значение ошибки оценки доступной полосы пропускания 10%. Кроме этого, стоит отметить, что положительная ошибка — т. е. оценка, превышающая реальную доступную скорость пропускания, опаснее, чем отрицательная ошибка. Опасность вызвана тем, что при использовании для передачи данных скорости выше максимально доступной неизбежно произойдёт перегрузка. Отрицательная ошибка в этом случае может привести к меньшей эффективности использования сетевых ресурсов, что не так опасно как перегрузка, из-за которой часть данных может быть утеряна.
В реальной сети Internet измерения проводились между 5 различными серверами, расположенными в Европе и Северной Америке. Результаты Kite сопоставлялись инструментам Yaz и Pathload; в качестве значения реальной полосы пропускания использовалось измерение с помощью утилиты Iperf.
На ней представлено 6 высокопроизводительных серверов; три маршрутизатора, на базе 10 Гбит/с коммутатора Extreme Networks Summit X-650, который обладает возможностью, помимо своей основной функциональности, работать на сетевом уровне модели OSI. Для воспроизведения параметров сети, таких как задержка и джиттер, использованы два аппаратных эмулятора Netropy 10G и 10G2. Все узлы соединены оптоволоконными кабелями. Пропускная способность каждого соединения равна 10 Гбит/с. В сети присутствуют два источника и два получателя кросс-трафика, направления которого указано на рисунке.
В ходе экспериментов использовались две пары «источник-приёмник». В первой — сетевые карты Chelsio, обладающие слабым эффектом объединения прерываний; а во второй — Intel, в которых Interrupt Coalescense выражен ярче.
Кросс-трафик присутствует в каналах WAN 1 и WAN 2 сети, конкурируя с потоком данных приложения Kite используемого для измерения доступной полосы пропускания. Ситуация, когда конкурирующие потоки данных не повторяют целиком маршрут друг друга, а лишь его части, является наиболее частой в пакетных сетях.
Изначально планировалось наряду с Yaz и Kite производить измерения с помощью Pathload, однако, в ряде случаев Pathload вовсе не мог произвести измерения, поэтому измерения Pathload были исключены из лабораторных экспериментов, а представлены лишь в результатах экспериментах на реальных соединениях Интернет.
В ходе эксперимента сетевыми эмуляторами вносится задержка 20 мс и её вариация 0.3 мс, подчинённая нормальному закону распределения. Характеристики задержки постоянны для всех тестов, что позволяет протестировать алгоритмы с разным уровнем джиттера; в сравнении с межпакетным интервалом на посылающей стороне. Так, при посылке данных на скорости 10 Мбит/с, при размере пакета 1500 байт, в соответствии с разделом 4.12, межпакетный интервал будет IpIS= = 1500"6 =1.2-10 3с, что в 4 раза больше, чем возможные колебания задержки. При скорости в 6 Гбит/с и размере пакета 9000 байт — JpJS= —= 9000 8 =12- 10 6с, что значительно меньше возможной вариации. Таким образом, будет захвачен широкий диапазон возможного отношения величины джиттера к задержке.
В этом эксперименте, в качестве источника и приёмника данных использованы сервера с сетевыми картами Сhelsio. Для каждой исследуемой пропускной способности соединение было загружено на 40% кросс-трафиком с постоянной скоростью. Заполнение на 40% было выбрано, как ситуация средней сложности для измерения. В дальнейшем будет видно, что, чем больше загружено соединение, тем сложнее корректно измерить доступную полосу пропускания. Каждое измеренное значение — это средний результат 10 последовательных замеров; при этом их СКО было менее 10 процентов от абсолютной величины.
На рисунке 45 представлены результаты измерения инструментом Yaz, в котором реализован алгоритм Calbrated Pathload. Стоит отметить, что, начиная со скорости 1 Гбит/с, размер проб был увеличен до 9000 Байт; из-за причин, указанных в разделе 4.12. Результат измерения на рисунке 45А был проведён при величине состава 50 проб — размера состава по умолчанию. Измерения с точностью до 10% были проведены лишь для пропускной способности до 40 Мбит/с. В худшем случае, при скорости в 1 Гбит/с, ошибка измерения составила 50%.
С ростом отношения СКО джиттера к межпакетному интервалу, точность измерения неуклонно снижается. Начиная с 1 Гбит/с, точность измерения увеличивается, что вызвано увеличением размера проб. Но, в целом, на высоких скоростях, ошибка измерения была не менее 30%.
Ситуация при измерениях инструментом Yaz лучше с величиной состава 200 проб — см. рисунок 45В. Ошибка почти для всех замеров не превосходит 20%; однако, при этом, она имеет почти всегда значение больше 10%, за исключением случая с полосой пропускания 2 Гбит/с.