70 likes | 221 Views
Управление трафиком в сети ATM. Управление трафиком это прежде всего борьба с перегрузками коммутаторов потоками ячеек. Большинство механизмов управления трафиком не имеют стандартной основы и являются интеллектуальной собственностью фирм-производителей.
E N D
Управление трафиком в сети ATM Управление трафиком это прежде всего борьба с перегрузками коммутаторов потоками ячеек. Большинство механизмов управления трафиком не имеют стандартной основы и являются интеллектуальной собственностью фирм-производителей.
В качестве механизмов управления перегрузками применяются: • сброс на пакетном уровне (ранний сброс или сброс остатков); • управляемые большие буферы. Сброс данных на пакетном уровне может происходить на основе двух механизмов: • раннийсброспакетов EPD (Early Packet Discard); • сброс остатков пакета TPD (Tail Packet Discard). Эти механизмы способны увеличить в 10 раз реальную пропускную способность сети.
Ранний сброс пакетов. Пакет размещается в n-ом количестве ячеек. Сброс одной ячейки этого пакета в его начале (например, поле из 100 ячеек) повлечет нарушение целостности информации и нет смысла передавать остальные 99 ячеек этого пакета. Пакет может быть восстановлен протоколами выше лежащих уровней (IP, Frame Relay и другими).
Управляемые буферы позволяют организовать индивидуальные очереди для каждого соединения. Объем буфера и алгоритм обработки данных определены типом трафика (CBR, VBR, ABR, UBR) и его характеристиками времени разброса ячеек. Емкость буферной памяти динамически распределяется в соответствии с требуемым качеством обслуживания.
Для организации индивидуальных очередей для каждого виртуального соединения общую буферную память необходимо делить на несколько частей. Каждая часть предназначена для трафика с определенным качеством обслуживания. Каждый буфер обслуживает свои очереди. Емкость буфера определяет стоимость оборудования и обеспечивает защиту от перегрузок.
Алгоритмы организации очередей в буферах: - по принципу FIFO, когда все соединения, относящиеся к одной категориисервиса, помещаются в одну очередь; - с учетом виртуальных соединений очередью FIFO, когда все виртуальные соединения, относящиеся к одной категории сервиса, помещаются в одну очередь; -разделение очереди для каждого виртуального соединения, при котором перегрузки в одном не влияют на другие.
FIN СПАСИБО за ВНИМАНИЕ