networkadm | Unsorted

Telegram-канал networkadm - Network Admin

12610

Обучающий канал по сетевому и системному администрированию. Сотрудничество: @dad_admin Биржа: https://telega.in/c/networkadm РКН: https://bit.ly/4ioc61C

Subscribe to a channel

Network Admin

BFD vs OAM: мониторинг линка

BFD (Bidirectional Forwarding Detection) и OAM (Operations, Administration, Maintenance) выглядят похоже, оба следят за состоянием канала, но работают по разному и для разных целей.

BFD мгновенно реагирует на падение соседнего узла. 


Если OSPF или BGP видят потерю маршрута за миллисекунды, трафик сразу переключается на резерв. Это незаменимо, когда важна скорость реакции сети и минимальные простои.

OAM проверяет качество канала глубже. Он измеряет задержки, jitter, потери пакетов и целостность цепочки, не вмешиваясь в маршрутизацию.

OAM полезен для Ethernet, MPLS и сервисных линков, когда важно понять, почему соединение работает медленно или нестабильно.

Примеры. BFD на FRR:

bfd
peer 10.0.0.2
minimum-interval 300
detection-multiplier 3


OAM на Ethernet:

ethtool -S eth0


Суть в том, что BFD следит за «живостью» маршрутов, мгновенно подсказывая, что линк упал, а OAM позволяет увидеть качество канала, измерить реальные параметры передачи и понять, где появляются задержки или потери.

N.A.

Читать полностью…

Network Admin

📂Как правильно документировать сеть, чтобы не потерять конфиги

Документирование сети кажется рутинной задачей, но на практике - это ключ к быстрому восстановлению, анализу и масштабированию. Вот как делать это по шагам.

1️⃣Сбор данных
Фиксируем все устройства, IP, VLAN, интерфейсы и протоколы маршрутизации.
Команды:

ip addr show          # список интерфейсов
ip route show # таблица маршрутов
vtysh -c "show running-config" # конфиги роутеров
show vlan brief # VLAN на коммутаторах


2️⃣Структурирование: Систематизируем данные: топология, IP-план, протоколы, ACL/Firewall.
Пример таблицы IP:

Устройство | Интерфейс | IP           | VLAN | Примечание
-----------|-----------|--------------|------|------------
r1 | eth0 | 10.0.1.1/24 | 10 | WAN
sw1 | vlan10 | 10.0.1.2/24 | 10 | серверная зона
sw2 | vlan20 | 10.0.2.1/24 | 20 | офисная зона
server1 | eth1 | 10.0.1.10/24 | 10 | база данных
server2 | eth1 | 10.0.1.11/24 | 10 | веб-сервер


3️⃣Version control: Сохраняем конфиги в Git. Каждый коммит с комментарием: что и зачем изменилось.

git init
git add configs/
git commit -m "Добавлен новый VLAN 20 на sw2"


4️⃣Визуализация топологии: Diagram-as-code (Mermaid/Graphviz) или инструменты типа NetBox/Draw.io.
Пример Mermaid:

graph TD
R1 --> SW1
SW1 --> Server1
SW1 --> Server2


5️⃣Автоматизация и backup: Скрипты для снятия конфигов и их сохранения в репозиторий или на NAS. Проверка актуальности backup.

Полезные команды для контроля

git log --oneline --graph   # история изменений
diff old_config new_config # что изменилось
ping 10.0.1.2 # проверить доступность после изменений


N.A.

Читать полностью…

Network Admin

Как проверить, что BGP-маршрут анонсируется, но не используется

Ситуация классическая: префикс в BGP есть, а трафик упорно идёт другим путём.

Почти всегда причина - не в самом анонсе, а в выборе best path или в том, как маршрут попал (или не попал) в RIB/FIB.

1️⃣Проверяем, что маршрут вообще пришёл по BGP

Сначала убеждаемся, что апстрим реально его отдал.

Cisco:

show ip bgp <prefix>


Важно смотреть:
• есть ли несколько путей
• какой помечен как *> (best)

Если маршрута нет, дальше можно не копать.

2️⃣Сравниваем BGP vs routing table

Маршрут может быть в BGP, но не установлен в основную таблицу.

show ip route <prefix>


Если вместо BGP стоит: static, OSPF или connected, то BGP просто проиграл по административной дистанции.

Смотрим атрибуты best path

Часто маршрут есть, но проигрывает по атрибутам.

show ip bgp <prefix>


Обращаем внимание на:
Local Preference (самая частая причина)
AS_PATH (длиннее — хуже)
MED
Weight (Cisco)

Даже разница в LocalPref 100 vs 200 полностью меняет путь.

4️⃣Проверяем policy: route-map / filter

Маршрут может быть принят, но «искажён» политикой.

show run | section route-map
show ip bgp neighbors <IP> received-routes


Иногда route-map не режет маршрут, но меняет LocalPref или MED.

5️⃣Проверяем CEF / FIB

Бывает, BGP и RIB ок, а в forwarding таблице другое.

show ip cef <prefix>


Если next-hop не тот, что ожидается — проблема на этапе установки в FIB.

N.A.

Читать полностью…

Network Admin

Ping внешнего IP: что происходит с ICMP-пакетом

На первый взгляд ping 8.8.8.8 прост, но под капотом - целый путь через стек и сеть.

Шаги прохождения пакета:
1️⃣Формирование пакета
Ping создаёт ICMP Echo Request через RAW-сокет. Источник - твой IP, цель - 8.8.8.8.

2️⃣Локальный стек
Пакет проходит через iptables/netfilter. Если политика DROP - даже локально он не уйдёт.

3️⃣Маршрутизация
Ядро выбирает интерфейс и next-hop для внешнего IP. NAT может поменять исходный адрес.

4️⃣Физический путь
Пакет выходит на интерфейс, проходит коммутаторы и маршрутизаторы. TTL уменьшается на каждом hop.

5️⃣Удалённый узел
Echo Reply создаётся на хосте и идёт обратно по пути, определённому его routing table.

6️⃣Возврат и RTT
Пакет возвращается, ping фиксирует RTT и выводит результат.

Что может сломать ping:

Пинг может не работать, если на локальной машине или по пути к цели блокируют ICMP пакеты (firewall/ACL), отсутствует маршрут к внешнему IP, некорректно настроен NAT, или TTL пакета слишком мал, чтобы достичь удалённого узла.

Полезные команды:

traceroute 8.8.8.8
tcpdump -i eth0 icmp
iptables -L -v -n
ip route get 8.8.8.8


N.A.

Читать полностью…

Network Admin

Что происходит при ping 127.0.0.1: путь ICMP-пакета в loopback

ping 127.0.0.1 кажется банальной вещью, но под капотом — полноценный сетевой стек. Вот что происходит по шагам:

Сначала утилита ping создает RAW-сокет и формирует ICMP Echo Request. Пакет получает IP-адрес источника 127.0.0.1 и тот же адрес в качестве получателя.


Пакет проходит через iptables/netfilter и может быть отброшен или модифицирован (например, логгирован или помечен). Если политика DROP — ICMP даже на localhost не дойдет.

Ядро направляет пакет в loopback-интерфейс lo, где он сразу попадает обратно в приемный путь — физически никуда не выходит.

Приемный стек получает ICMP Echo Request и отправляет в ответ Echo Reply — снова через loopback.

Утилита ping ловит Echo Reply и выводит строку с временем RTT, даже если интерфейс lo отключен — это чисто внутренняя маршрутизация.


Как можно сломать

Отключен интерфейс lo: ifconfig lo down — ping не будет работать, хотя кажется, что это локальный вызов.

ICMP фильтруется iptables -A INPUT -p icmp -j DROP — даже пинг 127.0.0.1 будет теряться.

Сломана маршрутизация: удалена запись 127.0.0.0/8 dev lo — пакеты просто не найдут путь.


Полезные команды для диагностики

ip route get 127.0.0.1 — какая таблица маршрутов применяется
iptables -L -v -n — проверка, не режется ли ICMP
tcpdump -i lo icmp — убедиться, что пакеты доходят
ss -npi — посмотреть, что происходит с сокетом

N.A.

Читать полностью…

Network Admin

Как найти «утекающий» DHCP‑трафик

Когда клиенты жалуются, что «IP не выдаётся», причина часто не в сервере, а в том, что DHCP broadcast где‑то теряется по пути. Это трудно заметить, потому что обычный трафик при этом работает.

Вот короткая схема проверки:

1️⃣Проверяем Snooping
Если включён DHCP Snooping, он может блокировать сервер или relay на недоверенном порту.

show ip dhcp snooping
show ip dhcp snooping binding


Если сервер сидит на untrusted‑порту - DISCOVER не проходит.

2️⃣Ищем зону, где режется broadcast
Storm Control, ACL или неправильные VLAN могут «убивать» DHCP‑кадры.

show storm-control
show vlan brief
show access-lists


Если на порту агрессивный storm‑control или ACL с deny udp 67/68 - пакеты не доходят.

3️⃣Проверяем Relay (IP Helper): Если используется relay, проверяем, что он настроен на правильный сервер.

show running-config interface <uplink>


Если ip helper указывает на старый/неправильный адрес - OFFER/ACK «теряются».

4️⃣Смотрим счётчики на интерфейсах: На некоторых портах могут быть drops именно по L2 broadcast.

show interface Gi1/0/15 counters


Если broadcast-drops растут - DHCP Discover там «тонет».

5️⃣Тестируем вручную
На Linux:

tcpdump -ni eth0 port 67 or port 68


Если DISCOVER уходит, а OFFER не приходит - проблема выше по цепочке.

N.A.

Читать полностью…

Network Admin

Наконец-то ребята из контейнерной платформы “Штурвал” прислушались к сообществу и сделали альтернативу бесячей форме на сайте для получения community-лицензии. Теперь ее можно получить через бота в телеге: @l4_helper_bot.
Может ещё и Open-Source-версию сделают?

Читать полностью…

Network Admin

Как вычислить сломанный FIB/CEF на магистрали

Сложные сетевые проблемы часто выглядят как «плавающие» потери или нестабильный RTT, хотя маршрутизация на уровне RIB выглядит идеально. 


В реальности сбоит CEF/FIB, когда ASIC-программирование нарушено, есть баг платформы, переполнение adjacency, или MPLS label stack формируется неправильно.

CEF ломается тихо: маршруты в RIB корректны, но forwarding - нет.

На что смотреть: корректность adjacency, наличие glean-энтри, переполнение таблиц, несовпадение RIB/FIB, MPLS labels и программирование hardware-ASIC.

Проверяем конкретный префикс в FIB:

show ip cef 10.20.50.1 detail


Признаки проблемы: incomplete, glean, unexpected next-hop, adjacency punted в CPU.

Проверяем, как выглядит hardware FIB:

show platform hardware qfp active forwarding ip route


Если entry отсутствует или отличается от CEF - ошибка ASIC программирования.

Проверяем MPLS label stack:

show mpls forwarding-table 10.20.50.1


Неверный out-label или отсутствие LFIB записи приводит к silent-drop.

Проверяем consistency между RIB/CEF/FIB:

show tech cef consistency


Если есть mismatch - проблема не в маршрутах, а в forwarding plane.

N.A.

Читать полностью…

Network Admin

🧭 Как вычислить некорректную обработку ECN

Разберём типовую ситуацию: приложение «плавает» по скорости, задержки нормальные, потерь нет, а throughput падает.

Часто причина, что ECN по пути работает неправильно: биты стираются, игнорируются или не ставится CE при перегрузке.


ECN (Explicit Congestion Notification) - это механизм сигнализации о перегрузке без дропа.

Если одно устройство ломает поле DSCP/ECN, TCP начинает откатывать скорость так, будто сеть нестабильна.

Чтобы ECN работал корректно, нужно:

Не перетирать DSCP/ECN политиками QoS
Разрешить маркировку CE при перегрузке
Исключить дроп пакетов с ECT0/ECT1 middlebox’ами
Убедиться, что железо/ASIC поддерживает ECN

Если один элемент цепочки «портит» поле ToS — ECN фактически отключён.

Практика на Cisco:

1️⃣Проверяем, стирает ли QoS биты:

show policy-map interface Gi1/0/1


Если видим set dscp … → ECN скорее всего теряется.

2️⃣Проверяем статистику ECN/маркировки:

show policy-map interface Gi1/0/1 | i ECN|marked


CE-marking должен расти при нагрузке. Ноль - значит CE не ставится.

3️⃣Проверяем реальные пакеты:

monitor capture ... 
tcpdump ip[1] & 0x03 != 0


ECT0/ECT1/CE должны присутствовать. Если исчезают — кто-то чистит ToS.

4️⃣Проверяем аппаратную поддержку:

show platform hardware qfp active statistics drop | i ECN


Если есть дропы ECN - проблема внутри платформы или ASIC.

N.A.

Читать полностью…

Network Admin

Проверяем, что firewall не режет return-трафик

Надо убедиться, что пакеты ответа проходят через firewall, а не блокируются из-за ассиметрии или политики stateful/NAT.

1️⃣На Linux (iptables/nftables): Смотрим состояние соединений через conntrack:

# Состояние соединений
conntrack -L | grep ESTABLISHED

# Количество непринятых ответов
conntrack -S | grep UNREPLIED


Если много UNREPLIED → firewall блокирует return-пакеты.

2️⃣На Cisco ASA/Firewall:

show conn detail | include ESTABLISHED
show conn detail | include half-open


Если есть «half-open» соединения → вероятная проблема с возвращаемыми пакетами.

3️⃣На MikroTik:

/ip firewall connection print where state=established
/ip firewall connection print where state=unreplied


Много unreplied → возвращаемый трафик не проходит.

N.A.

Читать полностью…

Network Admin

Как быстро проверить, что OSPF не анонсирует лишние маршруты

Надо убедиться, что соседние маршрутизаторы не получают маршруты, которые им не нужны, и сеть остаётся чистой.

OSPF умеет анонсировать маршруты через все интерфейсы по умолчанию. Чтобы ограничить это:

Используем passive-interface - OSPF не будет посылать Hello и LSAs на этом интерфейсе.
Используем фильтры (distribute-list или prefix-list) - чтобы пропускать только нужные сети.

Примеры на Cisco:

Сделать интерфейс пассивным:

router ospf 1
passive-interface GigabitEthernet0/1


Проверка соседей на активных интерфейсах:

show ip ospf neighbor


Если интерфейс пассивный - его не будет в списке соседей.

Ограничение анонса конкретной сети через distribute-list:

ip prefix-list ONLY_MY_NET seq 5 permit 192.168.10.0/24
router ospf 1
distribute-list ONLY_MY_NET out


Проверка, какие маршруты анонсируются соседям:

show ip ospf database


Так быстро видим, что лишние сети не уходят, и OSPF работает «чисто».

N.A.

Читать полностью…

Network Admin

🔎Как выявить дубликаты IP в сети

Дубли IP создают хаос в L2/L3: ARP-флуд, потерю пакетов и непредсказуемое поведение сервисов.

Особенно критично в VLAN с большим количеством хостов.

Простая диагностика на Linux:

Смотрим ARP-таблицу и ищем одинаковые IP с разными MAC:

ip neigh


Используем arping для проверки конкретного IP:

arping -c 5 -I eth0 192.168.1.100


Если приходит несколько разных MAC-ответов — IP занят дважды.

Для массовой проверки можно собрать таблицу всех ARP-ответов:

for ip in $(seq 1 254); do arping -c 1 -I eth0 192.168.1.$ip; done


На Cisco:

show ip arp
show mac address-table


Ищем одинаковые IP, которые «смотрят» на разные MAC.

🔥И еще совет: при выявлении дубликата - быстро сверяем физический порт и VLAN, отключаем проблемный хост или исправляем статический IP.

N.A.

Читать полностью…

Network Admin

SPRINT OFFER в YADRO: Network Engineer in Test!

3 дня — и вы среди инженеров, которые обеспечивают надёжность сетевых систем YADRO 🚀

Мы расширяем команду KORNFELD, которая отвечает за качество и стабильность сетевого оборудования YADRO. Именно здесь инженеры анализируют архитектуру, пишут тестовые сценарии, моделируют сбои и доводят продукт до идеала.

Специалисты работают с самыми глубокими слоями сетевой инфраструктуры — от L2/L3 до сложных связок протоколов и сценариев отказоустойчивости.

⚙️ Как проходит SPRINT OFFER:
1️⃣ Подайте заявку до 30 ноября, пройдите HR-скрининг и технический скрининг.
2️⃣ Пройдите техническое и менеджерское интервью.
3️⃣ Получите оффер в течение 3 дней.

📍 Чем предстоит заниматься:
• Анализировать продуктовые требования и составлять use cases.
• Проводить функциональные, E2E- и failover-тесты.
• Разрабатывать тест-кейсы и тест-планы для нового и уже существующего функционала.
• Участвовать в интеграционных испытаниях, взаимодействовать с разработкой и L3-командами.

📀 У нас:
• Удалённая работа (РФ/РБ) или офис в городах присутствия — Москве, Санкт-Петербурге, Нижнем Новгороде, Екатеринбурге, Минске.
• Амбициозные проекты в уникальной команде инженеров.
• Вертикальный и горизонтальный карьерный рост.
• ДМС с первого дня, поддержка спортивных инициатив сотрудников и другие бенефиты.

💙 YADRO — место, где ценят инженерную экспертизу и предоставляют возможности для эксперимента и инициативы. Оставляйте заявку до 30 ноября и присоединяйтесь к команде KORNFELD!

Читать полностью…

Network Admin

Ветер перемен: представляем новую систему выпуска релизов UserGate NGFW

В основе — лучшие практики международных вендоров, принятые в мировой ИТ/ИБ-индустрии.

Все подробности расскажем на вебинаре. В программе:

— Что побудило нас к изменениям
— Новая система релизов: FR, LTS, LTS (GD)
— Что ещё мы делаем для повышения стабильности
— Первый кандидат на LTS и что в нём нового

В завершении ответим на ваши вопросы.

Вебинар будет интересен как техническим специалистам, так и руководителям ИТ- и ИБ-департаментов.

Спикеры:

— Кирилл Прямов, менеджер по развитию NGFW
— Михаил Кадер, архитектор ИБ, R&D

Когда: 27 ноября, четверг, 10:00 (МСК).

Увидимся в эфире!

Зарегистрироваться

Читать полностью…

Network Admin

Как выявить microbursts на интерфейсе

Microbursts — это короткие всплески трафика, которые длятся доли секунды. 


В графиках на 1-минутном интервале они выглядят как будто «всё нормально», но в реальности в этот момент буферы на интерфейсе бьются в потолок → появляются drops, VoIP начинает хрипеть, UDP рвётся.

Обычный мониторинг их не поймает - нужна ручная проверка через быстрый опрос интерфейса.

🔎 Что делаем

Смотрим аппаратные счётчики input/output drops с очень коротким интервалом. Если цифры скачут рывками — microbursts подтверждены.

Cisco

show interface gi0/1 | include drops


Повторяем команду несколько раз подряд.
Если в какой-то момент счётчик прыгнул сразу на +50, +200, +1000 — это оно.

Linux

watch -n 0.2 "ethtool -S eth0 | grep -E 'drop|overflow|miss'"


Интервал 0.2 сек — оптимальный, чтобы поймать резкие пики.

drop или rx_missed_errors растут скачками
буферные overflow появляются периодически
нагрузка в графиках при этом может быть всего 20–40%

N.A.

Читать полностью…

Network Admin

ICMP: тестируем не только ping

На первый взгляд ping кажется простой командой, но ICMP - полноценный инструмент для диагностики сети и анализа маршрутов.


Что можно делать:
Traceroute через ICMP помогает локализовать узкие места: задержки, потерю пакетов и переполненные маршрутизаторы.
Даже если ping запрещён firewall, ICMP показывает, какие пакеты проходят, а какие блокируются.
Анализ ICMP Time Exceeded и Destination Unreachable помогает понять поведение маршрутизаторов и Path MTU.

Как проверить:

# Traceroute через ICMP
traceroute -I 8.8.8.8

# Ping с разным TTL
ping -t 10 -c 5 8.8.8.8

# Проверка Path MTU
ping -M do -s 1472 8.8.8.8


Как можно сломать:
Firewall блокирует все ICMP → даже ping до localhost не покажет проблем маршрутизации.
MTU mismatches → пакеты теряются, но стандартный ping не всегда это показывает.
Неправильная маршрутизация → ICMP показывает только, что узел недоступен, но не где именно.

N.A.

Читать полностью…

Network Admin

Эмуляция RPL-сети на Linux через Docker Compose

Цель — поднять небольшую IoT-сеть с 5 узлами, построить DAG и проверить маршрутизацию.

Docker Compose конфигурация

Создаём файл docker-compose.yml:

version: '3.9'
services:
rpl-node1:
image: ubuntu:22.04
container_name: rpl-node1
privileged: true
network_mode: "bridge"
command: bash -c "apt update && apt install -y iproute2 iputils-ping rpl-tools && sleep infinity"
rpl-node2:
image: ubuntu:22.04
container_name: rpl-node2
privileged: true
network_mode: "bridge"
command: bash -c "apt update && apt install -y iproute2 iputils-ping rpl-tools && sleep infinity"
rpl-node3:
image: ubuntu:22.04
container_name: rpl-node3
privileged: true
network_mode: "bridge"
command: bash -c "apt update && apt install -y iproute2 iputils-ping rpl-tools && sleep infinity"
rpl-node4:
image: ubuntu:22.04
container_name: rpl-node4
privileged: true
network_mode: "bridge"
command: bash -c "apt update && apt install -y iproute2 iputils-ping rpl-tools && sleep infinity"
rpl-node5:
image: ubuntu:22.04
container_name: rpl-node5
privileged: true
network_mode: "bridge"
command: bash -c "apt update && apt install -y iproute2 iputils-ping rpl-tools && sleep infinity"


Каждому контейнеру нужен privileged: true для работы с сетевыми интерфейсами.

Настройка виртуальных интерфейсов внутри контейнеров

Заходим в каждый контейнер и создаём veth-пары для имитации соседних узлов:

ip link add veth1 type veth peer name veth1-peer
ip addr add 2001:db8:1::1/64 dev veth1
ip link set veth1 up
ip link set veth1-peer netns <container> # подключаем к соседнему контейнеру


Можно автоматизировать для всех 5 узлов, чтобы получить полносвязную топологию.

Запуск RPL демона

На корневом узле (например, rpl-node1):

rpld -i veth1 -r
rpld -i veth2
rpld -i veth3
rpld -i veth4


На остальных узлах:

rpld -i veth1
rpld -i veth2


-r на корне DAG, остальные просто присоединяются.

Проверка DAG и reachability

rplctl -i veth1 show
ping6 2001:db8:1::2 -I veth1


Можно менять порядок включения узлов, поднимать и опускать интерфейсы, чтобы увидеть автоматическое перестроение DAG.

N.A.

Читать полностью…

Network Admin

Привет. Вот тебе самые топовые каналы по IT!

⚙️ Free Znanija (IT) — Самая огромная коллекция платных курсов, которые можно скачать бесплатно;

👩‍💻 IT Books — Самая огромная библиотека книг;

💻 Hacking & InfoSec Base — Крутой блог белого хакера;

🛡 CyberGuard — Всё про ИБ;

🤔 ИБ Вакансии — Всё, чтобы найти работу в ИБ;

👩‍💻 linux administration — Всё про Линукс;

👩‍💻 Программистика — Python, python и ещё раз python;

👩‍💻 GameDev Base — Всё про GameDev;

😆 //code — Самые топовые мемы по IT:

Подпишись, чтобы не потерять!

Читать полностью…

Network Admin

🤩 Admin Books —электронные книги о компьютерных технологиях.

Используй предстоящие новогодние выходные наилучшим образом! Изучай новые технологии или закрой пробелы в знаниях по своему стеку.

Стань экспертом в следующих направлениях:

Системное администрирование
Информационная безопасность
Сетевое администрирование
Этичный хакинг

Ссылка для своих: /channel/admbooks

Читать полностью…

Network Admin

Как вычислить «молчаливый» ARP-флуд в сети

Даже если обычный трафик нормальный, сеть может испытывать проблемы из-за частого повторного ARP-запроса, который почти не виден в интерфейсных counters, но забивает CPU коммутатора или broadcast-домен.

Особенно важно для IoT, камер и массовых DHCP-сетей.

Проверим 👇

1️⃣Счётчики ARP на коммутаторе

show ip arp summary
show interfaces Gi1/0/10 counters


Если количество ARP-запросов растёт неравномерно - возможен флуд.

2️⃣Логи и события ARP

show logging | include ARP


Ищем «arp request rate» или warnings от CPU.

3️⃣Сетевой capture
На Linux или коммутаторе с capture:

tcpdump -nn -i eth0 arp


Смотрим частоту ARP-запросов. Если сотни/тысячи в секунду - это перегрузка.

4️⃣Проверяем защиту
На Cisco можно включить ARP Inspection/Snooping, чтобы ограничить flood:

show ip arp inspection


N.A.

Читать полностью…

Network Admin

🧭 Как вычислить сломанную политику QoS с Shaping и Token-Bucket

Иногда трафик вроде классифицирован правильно, но на пиках появляются задержки или пакеты «теряются» без видимых drop’ов.

Причина часто в неправильно настроенном shaping или drift token-bucket - hardware ограничивает throughput неравномерно, либо буфер переполняется.

Важно понимать, что QoS работает только если shaping и token-bucket настроены согласованно по всей цепочке.

1️⃣Проверяем статистику очередей:

show policy-map interface Gi1/0/1


Ищем drops, match, transmitted packets и rate-limits.

2️⃣Смотрим token-bucket counters:

show queueing interface Gi1/0/1


Если токены расходуются быстрее, чем refill → пиковый трафик режется.

3️⃣Сравниваем с hardware counters:

show platform hardware qfp active statistics drop


Если есть drop на ASIC — shaping реально ограничивает throughput, возможно, неправильно выставлен burst.

4️⃣Анализируем traffic flow:

monitor capture ...


Сравниваем пиковый traffic с лимитами QoS. Если падает на microburst — лимит слишком жёсткий или token-bucket «дрейфует».

N.A.

Читать полностью…

Network Admin

Как найти порты с неправильными Storm Control-лимитами

Иногда Storm Control включён, но лимиты выставлены слишком жёстко - и коммутатор начинает резать обычный трафик как «шторм».

Типичный признак - порты рандомно падают в suppression, появляются жалобы на «плавающий» доступ, особенно в сетях с VoIP, камерой или IoT.

Важно понять две вещи:
где включён Storm Control,
и не слишком ли низкий порог стоит для конкретного трафика.

1️⃣Проверяем текущее состояние лимитов:

show storm-control


Если по порту suppression счётчик растёт — порог занижен.

2️⃣Смотрим конфигурацию интерфейса:

show running-config interface Gi1/0/10 | include storm


Обрати внимание на kbit/s или процент - именно они определяют, как быстро порт будет уходить в ограничение.

3️⃣Проверяем, были ли события suppression:

show storm-control interface Gi1/0/10

Если suppression last occurred недавно - лимит стоит пересматривать.

4️⃣Через SNMP можно вытянуть статистику по всем портам:

snmpwalk -v3 -u user -l authPriv -a SHA -A authpass -x AES -X privpass <switch> .1.3.6.1.4.1.9.9.187


OID Cisco Storm-Control вернёт counters broadcast/multicast/unicast для каждого порта, что удобно для массового анализа.

N.A.

Читать полностью…

Network Admin

Ловим «ломаный» QoS по DSCP

Бывает так: сеть чистая, задержки нормальные, потерь нет - а приложения вдруг притормаживают.

Часто проблема не в каналах, а в том, что DSCP меняется там, где никто не планировал.

В итоге QoS работает “криво”, а трафик оказывается в неверном классе.

QoS по DSCP держится на трёх вещах:

Правильный trust на портах (где мы доверяем меткам)
Классификация, соответствующая реальному трафику
Политики, которые не перетирают DSCP по пути

Если одно звено даёт сбой - весь QoS превращается в best-effort.

Проверяем trust на интерфейсе:

show mls qos interface Gi1/0/1


Если trust отсутствует → DSCP переписывается на входе.

Смотрим, что делает политика QoS:

show policy-map interface Gi1/0/1


Нежелательный сигнал: set dscp default или любое фиксированное значение.

Проверяем, куда реально попадает трафик:

show policy-map interface Gi1/0/1 | i match|packets


Если приложение идёт в class-default → классификация сломана.

Сверяем DSCP на входе/выходе:

monitor capture ...


Если метка меняется по пути - виновник найден.

N.A.

Читать полностью…

Network Admin

🔥 БЕСПЛАТНЫЙ КУРС ПО СОЗДАНИЮ НЕЙРО-СОТРУДНИКОВ НА GPT И ДРУГИХ LLM 🔥

Ищете практический и углубленный курс, чтобы освоить создание нейро-сотрудников? Мы создали курс из 5 объемных занятий. Это именно то, что нужно, чтобы прокачать свои навыки абсолютно бесплатно!

📌 Темы занятий:
1. Введение в мир нейро-сотрудников
2. Как работают LLM и их аналоги
3. Создание базы знаний для нейро-сотрудника (RAG)
4. Тестирование и отладка нейро-сотрудников
5. Интеграция нейро-сотрудников в Production

Вот 5 тем курса - он максимально простой и доступный, общеобразовательный, без какого-либо сложного программирования 📚Прохождение этого курса, скорее всего, займет у вас от 1 до 3 часов

🤖 Присоединяйтесь к нашему бесплатному курсу и разберитесь в этой увлекательной теме с нами!

Читать полностью…

Network Admin

Как найти порты с включённым Storm Control

Storm Control защищает коммутаторы от флудов широковещательного, мультикаст и уникаст трафика. 


Иногда нужно проверить, где он включён, чтобы убедиться, что политика применена корректно или найти порты с непреднамерёнными ограничениями.

Cisco:

show storm-control


Выведет список VLAN/портов и уровни ограничения для broadcast/multicast/unknown unicast.

Чтобы проверить конкретный интерфейс:

show running-config interface Gi1/0/10 | include storm


Покажет, включён ли Storm Control и какие лимиты установлены.

Linux (если на свиче работает через SNMP):

snmpwalk -v3 -u user -l authPriv -a SHA -A authpass -x AES -X privpass <switch> .1.3.6.1.4.1.9.9.187


OID для Cisco storm-control - позволит получить статистику по каждому порту.

N.A.

Читать полностью…

Network Admin

🧭 Как вычислить неправильную политику VRF

Попробуем понять, почему трафик «исчезает» между VRF и не достигает нужного сегмента.

Часто бывает, что маршруты присутствуют, но CEF или next-hop указывают на другой VRF, либо политики import/export настроены неправильно.

VRF (Virtual Routing and Forwarding) создаёт отдельные таблицы маршрутизации на одном устройстве.

Для того чтобы трафик мог идти между VRF или к внешним интерфейсам, нужно правильно настроить:

Route-target import/export (для MPLS VPN)
CEF/forwarding для нужных IP
Interface VRF assignment

Если хоть один элемент настроен неверно, пакеты не будут маршрутизироваться.

Практика на Cisco:
1️⃣Проверяем маршруты в конкретной VRF:

show ip route vrf CUSTOMER_A


2️⃣Проверяем CEF для конкретного IP:

show ip cef vrf CUSTOMER_A 10.10.1.5


• Смотрим next-hop и outgoing interface
• Если next-hop указывает на другой VRF или «Null0» → проблема с политикой.

3️⃣Проверяем import/export route-target:

show ip bgp vpnv4 all


Убедитесь, что нужные префиксы импортируются в VRF.

4️⃣Проверяем интерфейсы:

show run | section interface


Интерфейс должен быть привязан к правильной VRF:

interface Gi1/0/1
vrf forwarding CUSTOMER_A
ip address 10.10.1.1 255.255.255.0


N.A.

Читать полностью…

Network Admin

Проверка асимметричного VLAN на trunk

Проблема в том, что на стыке двух коммутаторов trunk порт настроен, но трафик некоторых VLAN не проходит.

Часто это из-за того, что на одной стороне не разрешены все нужные VLAN, или VLAN ID не совпадает.

Как быстро проверить:

1️⃣На Cisco:

show interfaces trunk


Проверяет, какие VLAN разрешены и активны на trunk.

show vlan brief


Смотрим, какие VLAN реально присутствуют на портах.

2️⃣На Linux (если trunk через 802.1Q):

ip -d link show eth0


Проверяем VLAN tags на интерфейсе и используемые subinterfaces: eth0.10, eth0.20 и т.д.

3️⃣Тестируем «проход» трафика VLAN:

ping -I eth0.10 <IP в этой VLAN>


Если пинг не проходит, VLAN либо не разрешена на trunk, либо нет IP на другой стороне.

⚡️И да, всегда проверяйте настройки на обоих сторонах trunk - иногда достаточно одной команды switchport trunk allowed vlan add <VLAN_ID>, чтобы вернуть связь.

N.A.

Читать полностью…

Network Admin

Осторожно, пакеты отправляются. Следующая станция 192.168. …

N.A.

Читать полностью…

Network Admin

🎉 Результаты розыгрыша:

🏆 Победители:
1. Руслан (@pandikkd)
2. . (@pythonschik)

✔️Проверить результаты

Читать полностью…

Network Admin

Как поймать внезапный ARP-resolve timeout

Когда «всё работает… но периодически что-то замирает», очень часто виноват ARP.

Хост просто не может быстро получить MAC адрес - и весь трафик встаёт на паузу. Особенно больно это бьёт по VoIP, SSH и интерактивным сервисам.


Обычно такие таймауты не видны в обычных логах, поэтому отлавливать их нужно вручную.

1️⃣Проверяем, как часто хост делает ARP-запросы

Если сосед «теряется», хост начнёт усиленно спрашивать его MAC.

Linux:

tcpdump -ni eth0 arp


Если видишь 2–3 повторяющихся ARP Requests подряд → проблема.

Cisco:

debug arp


или

show arp


Если запись в ARP-таблице часто «флапает», это ненормально.

2️⃣Смотрим, что происходит в момент задержки

Отслеживаем, пропадают ли ответы:

tcpdump -ni eth0 "arp or icmp"


Если ping висит, а в дампе есть ARP Requests без ARP Reply → таймаут найден.

3️⃣Проверяем ARP-таблицу на переполнения и expiry

Если ARP-таблица забилась или записи слишком быстро удаляются → будут постоянные timeouts.

Linux:

ip -s neigh


Подозрительные признаки:
• состояние FAILED
• резкий рост timeouts
• записи часто переходят FAILED → REACHABLE → FAILED

4️⃣Проверяем ARP кэш на коммутаторе

Иногда виноват L2 — коммутатор забывает MAC или шлёт фреймы не туда.

Cisco:

show mac address-table dynamic | include <MAC>


Если MAC постоянно пропадает → проблема на сегменте.

N.A.

Читать полностью…
Subscribe to a channel