-
Постов
4 716 -
Зарегистрирован
-
Посещение
-
Победитель дней
79
Тип контента
Профили
Форумы
Галерея
Загрузки
Блоги
События
Весь контент vasek00
-
Имеем два провода от провайдера подключенные к WAN и LAN порту со стат IP адресами для выхода в интернет, в конфиге записи : # ndmq -p "show running-config" -P message ... !interface FastEthernet0/Vlan2 name ISP description "Broadband connection" ... ip address 10.10.10.100 255.255.255.0 ... up !interface FastEthernet0/Vlan3 description VLAN3 ... ip address хх.хх.хх.52 255.255.224.0 .... up ! ... ! ip route default хх.хх.хх.1 FastEthernet0/Vlan3 ip route default 10.10.10.1 ISP ... по маршрутам, по умолчанию у кого приоритет выше там и default /dev # ip ro | grep default default via хх.хх.хх.1 dev eth2.3 /dev # Ваш вид второго подключения, с первым понятно на WAN порту и ISP?
-
Какая разница, прямой он или "кривой". Смотрим конфиг и пробуем брать от туда (на данном интерфейсе должен быть маршрут по default ) : interface FastEthernet0/Vlan3 description VLAN3 security-level public ip address хх.хх.хх.52 255.255.224.0 ip dhcp client hostname My-Keen ip dhcp client dns-routes ip dhcp client name-servers ip mtu 1500 ip global 700 up ! interface FastEthernet0/3 name 3 role inet for FastEthernet0/Vlan3 switchport mode access switchport access vlan 3 up ! ... ! ip route default хх.хх.хх.1 FastEthernet0/Vlan3 ... или их будет два, так как два интерфейса для провайдера ... ip route default хх.хх.хх.1 FastEthernet0/Vlan3 ip route default 10.10.10.1 ISP ... Взять можно прочитав конфиг и взять из него нужные переменные / # ndmq -p "show running-config" -P message | awk '/^ip route default/' ip route default хх.хх.хх.1 FastEthernet0/Vlan3 ip route default 10.10.10.1 ISP / # Прогнать по "FastEthernet0/Vlan3" и по "ISP", как душе угодно через awk c grep / # ndmq -p "show running-config" -P message | awk '/^ip route default/ {print $4}' хх.хх.хх.1 10.10.10.1 / #
-
Пример Есть "ifconfig" и "ip" с помощью этих команд и берете нужные вам переменные (а именно зная имена интерфейсов без разницы ppp0 он или ppp1). У меня один pppoe другой pptp => подняты два ppp интерфейса (два проводных провайдера) => ppp0 и ppp1. Теперь сами варианты ppp0 Link encap:Point-to-Point Protocol inet addr:хх.хх.хх.204 P-t-P:хх.хх.хх.1 Mask:255.255.255.255 UP POINTOPOINT RUNNING NOARP MULTICAST MTU:1492 Metric:1 RX packets:1346 errors:0 dropped:0 overruns:0 frame:0 TX packets:1120 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:622677 (608.0 KiB) TX bytes:122811 (119.9 KiB) ppp1 Link encap:Point-to-Point Protocol inet addr:yy.yy.yy.52 P-t-P:yy.yy.yy.25 Mask:255.255.255.255 UP POINTOPOINT RUNNING NOARP MULTICAST MTU:1400 Metric:1 RX packets:6 errors:0 dropped:0 overruns:0 frame:0 TX packets:15 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:1015 (1015.0 B) TX bytes:1635 (1.5 KiB) / # ndmq -p 'show interface PPTP0' -P address yy.yy.yy.52 / # ndmq -p 'show interface PPPoE0' -P address xx.xx.xx.204 ... R_nexthop=`ip route | awk '/nexthop via / {print $1}'` if [ "$R_nexthop" == "" ]; then echo "No router nexthop" inet_addr1=`ifconfig ppp0 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "` inet_addr2=`ifconfig ppp1 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "` PtoP_1=`ifconfig ppp0 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "` PtoP_2=`ifconfig ppp1 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "` ... route del default ip ro flush cache ip ro add default scope global nexthop via $inet_addr1 dev ppp0 weight 10 nexthop via $inet_addr2 dev ppp1 weight 10 echo "Yes router nexthop" exit; fi ... ... Для прямого аналогично только имена интерфейсов другие. В Cron проверка.
-
Маленькая ремарка к слову (по тексту показать содержимое)
-
Аналогично, все про что писал выше так и есть, маршрут работает только через второй интерфейс и то тот который идет в команде последний.
-
Практически такой подход везде приходиться привыкать. Только вот http://www.allnet.de/en/allnet-brand/produkte/neuheiten/p/allnet-all-vpn10-vpnfirewall-wlan-wan-router/ как говорится на "столетнем" ядре еще в 2013году реализовал данную функцию на данный проц, Multi-WAN Traffic Control - ... Load Balance ...; Network Interface - 1~2x WAN Port, 3~4x LAN 10/100 Mbps RJ45 ... . Сейчас 2016г. оно "ядро" конечно устарело, да и тянуть "лямку" на данный проц смысла нет.
-
v2.06(AAFG.11)B4 - релиз, изменений ноль. Тему можно думаю закрывать использование ip ro add default scope global nexthop на данном ядре 2.6.22.15, как не нужную (по мнению наверное разработчиков) в устаревающем оборудовании, есть более интересные идеи для 762х релизов. Якобы данная функция работает в ядре 3.х (но наводят на сомнения данный факт) так как думаю если есть там, то можно сделать и в текущей. Проверено v2.06(AAFG.11)B4 по схеме выше, только в обратную сторону ip ro add default scope global nexthop, на K-II Prov2----роутер1-(LAN)-----(LAN)-K-II------Инет1 мало того так K-II через некоторое время еще посчитал что default не правильный и грохнул его к первоначальному состоянию на ppp0.
-
Гостевая по умолчанию при включенном Wi-fi interface WifiMaster0/AccessPoint1 name GuestWiFi description "Guest access point" mac access-list type none security-level protected authentication wpa-psk ns3 Bi/qF......HJ5Si encryption enable encryption wpa2 ip address 10.1.30.1 255.255.255.0 ip dhcp client dns-routes ip dhcp client name-servers ssid My-Keen-wap wmm up / # ifconfig br0 Link encap:Ethernet HWaddr EC:xx:AA inet addr:192.168.1.1 Bcast:192.168.1.255 Mask:255.255.255.0 ... ra0 Link encap:Ethernet HWaddr EC:xx:AA ... Interrupt:25 ra1 Link encap:Ethernet HWaddr E2:xx:AA inet addr:10.1.30.1 Bcast:10.1.30.255 Mask:255.255.255.0 ... RX bytes:0 (0.0 B) TX bytes:0 (0.0 B) / # ip ro ... 10.1.30.0/24 dev ra1 proto kernel scope link src 10.1.30.1 ... / # iptables -nvL | grep ra1 0 0 ACCEPT all -- ra1 * 0.0.0.0/0 0.0.0.0/0 / # iptables -t nat -nvL | grep ra1 0 0 MASQUERADE all -- ra1 * 0.0.0.0/0 0.0.0.0/0 0 0 MASQUERADE all -- ra1 ra1 0.0.0.0/0 0.0.0.0/0 / #
- 4 ответа
-
- 1
-
-
Проверил Клиент (...130.2)---роутер-----Инет----K-II(...130.100) На K-II поднят No-ip и VPN сервер, клиент ПК с 192.192.168.130.2 через интернет подключился по VPN с серверу поднятому на K-II. Настройки клиента ПК было прописано доменное имя. Подключился без проблем на v2.06
-
Ситуация в том что по умолчанию проводные клиенты и wi-fi клиенты образуют мост br0 interface Bridge0 name Home description "Home network (Wired and wireless hosts)" inherit FastEthernet0/Vlan1 include AccessPoint ip address 192.168.1.1 255.255.255.0 ... поэтому все настройки одинаковы для любого клиента Bridge0 (Home network), вывод разделите клиентов на разные сегменты и произвидите настройку для данных клиентов. По умолчанию (default) один маршрут для всех, в данном случае у вас получиться один сегмент по одному маршруту (через WAN порт) другой сегмент по другому маршруту (через VPN). В базе знаний есть примеры.
-
Берем другую схему : Prov2----роутер1-(LAN)-----(LAN)-K-II------Инет1 На роутере1 делаю настройки # ifconfig | grep ppp ppp0 Link encap:Point-to-Point Protocol # route del default # ip ro flush cache # ip ro add default scope global nexthop via [IP_ppp] dev ppp0 weight 5 nexthop via [IP_KII] dev br0 weight 10 # ip ro default nexthop via [IP_ppp] dev ppp0 weight 5 nexthop via [IP_KII] dev br0 weight 10 ... # ping -I ppp0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.027 ms 64 bytes from 8.8.8.8: seq=1 ttl=56 time=8.967 ms ^C --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 8.967/8.997/9.027 ms # ping -I br0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=57 time=19.033 ms 64 bytes from 8.8.8.8: seq=1 ttl=57 time=18.544 ms ^C --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 18.544/18.788/19.033 ms # Проверяю балансировку работу клиентом и так же по смотрим на роутере1 (после ping на разные интерфейсы) #cat ip_conntrack | grep 8.8.8.8 icmp 1 10 src=[IP_ppp] dst=8.8.8.8 type=8 code=0 id=39173 packets=2 bytes=168 src=8.8.8.8 dst=[IP_ppp] type=0 code=0 id=39173 packets=2 bytes=168 mark=0 use=2 icmp 1 1 src=[IP_роутер1] dst=8.8.8.8 type=8 code=0 id=38405 packets=2 bytes=168 src=8.8.8.8 dst=[IP_роутер1] type=0 code=0 id=38405 packets=2 bytes=168 mark=0 use=2 # Работает как надо, через роутер1, если шлюзом для клиентов будет именно он роутер1. K-II пока для такой работы не готов на v2.06(AAFG.10)B4
-
Может я что-то не так делаю. Два канала ppp0 (PPPoE, приоритет 1000) и ppp1 (PPTP, приоритет 900) на проводных провайдеров /opt/tmp # ifconfig | grep ppp ppp0 Link encap:Point-to-Point Protocol ppp1 Link encap:Point-to-Point Protocol /opt/tmp # ip ro | grep default default dev ppp0 scope link /opt/tmp # ping -I ppp0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=58 time=17.774 ms 64 bytes from 8.8.8.8: seq=1 ttl=58 time=17.743 ms --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 17.743/17.758/17.774 ms /opt/tmp # ping -I ppp1 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.598 ms 64 bytes from 8.8.8.8: seq=1 ttl=56 time=9.525 ms --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 9.525/9.561/9.598 ms /opt/tmp # Оба канала работают, но маршрут default указывает на ppp0. Все правильно. Меняем по простенькому скрипту #!/bin/sh inet_addr1=`ifconfig ppp0 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "` inet_addr2=`ifconfig ppp1 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "` PtP_1=`ifconfig ppp0 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "` PtP_2=`ifconfig ppp1 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "` route del default ip ro flush cache ip ro add default scope global nexthop via $inet_addr1 dev ppp0 weight 10 nexthop via $inet_addr2 dev ppp1 weight 10 R_nexthop=`ip route | awk '/nexthop via / {print $1}'` if [ "$R_nexthop" == "" ]; then echo "No router" exit; fi echo "Yes router nexthop" exit; получили /opt/tmp # ip ro | grep nexthop nexthop via [inet_addr1] dev ppp0 weight 10 nexthop via [inet_addr2] dev ppp1 weight 10 /opt/tmp # ping -I ppp0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes --- 8.8.8.8 ping statistics --- 3 packets transmitted, 0 packets received, 100% packet loss /opt/tmp # ping -I ppp1 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.618 ms --- 8.8.8.8 ping statistics --- 1 packets transmitted, 1 packets received, 0% packet loss round-trip min/avg/max = 9.618/9.618/9.618 ms /opt/tmp # И естественно балансировка через ip ro add default scope global nexthop опять не работает. K-II на v2.06(AAFG.10)B4
-
Потерял один интерфейс - имеем провайдер PPTP и подключен клиент по VPN для доступа (как раз этого интерфейса и не видно, ведь он должен же быть как например ppp1), к каждому LAN порту подключен клиент плюс wi-fi клиенты. Съем идет через клиента который подключился к VPN, так же что-то датчиков в данном подключении маловато будет видно в отличие от локального.
-
Выбор работы данного канала основан на настройках приоритета на этих каналах, т.е. меняя его можно делать выбор того или другого канала. Он задается в конфиге на интерфейсе например : "ip global 900" или "ip global 1000". Через cli команда задается как : "(config-if)> ip global ‹priority›" или "(config-if)> no ip global" => меняя его в нужное время можно переключать канал. При использовании двух каналов от выбранного приоритета создается маршрут по умолчанию на нужный канал, подняты например два ppp интерфейса ppp0 (приоритет 1000) и ppp1 (приоритет 900) тогда будет маршрут по умолчанию указывать на ppp0 0.0.0.0 0.0.0.0 0.0.0.0 U 0 0 0 ppp0 меняя его в нужное время на ppp1 средствами cron получим переключение. 0.0.0.0 0.0.0.0 0.0.0.0 U 0 0 0 ppp1 Примечание: 1. будет ли долгим данное переключение, не вернет ли переменная приоритет (так как они остались прежними) в исходное состояние нужно проверить. Другой вариант использование "schedule" т.е. выключение нужного интерфейса в нужное время и включение другого, т.е. на нужных интерфейсах есть период работы один с 08:00-20:00 другой с 20:00-08:00, тут система сама уже будет поднимать соединение после включения канала.
-
876974 PRTG, разобраться не долго, но когда разберетесь очень многое можно узнать.
-
Обязательно проверю в след. сборке по Нет оба канала подняты как pppoe так и pptp, согласно приоритета устанавливается default на тот или другой интерфейс. При использовании настройки ниже не проходят на одном из интерфейсов ppp0 или ppp1 (ping -c2 -I ppp0 8.8.8.8 проходят , а ping -c2 -I ppp1 4.4.4.4 нет или наоборот) естественно балансировки нет никакой, так как один из каналов не пропускает пакеты. По отдельности все работает в зависимости от приоритетов. / # route del default / # ip ro flush cache / # ip ro add default scope global nexthop via IP_IF1 dev ppp1 weight 10 nexthop via IP_IF2 dev ppp0 weight 10 / # ip ro .... default nexthop via IP_IF1 dev ppp1 weight 10 nexthop via IP_IF2 dev ppp0 weight 10 В постах выше были выдержки из команд ifconfig и ip route
-
Ну как всегда не привыкать, что 2.6.22 в утиль для 2.06. СПС за информацию
-
При ppp интерфейсах : inet_addr1=`ifconfig ppp0 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "` inet_addr2=`ifconfig ppp1 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "` PtP_1=`ifconfig ppp0 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "` PtP_2=`ifconfig ppp1 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "` Можно так На K-II c v2.06(AAFG.9)B4 не работает с двумя интернет провайдерами на PPPoE и PPTP.
-
Проверил работу на v2.06(AAFG.9)B4 . Теперь считает eth2.1 eth2.2, так же был поднят второй провайдер eth2.3 и его ppp1 так же все считает. Проверил IPTV от провайдера на eth2.3 потоки 720х576 и 1920х1080 так же все видно. Теперь по br0 так как это мост в данном случае eth2.1 и ra то следовательно тарфик клиента наприме на eth2.1 должен быть и в br0, если только нет фильтрации vlan в br (на скрине видно есть трафик от клиента на eth2.1 а в br0 его нет). Так же все возможные счетчики на скринет, красные - не включен интерфейс, синий остановлены, зеленый работают.
-
Второй вариант все заведено на один роутер - пров1 и пров2 / # ifconfig ... eth2.2 Link encap:Ethernet HWaddr ... eth2.3 Link encap:Ethernet HWaddr inet addr:ххх.хх.хх.52 Bcast:ххх.хх.хх.255 Mask:255.255.224.0 ... ppp0 Link encap:Point-to-Point Protocol inet addr:1yy.1yy.yy3.230 P-t-P:1yy.1yy.0.1 Mask:255.255.255.255 ... ppp1 Link encap:Point-to-Point Protocol inet addr:1xx.18х.хх.52 P-t-P:1хх.ххх.148.26 Mask:255.255.255.255 ... / # ip ro IP_DNS1 dev ppp0 scope link IP_DNS2 dev ppp0 scope link 1хх.ххх.148.14 dev ppp1 scope link IP_серв_пров2 via IP_шлюз_пров2 dev eth2.3 1yy.1yy.0.1 dev ppp0 proto kernel scope link src 1yy.1yy.yy3.230 IP_пров2 dev ppp1 scope link 1хх.ххх.148.26 dev ppp1 proto kernel scope link src 1xx.18х.хх.52 192.168.1.0/24 dev br0 proto kernel scope link src 192.168.1.1 ххх.хх.хх.0/19 dev eth2.3 proto kernel scope link src ххх.хх.хх.52 default dev ppp0 scope link / # убираем default и даем на два канала / # route del default / # ip ro flush cache / # ip ro add default scope global nexthop via 1xx.18х.хх.52 dev ppp1 weight 10 nexthop via 1yy.1yy.yy3.230 dev ppp0 weight 10 / # ip ro .... default nexthop via 1xx.18х.хх.52 dev ppp1 weight 10 nexthop via 1yy.1yy.yy3.230 dev ppp0 weight 10 / # Интернет работает, но как то странно, полсекундные есть timeout, возможно один канал провайдера не фурычит (по анализу данных пакетов, их маловато на ppp1) по данной схеме. По подключению - ppp0 (приоритет 1000) ppp1 (приоритет 900), думаю если сменить приоритеты получим опять работу на одном канале. Странно при установки ppp1 приоритет 1000, ppp0 приоритет 900 и nexthop: / # ping -c2 -I ppp0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=48 time=35.867 ms 64 bytes from 8.8.8.8: seq=1 ttl=48 time=36.023 ms --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 35.867/35.945/36.023 ms / # / # ping -c2 -I ppp1 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes --- 8.8.8.8 ping statistics --- 2 packets transmitted, 0 packets received, 100% packet loss / # / # ifconfig | grep ppp ppp0 Link encap:Point-to-Point Protocol ppp1 Link encap:Point-to-Point Protocol / # ... default nexthop via хх.хх.хх.хх dev ppp1 weight 10 nexthop via хх.хх.хх.хх dev ppp0 weight 10 ... / # / # tc qdisc show | grep ppp qdisc pfifo_fast 0: dev ppp0 root bands 3 priomap 1 2 2 2 1 2 0 0 1 1 1 1 1 1 1 1 qdisc pfifo_fast 0: dev ppp1 root bands 3 priomap 1 2 2 2 1 2 0 0 1 1 1 1 1 1 1 1 / # iptables -t nat -nvL | grep ppp 213 14680 _NDM_STATIC_SNAT all -- * ppp0 0.0.0.0/0 0.0.0.0/0 28 3210 _NDM_STATIC_SNAT all -- * ppp1 0.0.0.0/0 0.0.0.0/0 / # При сбросе приоритетов ppp0 - в 1000, ppp1 - в 900 ping проходят : / # ping -c2 -I ppp0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=46 time=64.814 ms --- 8.8.8.8 ping statistics --- 1 packets transmitted, 1 packets received, 0% packet loss round-trip min/avg/max = 64.814/64.814/64.814 ms / # ping -c2 -I ppp1 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=56 time=13.436 ms 64 bytes from 8.8.8.8: seq=1 ttl=56 time=9.592 ms --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 9.592/11.514/13.436 ms / # при использовании nexthop опять проблема default nexthop via хх.хх.хх.хх dev ppp0 weight 10 nexthop via yy.yy.yy.yy dev ppp1 weight 5 ... ppp0 Link encap:Point-to-Point Protocol inet addr:xx.xx.xx.xx P-t-P:xx.xx.xx.xx Mask:255.255.255.255 ppp1 Link encap:Point-to-Point Protocol inet addr:yy.yy.yy.yy P-t-P:yy.yy.yy.yy Mask:255.255.255.255 ... / # ping -c2 -I ppp1 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.714 ms 64 bytes from 8.8.8.8: seq=1 ttl=56 time=9.187 ms --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 9.187/9.450/9.714 ms / # ping -c2 -I ppp0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes --- 8.8.8.8 ping statistics --- 2 packets transmitted, 0 packets received, 100% packet loss / #
-
Команда отработала по схеме выше на двух провайдеров, осталось проверить по пакетикам на два шлюза ....40 и .....100 / # ip ro add default scope global nexthop via 1хх.хх6.хх8.40 dev ppp0 weight 10 nexthop via 192.168.1.100 dev br0 weight 10 / # ip ro IP_DNS1 dev ppp0 scope link IP_DNS2 dev ppp0 scope link 1хх.хх6.хх2.1 dev ppp0 proto kernel scope link src 1хх.хх6.хх8.40 192.168.1.0/24 dev br0 proto kernel scope link src 192.168.1.1 default nexthop via 1хх.хх6.хх8.40 dev ppp0 weight 10 nexthop via 192.168.1.100 dev br0 weight 10 / # где K-II - 192.168.1.1 и 1xx.xx6.xx8.40 его ppp0 (пров1), 192.168.1.100 второй шлюз для (пров2)
-
Не на zyxel не проверял, а так все работало. #!/bin/sh WANup_ppp0=`ifconfig | awk '/ppp0/ {print $1}'` R_nexthop=`ip route | awk '/nexthop via 192.168/ {print $1}'` if [ "$WANup_ppp0" == "ppp0" ]; then if [ "$R_nexthop" == "" ]; then route del default ip ro flush cache ip ro add default scope global nexthop via [IP_ppp0] dev ppp0 weight 5 nexthop via 192.168.1.100 dev br0 weight 10 ... exit else Count_ping=`ping -c2 -I ppp0 194.186.хх.хх | awk '/packets received/ {print $4}'` if [ "$Count_ping" = 0 ]; then route del default ip ro add default via 192.168.1.100 dev br0 ip ro flush cache ... fi fi exit; else route del default ip ro add default via 192.168.1.100 dev br0 ip ro flush cache ... fi exit; при схеме Инет1------(WAN)роутер(LAN)-----(LAN)роутер2-----Инет2 Роутер был основным и на нем все крутилось, данный скрипт весел в cron и каждые 5мин проверял канал (проблемный) по ping до определенного адреса. Так же был определен маршрут на сервера DNS жестко (канал был скоростной и менее проблемный) route add -host хх.хх.хх.25 gw 192.168.1.100 route add -host хх.хх.хх.24 gw 192.168.1.100 Для разных клиентов были разные шлюзы заданны через dnsmasq, т.е. если шлюз ...1.1 то nexthop, если ...1.100 то напрямую. dhcp-option=6, хх.хх.хх.25, хх.хх.хх.24 dhcp-option=lan, 3, 192.168.1.100 Для WEB и торрента все отлично, для качалок проблема использование данного метода выше.
-
lokat Для описания примера нужно время нужно время на его опробования на каждом этапе, возьмите на себя часть работы У вас уже порт для pppoe2 готов, с помощью базы знаний найдите пример для создания vlan на выделенном порту, тем самым получите новый LAN-VLAN порт на котором поднимите IP 192.168.2.1 к данному порту подключите ноут с адресом 192.168.2.2. На роутере будут готовые маршруты, где так же будет описан и новый pppoe2 и созданный VLAN, маршрут по умолчанию будет активен на pppoe1 например, NAT так же должен прописаться. Тут уже нужно смотреть что получается на самом роутере (для удобства настройки и проверки использовать установленный entware).
-
Странно что, так как задача была ПК от Пр1, а ноут от Пр2, смысл в чем В данных прошивках вы получаете два PPPoE поднятых, только вот default маршрут будет указывать на один из интерфейсов у которых стоит приоритет выше, т.е. 0.0.0.0 0.0.0.0 0.0.0.0 U 0 0 0 ppp0 или 0.0.0.0 0.0.0.0 0.0.0.0 U 0 0 0 ppp1 но интерфейсы будут подняты ppp0 Link encap:Point-to-Point Protocol inet addr:х3.х7.х6.х6 P-t-P:х3.х7.х2.1 Mask:255.255.255.255 ... ppp1 Link encap:Point-to-Point Protocol inet addr:y2.y8.y2.y2 P-t-P:y3.y6.y8.y6 Mask:255.255.255.255 для клиентов шлюзом всегда будет роутер с его IP - 192.168.1.1, можно попробовать если не хотите "Транзит PPPoE" так выводите ноут из домашней сети 192.168.1.1 в новый сегмент 192.168.2.0 (c NAT) и данный сегмент "заворачиваете" на нужный ppp1 => две сети одна 192.168.1.0 на ppp0, вторая 192.168.2.0 на ppp1. Но "Транзит PPPoE" проще.