public inbox for gentoo-user-ru@lists.gentoo.org
 help / color / mirror / Atom feed
From: "Алексей Белкин" <belkinmail@yandex.ru>
To: gentoo-user-ru@lists.gentoo.org
Subject: Re: [gentoo-user-ru] Kernel Panic  при высокой сетевой загрузке
Date: Fri, 27 Feb 2009 01:22:37 +0400	[thread overview]
Message-ID: <200902270122.38113.belkinmail@yandex.ru> (raw)
In-Reply-To: <616168865.20090226232058@astafjev.com>

[-- Attachment #1: Type: text/plain, Size: 2284 bytes --]

On Пятница 27 февраля 2009 01:20:58 Konstantin Astafjev wrote:
> Приветствую!
>
> Вероятнее всего эта проблема не относится напрямую к Gentoo, но я
> хотел бы сначала попросить совета у единственного известного мне
> русскоязычного комьюнити. :)
>
> Есть несколько маршрутизаторов на базе Intel Serverboard Aspen 3000AH,
> основной функцией которых является шейпинг. Дерево HTB имеет не более
> 2 тысяч классов. Для фильтров используются hash tables. При суммарной
> загрузке свыше 400 Mbps машинка начинает случайным образом
> поругиваться и убивать процессы. В конечном итоге это всё приводит к
> kernel panic. Пример ругани привожу в приложенном текстовом файле.
> wr-up в примере это скрипт, который посредством запуска tc формиурет
> классы и фильтры для шейпера. В данном случае он спровоцировал
> убийство других процессов, но реально даже если ничего не делать
> начинается: swapper: page allocation failure. order:0, mode:0x20
> Налицо проблема в том, что кому-то не хватает памяти, судя по top'у
> свободная память есть. На более сложные проверки у меня не хватает
> знаний.
>
> ~ # top
> top - 22:49:11 up 3 days,  3:06,  1 user,  load average: 0.06, 0.06, 0.01
> Tasks:  85 total,   1 running,  84 sleeping,   0 stopped,   0 zombie
> Cpu(s):  0.1%us,  0.1%sy,  0.0%ni, 92.2%id,  0.1%wa,  1.3%hi,  6.1%si, 
> 0.0%st Mem:   4148644k total,   832628k used,  3316016k free,      852k
> buffers Swap:  4000056k total,      160k used,  3999896k free,    13100k
> cached
>
> Чем больше трафик - тем выше вероятность ошибки. Иногда проходит 3
> дня, а иногда достаточно и 5 минут. Вариант сбойного железа исключаю,
> так как машинка не одна и на всех наблюдаются одинаковые симптомы тест
> и проверку памяти они проходят исправно. Версии ядра менял начиная с
> 2.6.20, сейчас стоит 2.6.25-hardened-r10. Использование не hardened, а
> gentoo ядра не помогло. Для сетевых интерфейсов использую модули e1000
> и e1000e. Кажется в модуле e1000e видел совет увеличить значение
> vm.min_free_kbytes. Увеличил до 65536, но в моём случае не помогло.
>
> Может быть кто-нибудь сталкивался с такой проблемой и/или знает её
> решение? В крайнем случае, подскажите как правильно дебагить такую
> проблему и куда лучше обратиться. Спасибо.
Ого, русская рассылка живая О_о

Простите за оффтоп)

[-- Attachment #2: Type: text/html, Size: 3066 bytes --]

  reply	other threads:[~2009-02-26 21:23 UTC|newest]

Thread overview: 5+ messages / expand[flat|nested]  mbox.gz  Atom feed  top
2009-02-26 21:20 [gentoo-user-ru] Kernel Panic при высокой сетевой загрузке Konstantin Astafjev
2009-02-26 21:22 ` Алексей Белкин [this message]
2009-02-27 15:40 ` [gentoo-user-ru] " alexey conovalov
2009-02-28 12:12 ` Peter Volkov
2009-02-28 12:34   ` Dmitry Pisarev

Reply instructions:

You may reply publicly to this message via plain-text email
using any one of the following methods:

* Save the following mbox file, import it into your mail client,
  and reply-to-all from there: mbox

  Avoid top-posting and favor interleaved quoting:
  https://en.wikipedia.org/wiki/Posting_style#Interleaved_style

* Reply using the --to, --cc, and --in-reply-to
  switches of git-send-email(1):

  git send-email \
    --in-reply-to=200902270122.38113.belkinmail@yandex.ru \
    --to=belkinmail@yandex.ru \
    --cc=gentoo-user-ru@lists.gentoo.org \
    /path/to/YOUR_REPLY

  https://kernel.org/pub/software/scm/git/docs/git-send-email.html

* If your mail client supports setting the In-Reply-To header
  via mailto: links, try the mailto: link
Be sure your reply has a Subject: header at the top and a blank line before the message body.
This is a public inbox, see mirroring instructions
for how to clone and mirror all data and code used for this inbox