public inbox for gentoo-user-de@lists.gentoo.org
 help / color / mirror / Atom feed
* [gentoo-user-de] Grund für hohen IO Wait rausbekommen
@ 2007-06-27 13:38 support
  2007-06-27 16:02 ` gentoo
                   ` (2 more replies)
  0 siblings, 3 replies; 7+ messages in thread
From: support @ 2007-06-27 13:38 UTC (permalink / raw
  To: gentoo-user-de

Hallo,

wir haben folgendes Setup:
Ein Rechner (Dual Xeon mit 4GB Ram) hängt via Fibre Channel an einem SAN
Ein zweiter identischer Rechner hängt via NFS an Rechner ein. Anbindung
über eine dedizierte 1GB Schnittstelle


Nun haben wir Rechner 1 teilweise eine hohe Last von > 3, obwohl (noch)
kaum Traffic drauf ist (das sind unsere Webserver). Ich schaue mir Top an
und sehe:

top - 15:35:38 up 144 days, 22:41,  1 user,  load average: 3.54, 2.75, 2.34
Tasks: 115 total,   1 running, 114 sleeping,   0 stopped,   0 zombie
Cpu0  :  1.3%us,  1.3%sy,  0.0%ni,  2.7%id, 94.0%wa,  0.0%hi,  0.7%si, 
0.0%st
Cpu1  : 21.7%us,  1.3%sy,  0.0%ni, 75.3%id,  1.7%wa,  0.0%hi,  0.0%si, 
0.0%st


Oha, IO Wait ist aber groß. Gibt es nun einen Weg zu erkennen, was den
Wait so hoch treibt ?

Schon mal Danke
Stonki


-- 
gentoo-user-de@gentoo.org mailing list



^ permalink raw reply	[flat|nested] 7+ messages in thread

* Re: [gentoo-user-de] Grund für hohen IO Wait rausbekommen
  2007-06-27 13:38 [gentoo-user-de] Grund für hohen IO Wait rausbekommen support
@ 2007-06-27 16:02 ` gentoo
  2007-06-27 20:14   ` Stefan Onken
  2007-06-27 16:03 ` Hans-Werner Hilse
  2007-06-27 16:18 ` Bernd Wurst
  2 siblings, 1 reply; 7+ messages in thread
From: gentoo @ 2007-06-27 16:02 UTC (permalink / raw
  To: gentoo-user-de

Hallo!

Check mal die Schreib-/Leseperformance bei den betroffenen Stellen. 
Wahrscheinlich braucht schon ein ls ewig? Wenn ein Verzeichnis auf mehrere 
Webserver exportiert wird, dann entsteht schnell ein Flaschenhals durch die 
Zugriffszeiten der Festplatten. Falls das bei Dir der Fall ist, kann es 
helfen, RAM aufzurüsten (hängt von Menge und Art der Daten ab) und ein Raid 
aus vielen _schnellen_ Platten zu benutzen, auch wenn die kleiner sind. 
Wenn auch viele Schreibzugriffe gemacht werden und die Systeme 
ausfallsicher 'genug' sind ;-) kann es einen sehr großen 
Geschwindigkeitszuwachs bringen, NFS von sync auf async umzustellen.

Am Mittwoch, 27. Juni 2007 15:38 schrieb support@stonki.de:
> Hallo,
>
> wir haben folgendes Setup:
> Ein Rechner (Dual Xeon mit 4GB Ram) hängt via Fibre Channel an einem SAN
> Ein zweiter identischer Rechner hängt via NFS an Rechner ein. Anbindung
> über eine dedizierte 1GB Schnittstelle
>
>
> Nun haben wir Rechner 1 teilweise eine hohe Last von > 3, obwohl (noch)
> kaum Traffic drauf ist (das sind unsere Webserver). Ich schaue mir Top an
> und sehe:
>
> top - 15:35:38 up 144 days, 22:41,  1 user,  load average: 3.54, 2.75, 2.34
> Tasks: 115 total,   1 running, 114 sleeping,   0 stopped,   0 zombie
> Cpu0  :  1.3%us,  1.3%sy,  0.0%ni,  2.7%id, 94.0%wa,  0.0%hi,  0.7%si,
> 0.0%st
> Cpu1  : 21.7%us,  1.3%sy,  0.0%ni, 75.3%id,  1.7%wa,  0.0%hi,  0.0%si,
> 0.0%st
>
>
> Oha, IO Wait ist aber groß. Gibt es nun einen Weg zu erkennen, was den
> Wait so hoch treibt ?
>
> Schon mal Danke
> Stonki
--
gentoo-user-de@gentoo.org mailing list



^ permalink raw reply	[flat|nested] 7+ messages in thread

* Re: [gentoo-user-de] Grund für hohen IO Wait rausbekommen
  2007-06-27 13:38 [gentoo-user-de] Grund für hohen IO Wait rausbekommen support
  2007-06-27 16:02 ` gentoo
@ 2007-06-27 16:03 ` Hans-Werner Hilse
  2007-06-27 20:28   ` Stefan Onken
  2007-06-27 16:18 ` Bernd Wurst
  2 siblings, 1 reply; 7+ messages in thread
From: Hans-Werner Hilse @ 2007-06-27 16:03 UTC (permalink / raw
  To: gentoo-user-de

Hi,

On Wed, 27 Jun 2007 15:38:20 +0200 (CEST)
support@stonki.de wrote:

> Nun haben wir Rechner 1 teilweise eine hohe Last von > 3, obwohl (noch)
> kaum Traffic drauf ist (das sind unsere Webserver). Ich schaue mir Top an
> und sehe:
> [...]
> Oha, IO Wait ist aber groß. Gibt es nun einen Weg zu erkennen, was den
> Wait so hoch treibt ?

Nicht so ganz einfach. Mit einem kgdb-Kernel und etwas Geduld beim
debugging -- möglicherweise. Aber was ist denn mit den
Standard-Geschichten, wie sieht z.B. /proc/interrupts aus? Sonst
irgendwelche Infos in den Kernel-Logs?

-hwh
--
gentoo-user-de@gentoo.org mailing list



^ permalink raw reply	[flat|nested] 7+ messages in thread

* Re: [gentoo-user-de] Grund für hohen IO Wait rausbekommen
  2007-06-27 13:38 [gentoo-user-de] Grund für hohen IO Wait rausbekommen support
  2007-06-27 16:02 ` gentoo
  2007-06-27 16:03 ` Hans-Werner Hilse
@ 2007-06-27 16:18 ` Bernd Wurst
  2 siblings, 0 replies; 7+ messages in thread
From: Bernd Wurst @ 2007-06-27 16:18 UTC (permalink / raw
  To: gentoo-user-de

[-- Attachment #1: Type: text/plain, Size: 634 bytes --]

Hallo.

Am Mittwoch, 27. Juni 2007 schrieb support@stonki.de:
> Oha, IO Wait ist aber groß. Gibt es nun einen Weg zu erkennen, was den
> Wait so hoch treibt ?

Für lokale Festplatten würde ich da zu iostat (aus dem Paket 
app-admin/sysstat) raten. Wie du allerdings Fibre-Channel-Devices ansprichst 
und ob das da auch geht, kann ich dank schmalem Geldbeutel und damit 
verbundenem Nichtvorhandensein von Fibre-Channel-Devices nicht 
beantworten. :-)

cu, Bernd

-- 
Die Menschen glauben viel leichter eine Lüge, die sie schon
hundertmal gehört haben, als eine Wahrheit, die ihnen völlig neu ist.
  -  Alfred Polgar

[-- Attachment #2: This is a digitally signed message part. --]
[-- Type: application/pgp-signature, Size: 827 bytes --]

^ permalink raw reply	[flat|nested] 7+ messages in thread

* Re: [gentoo-user-de] Grund für hohen IO Wait rausbekommen
  2007-06-27 16:02 ` gentoo
@ 2007-06-27 20:14   ` Stefan Onken
  0 siblings, 0 replies; 7+ messages in thread
From: Stefan Onken @ 2007-06-27 20:14 UTC (permalink / raw
  To: gentoo-user-de

Am Mittwoch, 27. Juni 2007 schrieb gentoo@gunter.de:

> aufzurüsten (hängt von Menge und Art der Daten ab) und ein Raid
> aus vielen _schnellen_ Platten zu benutzen, auch wenn die kleiner
> sind. Wenn auch viele Schreibzugriffe gemacht werden und die
> Systeme ausfallsicher 'genug' sind ;-) kann es einen sehr großen
> Geschwindigkeitszuwachs bringen, NFS von sync auf async
> umzustellen.

das hört sich interessant an (mit dem async), aber was mich wundert 
ist, daß der NFS Server die hohe IO Wait hat - nicht der NFS 
Client. Trotzdem async ?

cu
stonki

-- 
www.stonki.de:    the more I see, the more I know.......
www.proftpd.de:   Deutsche ProFTPD Dokumentation
www.krename.net:  Der Batch Renamer für KDE
www.kbarcode.net: Die Barcode Solution für KDE
--
gentoo-user-de@gentoo.org mailing list



^ permalink raw reply	[flat|nested] 7+ messages in thread

* Re: [gentoo-user-de] Grund für hohen IO Wait rausbekommen
  2007-06-27 16:03 ` Hans-Werner Hilse
@ 2007-06-27 20:28   ` Stefan Onken
  2007-06-28 16:20     ` Hans-Werner Hilse
  0 siblings, 1 reply; 7+ messages in thread
From: Stefan Onken @ 2007-06-27 20:28 UTC (permalink / raw
  To: gentoo-user-de

Am Mittwoch, 27. Juni 2007 schrieb Hans-Werner Hilse:

> Nicht so ganz einfach. Mit einem kgdb-Kernel und etwas Geduld
> beim debugging -- möglicherweise. Aber was ist denn mit den
> Standard-Geschichten, wie sieht z.B. /proc/interrupts aus? Sonst
> irgendwelche Infos in den Kernel-Logs?

also die logs meckern nichts. Die Interrrups von dem Server mit der 
hohen Load:

mike01:/home/onken # cat /proc/interrupts
           CPU0       CPU1
  0: 3136805453          0    IO-APIC-edge  timer
  1:       4882          0    IO-APIC-edge  i8042
  8:          0          0    IO-APIC-edge  rtc
  9:          0          0   IO-APIC-level  acpi
 12:        868          0    IO-APIC-edge  i8042
 14:   60163282          0    IO-APIC-edge  libata
 15:          0          0    IO-APIC-edge  libata
169:  974461467          0   IO-APIC-level  uhci_hcd:usb2, eth0, 
eth1
177:   79503349          0   IO-APIC-level  ioc0
185:   39776132          0   IO-APIC-level  qla2xxx
193:          0          0   IO-APIC-level  ehci_hcd:usb1
201:          0          0   IO-APIC-level  uhci_hcd:usb3
NMI:    2462166    2462145
LOC: 3136708659 3136708821
ERR:          1
MIS:          0

zum Vergleich der andere:
mike2:/home/onken # cat /proc/interrupts
           CPU0       CPU1
  0: 1662751809          0    IO-APIC-edge  timer
  1:       3234          0    IO-APIC-edge  i8042
  8:          0          0    IO-APIC-edge  rtc
  9:          0          0   IO-APIC-level  acpi
 12:       1028          0    IO-APIC-edge  i8042
 14:   18548472          0    IO-APIC-edge  libata
 15:          0          0    IO-APIC-edge  libata
169:  619769869          0   IO-APIC-level  uhci_hcd:usb2, eth0, 
eth1
177:   38337969          0   IO-APIC-level  ioc0
185:        734          0   IO-APIC-level  qla2xxx
193:          0          0   IO-APIC-level  ehci_hcd:usb1
201:          0          0   IO-APIC-level  uhci_hcd:usb3
NMI:    1021907    1021886
LOC: 1662650777 1662650746
ERR:          1
MIS:

mike01 ist der NFS Server, der das SAN per NFS dem Mike2 
bereitstellt.
        
-- 
www.stonki.de:    the more I see, the more I know.......
www.proftpd.de:   Deutsche ProFTPD Dokumentation
www.krename.net:  Der Batch Renamer für KDE
www.kbarcode.net: Die Barcode Solution für KDE
--
gentoo-user-de@gentoo.org mailing list



^ permalink raw reply	[flat|nested] 7+ messages in thread

* Re: [gentoo-user-de] Grund für hohen IO Wait rausbekommen
  2007-06-27 20:28   ` Stefan Onken
@ 2007-06-28 16:20     ` Hans-Werner Hilse
  0 siblings, 0 replies; 7+ messages in thread
From: Hans-Werner Hilse @ 2007-06-28 16:20 UTC (permalink / raw
  To: gentoo-user-de

Hi,

On Wed, 27 Jun 2007 22:28:12 +0200 Stefan Onken <Support@stonki.de>
wrote:

> also die logs meckern nichts. Die Interrrups von dem Server mit der 
> hohen Load:
> 
> mike01:/home/onken # cat /proc/interrupts
>            CPU0       CPU1
>   0: 3136805453          0    IO-APIC-edge  timer
> [...]
> 169:  974461467          0   IO-APIC-level  uhci_hcd:usb2, eth0, 
> eth1
> 177:   79503349          0   IO-APIC-level  ioc0
> 185:   39776132          0   IO-APIC-level  qla2xxx

Also richtig überlastet war das System aber nie. Sonst hätte die CPU1
sich auch um ein paar Interrupts gekümmert -- jedenfalls sollte sie
damit anfangen, wenn der IRQ-Balancer sauber arbeitet. Vielleicht magst
du zum Testen ja wirklich mal mit den (IO-)APIC-Einstellungen
(Kernel-Konfiguration und Kernel-Parameter) herumspielen...

> NMI:    2462166    2462145

Das ist glaube ich hingegen normal...

> ERR:          1

...und das kann schon mal vorkommen.

Interessantes in den Logs findest du wenn überhaupt auch nur im extrem
frühen Bootvorgang, also dort, wo die CPUs erkannt werden und das
Interrupt-Management angeworfen wird. Vielleicht hast du ja Lust, mal
ein Boot-Log irgendwo auf Webspace für ein, zwei Tage online zu stellen?

Ansonsten scheint das Netzwerkinterface ja wirklich höchst intensiv
beschäftigt zu sein. Wenn die Verbindung zum NFS-Client dazu taugt,
vielleicht mal die Netzwerkpaketgröße 'raufschrauben, also die MTU auf
beiden Seiten ordentlich 'raufsetzen. Macht natürlich keinen Sinn,
falls ein Switch o.ä. zwischendurch die dann wieder die Pakete verwirft.

-hwh
--
gentoo-user-de@gentoo.org mailing list



^ permalink raw reply	[flat|nested] 7+ messages in thread

end of thread, other threads:[~2007-06-28 16:26 UTC | newest]

Thread overview: 7+ messages (download: mbox.gz follow: Atom feed
-- links below jump to the message on this page --
2007-06-27 13:38 [gentoo-user-de] Grund für hohen IO Wait rausbekommen support
2007-06-27 16:02 ` gentoo
2007-06-27 20:14   ` Stefan Onken
2007-06-27 16:03 ` Hans-Werner Hilse
2007-06-27 20:28   ` Stefan Onken
2007-06-28 16:20     ` Hans-Werner Hilse
2007-06-27 16:18 ` Bernd Wurst

This is a public inbox, see mirroring instructions
for how to clone and mirror all data and code used for this inbox