Como determinar a causa da falha do sistema?


10

Meu servidor trava uma vez por semana e não deixa nenhum tipo de pista sobre o que está causando isso. Eu verifiquei /var/log/messagese ele pára de gravar em algum momento e começa nas informações de publicação do computador quando eu faço uma reinicialização completa.

Existe algo que eu possa verificar ou software que eu possa instalar que possa determinar a causa?

Estou executando o CentOS 7.

Aqui está o único erro / problema no meu /var/log/dmesg: https://paste.netcoding.net/cosisiloji.log

[    3.606936] md: Waiting for all devices to be available before autodetect
[    3.606984] md: If you don't use raid, use raid=noautodetect
[    3.607085] md: Autodetecting RAID arrays.
[    3.608309] md: Scanned 6 and added 6 devices.
[    3.608362] md: autorun ...
[    3.608412] md: considering sdc2 ...
[    3.608464] md:  adding sdc2 ...
[    3.608516] md: sdc1 has different UUID to sdc2
[    3.608570] md:  adding sdb2 ...
[    3.608620] md: sdb1 has different UUID to sdc2
[    3.608674] md:  adding sda2 ...
[    3.608726] md: sda1 has different UUID to sdc2
[    3.608944] md: created md2
[    3.608997] md: bind<sda2>
[    3.609058] md: bind<sdb2>
[    3.609116] md: bind<sdc2>
[    3.609175] md: running: <sdc2><sdb2><sda2>
[    3.609548] md/raid1:md2: active with 3 out of 3 mirrors
[    3.609623] md2: detected capacity change from 0 to 98520989696
[    3.609685] md: considering sdc1 ...
[    3.609737] md:  adding sdc1 ...
[    3.609789] md:  adding sdb1 ...
[    3.609841] md:  adding sda1 ...
[    3.610005] md: created md1
[    3.610055] md: bind<sda1>
[    3.610117] md: bind<sdb1>
[    3.610175] md: bind<sdc1>
[    3.610233] md: running: <sdc1><sdb1><sda1>
[    3.610714] md/raid1:md1: not clean -- starting background reconstruction
[    3.610773] md/raid1:md1: active with 3 out of 3 mirrors
[    3.610854] md1: detected capacity change from 0 to 20970405888
[    3.610917] md: ... autorun DONE.
[    3.610999] md: resync of RAID array md1
[    3.611054] md: minimum _guaranteed_  speed: 1000 KB/sec/disk.
[    3.611119] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for resync.
[    3.611180] md: using 128k window, over a total of 20478912k.
[    3.611244]  md1: unknown partition table
[    3.624786] EXT3-fs (md1): error: couldn't mount because of unsupported optional features (240)
[    3.627095] EXT2-fs (md1): error: couldn't mount because of unsupported optional features (244)
[    3.630284] EXT4-fs (md1): INFO: recovery required on readonly filesystem
[    3.630341] EXT4-fs (md1): write access will be enabled during recovery
[    3.819411] EXT4-fs (md1): orphan cleanup on readonly fs
[    3.836922] EXT4-fs (md1): 24 orphan inodes deleted
[    3.836975] EXT4-fs (md1): recovery complete
[    3.840557] EXT4-fs (md1): mounted filesystem with ordered data mode. Opts: (null)

Respostas:


5

Você pode verificar o arquivo dmesg em /var/log/dmesg, que está registrando as mensagens do kernel. O log de mensagens é apenas o log de mensagens de serviço e aplicativo e, se houver um erro no kernel, os serviços e aplicativos pararão de ser executados, mas o erro no kernel ainda será registrado no dmesg.


Eu verifiquei dmesg e dmesg.old, ambos contêm apenas as informações de inicialização (cerca de 4,8 segundos). O único "problema" que vejo é o disco de inicialização ou as unidades RAID parecem ter algo errado, mas o sistema corrige e funciona independentemente. Verifique a postagem principal para obter o link.
Brian Graham

5

Se você crashkernel/kdumpinstalou e ativou, poderá examinar o kernel travado com relativa facilidade usando o crashutilitário. Por exemplo, presumindo que você tenha travado os despejos do kernel são salvos em /var/crash: crash /var/crash/2009-07-17-10\:36/vmcore /usr/lib/debug/lib/modules/uname -r /vmlinux.

Dê uma olhada aqui e aqui para obter detalhes adicionais.


Consertei o /dev/md1 not founderro ao executar, grub2-probeinstalei e configurei o crashkernel / kdump e relatarei se / quando ele travar novamente.
Brian Graham

2
  • teste de memória do BIOS
  • teste do disco rígido do bios
  • Verifique o log da unidade inteligente smartctl /dev/sda -a
  • Testes de drive inteligente
  • deixe dmesg -wHcorrer em uma janela

Eu executei testes de unidade inteligente em todas as 3 unidades, eles não estão corrompidos. Estou dmesg -wHexecutando em uma janela (presumo que ela trava novamente; e ainda é possível ler a saída após a falha do SSH). Não tenho acesso físico à máquina. Peço ao meu host que execute os testes de memória do BIOS e de disco rígido?
Brian Graham
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.