Aufgrund Genöle Zertifikate Wiki & HipChat erneuert und Host durchgepatcht.
Auf Des2 Bind neu gestartet, weil der abgestürzt war.
-
bird, bird6 und bind haben jetzt den Systemd-Zusatz
Restart=on-failure
bird{6,} hatte vorher on-abort. Hab ein wenig dazu gegoogelt. Scheinbar würde on-abort das Ding sogar neu starten, wenn man das per Hand abschießt. Das wäre dann doch etwas zu viel des Guten.
Auf Parad0x ausgerollt. Wenn es sich bewährt, kann man die anderen nachziehen. Ist natürlich auch im Ansible drin: https://github.com/FreiFunkMuenster/Ansible-Freifunk-Gateway/commit/734749f605ea2419538805b35619c1c559a9342b
des1 geholfen neu zu starten (mal wieder hing eine vm beim abreißen der interfaces, wir müssen uns das echt mal anschauen)
HTTPS Redirect auf dem Firmware-Server wieder deaktiviert because of weil:
Ansible rolle muss ich noch anpassen…
bei Remü-09 das Knöpfchen gedrückt… Interfaces…
edit: collectd auf der Kiste auch nochmal n tritt verpasst…
Hostsystem für Webseite / ServiceVM war heute wiedre aus.
Server getreten, Dienste sind wieder online.
Hypervisor und Gateway Parad0x haben Updates erhalten und wurden gehärtet. Durch Neustarts waren knapp 10 Minuten DHCP und andere Dienste down. Sorry. Das nächste mal nehme ich wieder eine bessere Uhrzeit.
Nightbounce aktualisiert und neu gestartet.
Inventur zum Stand der Patches gemacht und im Separee verteilt. Darüber müssen wir noch reden.
- remue-ansible VM upgrdatet und neu gestartet.
- backup VM upgadatet und neu gestartet.
- Ticketsystem VM upgadatet und neu gestartet.
- Mailserver VM upgadatet und neu gestartet.
- Firmware VM upgedatet. Neustart heute um 23:00 Uhr.
- Karten VM upgedatet. Neustart heute um 23:00 Uhr.
- KEA auf Handle neu gestartet.
forum aktualisiert & rebööt.
opendkim auf dem Mailserver neu gestartet.
same shit different day…
Hab dem carbon-cache auf der Service VM mal in den … getreten…
Nach mehreren Ausfällen von WebServer und Service VM laufen beide Maschinen jetzt wieder stabil.
Ursache war ein defekter CPU Kühler im Server.
Collectd auf Remü-09 hatte sich aufgrund von Sehnsucht zur Service VM das leben genommen… Wiederbelebt…
py-respondd auf Des1 neu gestartet.
May 20 00:09:15 des1 kernel: [204481.190084] python3[8577]: segfault at 7f2dde6b0f58 ip 00000000005a0670 sp 00007fffd151f800 error 4 in python3.4[400000+3b2000]
May 20 00:09:15 des1 systemd[1]: py-respondd.service: main process exited, code=killed, status=11/SEGV
May 20 00:09:15 des1 systemd[1]: Unit py-respondd.service entered failed state.
dabei das hier gefunden.
May 20 02:15:22 des1 kernel: [212048.627840] named[8604]: segfault at 48 ip 00007fa35fa04d6b sp 00007fa35ba59df0 error 6 in libdns.so.100.2.2[7fa35f96a000+1d3000]
May 20 02:15:41 des1 systemd[1]: bind9.service: main process exited, code=killed, status=11/SEGV
May 20 02:15:41 des1 rndc[20009]: rndc: connect failed: 127.0.0.1#953: connection refused
May 20 02:15:41 des1 systemd[1]: bind9.service: control process exited, code=exited status=1
May 20 02:15:41 des1 systemd[1]: Unit bind9.service entered failed state.
und bind auch neu gestartet…
Und dann weil’s so schön war auf Des2 den KEA der nach dem Reboot nicht wollte auch nochmal neu gestartet…
Heut is der Wurm drin
Bind auf des1 ist vorhin schon wieder mit einem SEGFAULT stehen geblieben… Neu gestartet…