Weil wir sonst nichts zu tun haben verschieben wir den Freifunk Webserver woanders hin. Falls was nicht geht bitten wir um Kommentare. Falls die Kommentarfunktion nicht geht bitten wir um Rauchzeichen.
Danke für die Beachtung aller Sicherheitsmassnahmen.
Uns erreichte folgender Hilferuf vom Freifunk Rheinland über den wir unseren Traffic routen.
Liebe Backbone-User,
der Vorstand musste leider mit Bedauern feststellen, daß das Spenden- und
in diesem Beitragsjahr (bis 1.3.2022) voraussichtlich zu gering ausfallen und nach aktueller Sachlage wohl ein Fehlbetrag von ca. 5.000€ im laufenden Jahr entstehen wird, wenn keine Einsparungen (spätestens. ab Oktober) erfolgen werden.Das Backbone-Projekt erzeugt aktuell über Ripe-Mitgliedschaft, Colocation (Höheneinheiten, Strom) und Crossconnects monatliche Kosten um 1.000€ im Monat. Auf ca. 750 TB Traffic summiert aus Ingress+Egress ergibt das eine Quote von ca. 1,30€ brutto an harten Kosten pro TB Traffic, die aus Vereinsmitteln bestritten werden müssen. Dazu kämen, wenn diese Kosten nicht bereits über unsere Sponsoren abgefangen würden, weitere Kosten für den Transit im 5-stelligen Bereich.
https://www.betterplace.org/de/donate/platform/projects/16049?need_id=344190
This blog is moving over to www.soundbarrier.io. That is all.
Querdenker-Kundgebung in Stuttgart Alle sind empört, niemand ist verantwortlich
Das Problem ist doch nicht, dass Kommunen weiterhin dem Recht auf Versammlungsfreiheit einen hohen Wert einräumen. Das ist absolut richtig und mit Auflagen kann man ja durchaus steuern, was möglich ist ("Masken tragen", "Abstand halten"). Das Problem ist eine Polizei, die nicht gewillt ist geltendes Recht gegen sog. "Querdenker" und andere Rechte durchzusetzen.
Da lese ich dann immer, das wäre ja nicht machbar, weil man dann ja Gewalt hätte anwenden müssen (gegen Linke wird das sonst immer euphemistischer "unmittelbarer Zwang" genannt, damit das nicht so fies klingt).
Bei der Welcome to Hell Demo zum G20 Gipfel in Hamburg hat die Polizei äußerst gewalttätig ca. 12000 friedlichen Demonstrierenden das Grundrecht auf Versammlungsfreiheit verwehrt, weil ca. 1000 Menschen in dem Aufzug vermummt waren. Ganz zu schweigen davon, dass am Tag zuvor ein Protestcamp von der Polizei geräumt wurde, in Kenntniss eines Gerichtsbeschlusses, der das Camp zu dem Zeitpunkt für rechtmäßig erklärt hat 1. Aber da waren natürlich auch keine Reichskriegsflaggen zu sehen.
Ich könnte kotzen wenn ich lese in welchem Maß die deutsche Polizei den Rechtsstaat mit Füßen tritt und dabei noch so tut, als wäre sie hier das Opfer und dann auch bei Kritik aus der Zivilgesellschaft von Politikern und insbesondere Innenministern regelmäßig den Hintern geküsst bekommt.
Ja, der Beschluß wurde am folgenden Tag von der nächsten Instanz gekippt. Aber zum Zeitpunkt der Räumung hatte er Bestand. ↩
Die oben genannte Fritzbox erfreut sich offenbar ziemlicher Beliebtheit. Und das Land Niedersachsen hat in der letzten Freifunk Förderrunde eben diese roten Boxen im Angebot gehabt. Jedenfalls wurden wir in den letzten Wochen immer wieder gefragt, wie man die Installiert und warum das Mesh nicht geht.
Die wird nämlich ganz anders installiert als wir es von den gewohnten TP-Links kennen. Die Anleitung dazu steht hier: https://fritz-tools.readthedocs.io/en/latest/
Wichtige Ergänzung für die Anleitung: Nimm für das Flashen der Fritzbox die Firmware aus dem Ordner “other” (nicht sysupgrade). Zum Zeitpunkt dieses Blogeintrags liegt sie hier: https://cccgoe.de/freifunk/experimental/other/
Und Mesh kann die im Göttinger Freifunk Netz noch nicht. Das liegt daran, dass sie anders als die gewohnten Geräte nicht Access-Point sein kann und gleichzeitig Ad-Hoc Verbindungen aufbauen kann. Was sie braucht um Mesh zu unterstützen nennt sich 802.11s und Freifunk Netze, die in den letzten Jahren auch grössere Techniksprünge mitgemacht haben, können das. Wir waren aber im Winterschlaf. Wir sprechen hier vom mehrjährigen Winterschlaf, und ohne Unterbrechungen durch überbewertete andere Möchte-Gern-Jahreszeiten.
Ich glaube, dass wir diese Dinge früher oder später noch einführen werden, im Moment kommt ja wieder ein bisschen Schwung in die Sache. Vor allem ist das grade sichtbar geworden, als n0emis die seit Monaten kaputte Karte nicht nur repariert, sondern auf aktuelle Software und in eine neue VM gebracht hat. Danke!!
Hallo da der letzte Post schon wieder ein Jahr her ist, wird es Zeit sich mal wieder zu melden.
Wie einige schon mitbekommen haben ist die Karte kaputt. Diese wird repariert wenn die neue Firmware draußen ist. Und genau hier muss einiges gemacht werden. Es stehen ein Wechsel des Mesh-Protokolls an und das Routing-Protokoll ist auch in die Jahre gekommen. Die neue Firmware unterstützt nicht mehr die alten Protokolle. Daher wird nicht nur neue Firmware gebaut, es müssen auch neue Supernodes aufgesetzt werden.
Es wird im Hintergrund fleißig gewerkelt.
...am 17.11.1989 blieb Cornelia "Conny" Wessmann, die sich mit anderen in die Göttinger Innenstadt begeben hatte, um gegen Neonazis Präsenz zu zeigen nach einem Polizeieinsatz tot auf der Straße liegen.
Der Rote Faden – 17.11.2020 – 31 Todestag von Conny Wessmann
Berichte, Flugblätter zum 17.11.1989
In unserem Experimentalverzeichnis liegt die neueste und finale Version von Gluon 2018. Danach geht’s mit 2019 weiter und das Update wird dann etwas abenteuerlicher. Aber erstmal müssen wir die 2018.2.4 alias 0.10.6 ausprobieren und evtl. sogar bis zu stable hochziehen.
Bitte ausprobieren. Danke :-)
Hier die Neuerungen
https://gluon.readthedocs.io/en/v2019.1.x/releases/v2018.2.3.html
https://gluon.readthedocs.io/en/v2019.1.x/releases/v2018.2.4.html
Hier der Download
Eine neue experimentelle Firmware 0.10.3 (gluon 2018.2) ist fertig und bereit zum testen.
Sie ist zu finden unter https://cccgoe.de/freifunk/experimental
Die Knotenposition kann man jetzt direkt bei der Installation in einer Map auswählen
Wenn ein Knoten mal keine Verbindung zum Internet hat wechselt er die SSID in FFGOffline_$nodename
In der ersten Runde haben wir das Netz von 0.8.7 auf 0.9.3 und 0.10.1 (die experimental Nodes) angehoben:
Das ist nebenbei auch immer ein schöner Test, wieviele Nodes tatsächlich aktiv sind.die 72 verbliebenen sind zumindest in den letzten Wochen nicht online gewesen.
Wir starten heute das Update auf 0.10.1 auf den Beta-Nodes und wenn dabei keine Probleme auftreten bekommen das alle anderen auch.
Unser Göttinger Freifunk-Netz verwendet (Stand Oktober 2018, mit sehr wenigen Ausnahmen) zwei Firmware-Versionen:
Die Betaversion sollte eigentlich auch mal zur stable werden, aber das Projekt haben wir einschlafen lassen. Wir sehen sie daher nur auf Nodes, die von der stable Version nicht unterstützt werden.
Durch unsere Faulheit haben wir zwar ein sehr stabiles Netz, das wenig durch mit Technik spielende Administratoren belästigt wird, aber die Bitten um neuere Firmware zwecks Einsatz neuerer Hardware werden häufiger.
Das Netz produziert (leider) immer noch immer mehr Traffic, obwohl die Anzahl der Nodes ziemlich stabil um die 800 schwankt. Damit sind wir gerade noch in der Lage weiterzumachen, ohne den großen Aufwand einer Aufteilung des Netzes durchführen zu müssen.
Das Wachstum des Netzes über die problematische Grenze hinaus haben wir halbwegs erfolgreich gebremst, in dem wir z.B. Werbemaßnahmen eingestellt haben und befreundete Freifunk-Projekte im Landkreis ermuntert haben, anstatt das Göttinger Netz immer größer zu machen, eigenständige Netze aufzubauen. Die besten Beispiele sind die großen Projekte in Hann-Münden und Einbeck. Von der Anzahl der Nodes her wäre das ganz offensichtlich auch in Osterode und Duderstadt denkbar.
Und seit Abschaffung der Störerhaftung beraten wir Interessenten, die dafür in Frage kommen, immer in die Richtung, doch einfach ein offenes WLAN bereitzustellen, und das gerne auch “Freifunk” zu nennen.
Dennoch ist unser letztes Firmware-Update lange her und die Router-Hersteller nehmen bewährte Hardware vom Markt um immer neue hinterherzuschieben. Die Schornsteine müssen rauchen. Also dann…
Das Gluon-Team hat Updates herausgebracht, mit 29 (!) neuen Hardware Plattformen. Das Update erfolgt in zwei Schritten, weil die TP-Link CPE 210/510 für den Sprung auf die aktuellste Version eine Zwischenversion benötigen.
In den nächsten Wochen werdet Ihr daher zwei Upgrades erleben:
Wer einen VPN-Beschleuniger einsetzt, lese bitte baldmöglichst:
https://gluon.readthedocs.io/en/v2018.1.x/releases/v2017.1.htm
Die allermeisten von Euch haben ihre Freifunk-Router auf “stable” und “autoupdate” stehen und müssen daher nichts machen. Alle anderen sollten die neuen Firmwareversionen von Hand einspielen (oder die Router umstellen).
Wir haben Euch die neuen Plattformen aus den Release-Notes zusammengeschrieben. Neben sehr vielen, teilweise sicherheitsrelevanten Bugfixes wird wie gesagt, ganz viel neue Hardware unterstützt.
Drückt uns allen die Daumen
Eure Göttinger Freifunker
(Gluon 2016.2.6)
ar71xx-generic
(Gluon 2017.1)
ar71xx-generic
ar71xx-tiny
x86-generic
The x86-kvm and x86-xen_domu targets have been removed; the x86-generic images now support these usecases as well, so no separate targets are needed anymore.
x86-geode
The new x86-geode target for hardware based on Geode CPUs has been added.
(Gluon 2017.1.4)
ar71xx-generic
(Gluon 2017.1.5)
ar71xx-generic
ramips-mt7621
(Gluon 2017.1.8)
ar71xx-generic
ar71xx-tiny
(Gluon 2018.1)
ar71xx-generic
ar71xx-nand
ar71xx-tiny
ipq806x
ramips-mt7620
ramips-mt7628
ramips-rt305x
sunxi
Dies betrifft alle Betreiber eines x86 Gluon Systems. Das sind die Futros und Verwandte.
Ein tolles Plugin für Thunderbird um größere Dateien nicht via email verschicken zu müssen, sondern direkt über Nextcloud bereitzustellen zu können. Funktioniert auf den ersten Blick relativ problemlos. Man kann leider nicht pro mail ein neues Passwort definieren, ansonsten aber eine feine Sache.
https://addons.mozilla.org/de/thunderbird/addon/nextcloud-filelink/
Gibt es auch für Outlook. Kann ich aber mangels Outlook nicht testen.
Chrome versteckt mittlerweile die Zertifikatsinformationen etwas.
Finden tut man sie durch aktivieren der Developer tools (F12) und dort unter Security.
Warum man die „versteckt“ ist mir aber schleierhaft. Damit wird der trust level eines Zertifikats auch immer unwichtiger, Hauptsache der Browser beschwert sich nicht. Mag man darüber denken was man will.
During the emergence of electronic communication, the two scientists/engineers Carl Friedrich Gauss and Wilhelm Eduard Weber built the first electrical communications line in Goettingen, Germany. They set up a two kilometer two wire copper line between Gauss’ workplace – the Astronomical Observatory – and Weber’s laboratory in the physics department of the Goettingen University.
It is unknown what the content of the first telegram sent was but one story goes like this: Gauss sent the message: “Michelmann kömmt” or “Michelmann is on his way” to Weber. While the message was transmitted, Michelmann, an assistant of both Gauss and Weber traveled the distance between the two sites, allowing the scientists to confirm the accuracy of the message 0.
Michelmann is a messenger or courier in this story. He helps Gauss and Weber demonstrate that their system works and that messengers can be replaced by electronic communication. I find it amusing and somewhat ironic that Michelmann played the role of verifying a technology that would take over some of his own responsibilities – relaying messages between Gauss and Weber.
Today technology is again taking over responsibilities previously held by humans: it trades stocks, drives cars and diagnoses and treats diseases. Sometimes I like to put myself in the shoes of those modern-day Michelmanns: humans that participate in handing over parts of their responsibilities to machines. Stock-brokers and data scientists that feed their knowledge into automated trading systems, ride sharing drivers that seed the offline maps for autonomous cars, medical doctors that train expert systems and image recognition algorithms to automate diagnosis and treatment.
Are these people aware of what they are doing? And how long until my job (software architect) can be replaced by a machine? Am I already doing what Michelmann did in 1832 by writing and fixing code and committing it to public repositories? I want to say: I hope so. But then again I’m only 97% convinced it is a good thing.
1. Another version of the story has Gauss send the message “Wissen vor meinen, Sein vor scheinen” which roughly translates to “Knowing is more important than believing, being is more important than appearance”. It is possible that they sent both messages, one test message and one message for posterity.
Der V13 hat leider komplett andere Hardware als seine Vorgänger und wird auf absehbare Zeit vermutlich nicht von unserer Software unterstützt werden, da das Gerät einen völlig anderen WLAN-Chipsatz hat. Wir empfehlen derzeit lieber auf ein anderes Modell wie den WR842, WR940 und WR1043ND umzuschwenken. Sobald der V13 unterstützt wird, werden wir auch eine Firmware für das Gerät bauen.
(Text schamlos in Münster ctrl-c ctrl-v’t. Danke)
Lsyncd hatte ich mir schon mal vor Jahren angeschaut. Damals wurde aber ssh als Transport noch nicht unterstützt. Nun habe ich mir das nochmal kurz (wirklich kurz) unter Debian 8 angeschaut (Version 2.1.5). Lsyncd überwacht Verzeichnisse via inotify und überträgt alle geänderten Dateien automatisch auf die angegebenen Zielhosts. Lsyncd bietet eine große Anzahl an Optionen, daher schadet ein Blick auf die Homepage nicht. Zum schnellen testen kann man einfach folgendes ausprobieren:
apt install lsyncd
Auf der Konsole:
lsyncd -rsyncssh /home/thomas/hallo zielhost /home/thomas/test
Dabei wird der Inhalt des Ordners hallo in den Zielordner test Übertragen. Default werden Änderungen alle 15 Sekunden übertragen. Der Zielordner wird dabei automatisch angelegt.
Konfigurationsdateien lassen sich auch „problemlos“ nutzen, z.B.:
$ cat /etc/lsyncd/lsyncd.conf.lua settings { logfile = "/var/log/lsyncd/lsyncd.log", statusFile = "/var/log/lsyncd/lsyncd.status" } sync { default.rsyncssh, source = "/home/thomas/hallo", host = "thomas@zielhost", targetdir = "/home/thomas/test", }
und mit
service lsyncd start
den daemon starten. Danach eventuell noch ein
update-rc.d lsyncd defaults
für den Autostart des daemons.
Dabei muss auf dem Zielhost ssh login ohne Passwort erlaubt sein. Man kann aber auch rsyncd zur Übertragung nutzen. Zu beachten ist das lsyncd default „delete“ als Option hat. Das merkst Du daran, dass plötzlich vielleicht Dein gesamtes home directory gelöscht wurde…nicht das es mir passiert wäre. Die Syntax im Bezug auf „/“ bei Verzeichnissen ist anders als bei rsync.
Lsyncd ist eventuell interessant wenn man einfach nur ein paar Konfigurationen, ohne Puppet & Co zu nutzen, syncen will oder man eine überschaubare Menge an Dateien auf verschiedenen hosts verteilen will. Ab einer gewissen Anzahl von Dateien stößt man an auf diverse Probleme (inotify&co). Am besten man testet lsyncd auf Testmaschinen bevor man es produktiv einsetzt.
Klingt eigentlich ganz leicht, ist aber aber tatsächlich umständlich einzurichten. Ich nutze Fluxbox bei einigen Maschinen als Windowmanager. Dort die Proxy Einstellungen für den Chrome Browser zu ändern ist etwas nervig, da man dies nicht einfach über die Einstellungen des Browsers machen kann. Der geringste Aufwand ist einfach ein Proxy Addon zu installieren. Also einfach Proxy SwitchyOmega installieren, die Proxydaten eintragen und den Proxy auswählen.
Sollte man mit ssh Forward arbeiten, nicht vergessen socks5 statt http als Protokoll zu wählen.
Um beim Login via ssh sofort in einer tmux Session zu landen habe ich folgendes in meine .bashrc auf dem Zielhost eingefügt:
case $- in *i*) if command -v tmux>/dev/null; then if [[ ! $TERM =~ screen ]] && [[ -z $TMUX ]]; then if tmux ls 2> /dev/null | grep -q -v attached; then exec tmux attach -t $(tmux ls 2> /dev/null | grep -v attached | head -1 | cut -d : -f 1) else exec tmux fi fi fi ;; esac
Sehr praktisch falls die Verbindung nicht stabil oder die bash_history deaktiviert ist.
Man kann auch
ssh 123.123.123.123 -t tmux a
nutzen, falls eine tmux Session vorhanden ist bzw. „tmux“ falls keine.
Die .bashrc Lösung ist aber natürlich etwas eleganter.
Link: https://stackoverflow.com/a/42351698
Jeder der sich irgendwie für ebooks interessiert kommt eigentlich nicht an Calibre vorbei. Die Software ist mittlerweile in der der 3.0er Version erschienen. Der „Content server“ ist deutlich performanter und bietet nun endlich auch eine Funktion zum online lesen an.
Bisher, dank Cops und Bicbucstriim, zwar von mir kaum genutzt, aber dennoch eine sehr praktische Funktion. Dabei hat Cops, dank des integrierten Readers, aber die Nase vorn.
Wirft Pydio in der 8.0.0 Version den Fehler
<message type="ERROR">You are not allowed to access this resource.</message>
beim Update via Webinterface auf die 8.0.1er. Einfach mal einen anderen Browser probieren. Bei mir hat das Update dann mit Chrome funktioniert
Link: https://pydio.com/forum/f/topic/solved-not-allowed-to-access-this-resource/
Maldet ist ein Malware Scanner. Ideal für jegliche Art von Webhosting.
Maldet legt automatisch einen cronjob an und verschickt je nach Wunsch täglich mails.
Mails sehen dann in etwa so aus:
HOST: web01 SCAN ID: 170610-0654.14910 STARTED: Jun 10 2017 06:54:15 +0200 COMPLETED: Jun 10 2017 07:07:34 +0200 ELAPSED: 799s [find: 450s] PATH: RANGE: 1 days TOTAL FILES: 24202 TOTAL HITS: 2 TOTAL CLEANED: 0 WARNING: Automatic quarantine is currently disabled, detected threats are still accessible to users! To enable, set quarantine_hits=1 and/or to quarantine hits from this scan run: /usr/local/sbin/maldet -q 170610-0654.14910 FILE HIT LIST: {HEX}php.cmdshell.unclassed.365 : /pfad/zum/docroot/phpshells/844-4873-1-SM.phtml {HEX}gzbase64.inject.unclassed.15 : /pfad/zum/docroot2/c.php
Maldet bietet etliche Einstellungsmöglichkeiten. Man kann es auch in Echtzeit im monitoring mode laufen lassen. Je nach Umfang der docroots stößt man dabei aber an diverse Limits (ulimit &co).
Auf Github findet man Maldet unter https://github.com/rfxn/linux-malware-detect. Debian Pakete gibt es unter https://github.com/waja/maldetect.
Nur ein paar Notizen für mich für ein Update von Ubuntu 12.04 zu 14.04 und von MySQL 5.5 zu 5.6.
MySQL
table_cache gibt es bei MySQL 5.6 nicht mehr, das heißt nun table_open_cache. Am besten vorher in der my.cnf ändern
ln -s /etc/apparmor.d/usr.sbin.mysqld /etc/apparmor.d/disable
invoke-rc.d apparmor restart
schadet auch nicht.
Pacemaker
apt-get install haveged
braucht man
Pacemaker komplett löschen. Purgen reicht nicht
rm -rf /var/lib/pacemaker
rm -rf /var/lib/heartbeat
rm -rf /var/lib/pengine
Nachdem Update Pacemaker einfach neu installieren. Das sollte inklusive Konfiguration maximal 5 Minuten dauern. Eventuell kurz root via key zwischen den Nodes erlauben.
update-rc.d pacemaker defaults
kann auch nicht schaden
ssh
Match Blocks werden nicht mehr mit „Match“ geschlossen und müssen immer am Ende der sshd_config stehen. Eventuell hilft „Match all“
So, das Update ist dann durch. Bei so einer Aktion kann man auch immer ganz gut abschätzen wieviele normale Nodes (also keine Bastel- Experimentier etc.) in unserem Netz sind. Das sind zur Zeit 867, was auch ganz interessant ist, denn davon sind eigentlich immer mindesten 50 aus, wenn man das mal mit der Nodestatistik vergleicht.
Wir starten morgen ein Update der Firmware im Göttinger Freifunk-Netz.
Nodes, die auf Autoupdate stehen, werden im Laufe der nächsten zwei Wochen das Update automatisch installieren.
Das ist ein Sprung von
“ffgoe-0.8.2 basierend auf Gluon 2016.1.5 vom März 2016” auf
“ffgoe-0.8.7 Basierend auf Gluon 2016.2.3 vom Februar 2017”.
Es steckt also ein Jahr Entwicklungsarbeit in der Firmware, es gibt viele Bugfixes und Support für neue Hardware. Wir haben die Firmware in Version 0.8.7 seit Februar als Beta-Version zur Verfügung gestellt und sie läuft seitdem erfolgreich auf 67 Nodes.
Hier sind sämtliche Änderungen verzeichnet:
v2016.1.6.html
v2016.2.html
v2016.2.1.html
v2016.2.2.html
v2016.2.3.html
Unsere Konfiguration befindet sich hier:
https://github.com/freifunk-goettingen/site-ffgoe/tree/v0.8.7
Da gibt es einige Angebote an Open Source Softwarelösungen. Früher hatte ich gallery im Einsatz, dass wurde dann irgendwann mal gehackt und wird auch seit einigen Jahren nicht mehr weiter entwickelt. Generell scheinen Webgalerien ein beliebtes Ziel für Einbrüche zu sein. Als Ablösung kam dann ganz einfach google Fotos bei mir/uns. Das funktioniert, ist extrem praktisch wenn man eh 99,9% der Fotos mit dem Handy macht. Da aber Fotos von Handys immer noch schrottig gegenüber Fotos einer richtigen Kamera aussehen, haben wir uns eine Systemkamera zugelegt. Erst etwas skeptisch ob das Geld auch gut angelegt ist, war ich bereits nach dem ersten Spaziergang mit Kamera & Co vom Nutzen der Kamera überzeugt. Mit einer Kamera hat man halt Fotos und mit einem Handy Schnappschüsse. Nun stellte sich die Frage wohin mit den Fotos? Irgendwo auf Platte, Dropbox, Nextcloud, Google Photos?
Google Photos ist ungünstig, weil bei Bildern über 16 MP die Qualität auf 16 MP reduziert wird, jedenfalls wenn man unbegrenzt Bilder ablegen will und die Daten nicht auf den Quota angerechnet werden sollen. Da ich eh schon immer ein Freund von Wasduselbsthostenkannsthosteselbst bin, habe ich mir piwigo angeschaut. Vorher noch kurz nextcloud als Galerie ausprobiert, das ist aber leider komplett unbrauchbar dafür. Erst hatte ich die Daten noch via nextcloud client gesynct und einfach einen symlink in den galleries Ordner von piwigo gelegt. Fand ich aber nervig und ist überflüssig. Einfach die Fotodaten via rsync in den galleries Ordner und via Webinterface syncen lassen und fertig. Natürlich liegen die Fotos nochmal auf dem NAS.
Die Lösung gefällt mir ausgesprochen gut und funktioniert wunderbar. Sollte jemand eine gute andere Webgalerie Software kennen, immer her damit. Optimal wäre es natürlich wenn die Kamera (die natürlich heute alle WLAN haben) direkt syncen könnte, ohne den Weg über den PC zu gehen.
Wir haben eine Datei, die wir einfach nur leeren wollen. Die Dateirechte sollen so bleiben und wir wollen nicht mit rm&touch&chown&chmod arbeiten.
$ l machmichleer.txt -rw-rw-r-- 1 thomas thomas 27K Apr 21 10:06 machmichleer.txt $ > machmichleer.txt $ l machmichleer.txt -rw-rw-r-- 1 thomas thomas 0 Apr 21 10:07 machmichleer.txt
Nach einem Update von Debian 7 auf 8 ging das Anmelden am System extrem langsam, zudem lief clamav nicht mehr. UsePAM yes auf no hat zwar geholfen aber man will ldpap nutzen. Da gab es noch mehr, aber das spare ich mir alles.
Die Lösung hat etwas gedauert. Geholfen hat:
$ ldd /usr/sbin/console-kit-daemon libgobject-2.0.so.0 => /opt/tivoli/tsm/client/ba/bin/libgobject-2.0.so.0 (0x00007f20f34ef000) libglib-2.0.so.0 => /opt/tivoli/tsm/client/ba/bin/libglib-2.0.so.0 (0x00007f20f32fe000)
/etc/ld.so.conf.d/tsm.conf
löschen bzw. wo auch immer man das damals für TSM Client eingetragen hat.
$ ldconfig
fertig. Mittlerweile gibt es einen von IBM unterstützen 7er Client für Debian/Ubuntu (eigentlich nur Ubuntu aber egal).
I don’t like to have daemons listening on the systems I am responsible for. This is the reason why I check periodically all systems with netstat -tulpen to see what processes are actually listening, look if they are needed and may be bound to localhost only.
I used to set the system time via ntpd, but many years ago I switched to a simple cron job that runs ntpdate. This is good enough for all systems that don’t depend on milliseconds and smooth time shift etc. I was able to remove ntpd from almost all servers. My cron job looks like this:
## ntpdate Cron Job
# Environment Settings
MAILTO=root
PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin
# Job Definition
*/30 * * * * root /usr/sbin/ntpdate 0.pool.ntp.org > /tmp/ntpdate.prt 2>&1
I often need to work in a database on the command line. Booleans are not displayed in an intuitive way. I mean this:
There is a simple trick that helps me to read it much better: cast it to an integer. This is done by adding +0 to the boolean column:
mod_macro ist dufte, besonders wenn man nicht nur Apache Vhosts für 10-20 Leute verwaltet. Da gibt es etliche sinnvolle Einsätze für.
Das Modul mod_macro ist default bei apache 2.4 dabei.
$a2enmod macro
Nun kann man sich eine einfache macro.conf anlegen:
<Macro VHost $name $domain> <VirtualHost *:80> ServerName $domain ServerAlias www.$domain DocumentRoot "/var/www/vhosts/$name" ErrorLog "/var/log/httpd/$name.error_log" CustomLog "/var/log/httpd/$name.access_log" combined </VirtualHost> </Macro>
Wir haben damit ein Macro namens VHost angelegt. Dieses Macro kann mit folgenden Werten gefüttert werden:
$name $domain
Wollen wir das Nacro nun in unserer vhost.conf nutzen, schreiben wir dort einfach nur:
Use VHost example example.com ... Use VHost montag baldistfruehling.org
Wir übergeben also den Wert example und example.com an das Macro mit dem Namen VHost. Dabei ist die Reihenfolge der Werte durch das Macro vorgegeben. Der Apache baut uns damit unsere Vhost.conf zusammen.
Fertig sind unsere Vhosts. Einfach den Apache neu starten und das war es. In der Dokumentation wird aus verständlichen Gründen noch vorgeschlagen die Macro Definition wieder zu entfernen wenn sie nicht mehr gebraucht wird.
Dies geschieht einfach mit
UndefMacro VHost
Besonders bei größere Konfigurationen, vermeidet man damit Konflikte.
Will man mehrere Werte übergeben z. B. IP Listen, kann man einfach diese einfach in Anführungszeichen setzen.
Use RestrictedAccessPolicy "192.54.172.0/24 192.54.148.0/24"
Hinweise:
Die macro.conf kann natürlich in beliebig viele Dateien auf gesplittet werden. Optimalerweise sollten die Namen der Macro Dateien Aufschluss über deren Funktion geben. Das Include der macro.conf muss vor dem Include der vhost.conf stehen.
Eine Dokumentation zu mod_macro findet man unter
https://httpd.apache.org/docs/2.4/mod/mod_macro.html
Die ist sehr gut, daher habe ich auch auf eigene Beispiele verzichtet.