WordPress-Plugin WP Maintenance Mode

Wenn man eine neue Webseite erstellt oder die bestehende Webseite überarbeiten möchte, ist eine „Coming soon“ oder „Bald gibt es etwas neues“-Seite oft angemessen. Da ich häufig Webseiten mit WordPress gestalte, habe ich hierfür auch eine Idee gesucht.

Den Wartungsmodus kann man in WordPress relativ schön gestalten, wenn man das Plugin WP Maintenance Mode installiert. Das Plugin ist schlank und macht genau das was es soll: eine Coming Soon Seite anzeigen.

Das Plugin ist sehr minimalisitisch und bietet ein paar wenige Features. Ich halte mich dabei gerne an die Regel „weniger ist mehr“. Das bedeutet, dass ich meistens nur ein Bild anzeigen lasse. Es gibt noch mehr Möglichkeiten, zum Beispiel ein Countdown und die Möglichkeit, Text zu schreiben. Mir genügt lediglich das Bild.

Ein responsive-Bild lädt man übrigens über den Hintergrund hoch. Er wird standardmäßig über CSS so formatiert, dass immer die volle Breite des Fensters verwendet wird.

background-size: cover;

Manche Bilder wirken aber besser, wenn man die volle Höhe anzeigt und die Ränder links und rechts abschneidet. Das kann man machen, wenn man folgenden Code im Plugin-Editor in die Datei wp-maintenance-mode/includes/functions/helpers.php einfügt:

/**
 * Add code inside <head></head>
 */
function wpmm_add_code_to_head() {
    ?>
    <style>
		.background {background-size: contain;}
    </style>
    <?php

}
add_action('wpmm_head', 'wpmm_add_code_to_head', 10, 1);






Mozilla veröffentlicht Firefox 72.0.2

Mozilla hat mit Firefox 72.0.2 ein außerplanmäßiges Update für seinen Browser veröffentlicht.

Download Mozilla Firefox 72.0.2 für Windows, Apple macOS und Linux

Mit dem Update auf Firefox 72.0.2 hat Mozilla ein Performance-Problem beim Öffnen der gespeicherten Zugangsdaten für Nutzer mit aktiviertem Master-Passwort behoben.

Auch ein Performance-Problem, welches für manche Nutzer bei der Wiedergabe von 60FPS-Videos aufgetreten war, wurde behoben.

Ein weiteres behobenes Problem betrifft das Öffnen heruntergeladener Dateien, wenn der Dateipfad ein Leerzeichen beinhaltet.

Außerdem wurden ein Problem mit dem neu in Firefox 72 eingeführten CSS Shadow Parts Webstandard sowie diverse potentielle Absturzursachen und ein Darstellungsproblem in den Einstellungen für Nutzer der japanischen Firefox-Version behoben.

Der Beitrag Mozilla veröffentlicht Firefox 72.0.2 erschien zuerst auf soeren-hentzschel.at.






Den Überblick behalten: collectd

Mit Überwachungstools ist die Linuxfamilie reichlich gesegnet. 

Seit mehreren Jahren setze ich collectd ein. Dieser Daemon schreibt fortwährend Perfomancedaten im rrd Format auf die Platte und ist netzfähig.

Das umwerfende an collectd ist seine einfache Konfiguration.

Das meiner Meinung nach am einfachsten zu verwendende grafische Interface ist CGP (Collectd Grafik Panel)

Auf Buster musste ich ein wenig fummeln, bis es wieder lief.

Es war zu lange her, dass ich damit was zu tun hatte, weil es einfach lief smile

Lange Rede kurzer Sinn:

Damit die Grafiken dargestellt werden können, muss Open_basedir angepasst werden:

  /var/lib/collectd/rrd:/usr/bin:

Mit dem Plugin Processes habe ich ein wenig rumgespielt, dabei ist mir eine fehlende Grafik im CGP aufgefallen.

Im Apache error.log fand ic:

ERROR: No DS called 'value' in '/var/lib/collectd/rrd/domain.de/processes-pg_autovacuum/io_ops.rrd'

Ich habe es so gelöst.
in CGP/inc/types.db
Added
io_ops read:DERIVE:0:U, write:DERIVE:0:U

in
CGP/plugin/processes.json
Added

        "ps_io_ops": {
                "title": "IO Operations ({{PI}}) on {{HOST}}",
                "vertical": "Ops per second",
                "type": "io",
                "legend": {
                        "read": {
                                "name": "Read",
                                "color": "0000ff"
                        },
                        "write": {
                                "name": "Write",
                                "color": "00b000"
                        }
                },

Warum blogge darüber nach ca. 6 Jahren Einsatz erst jetzt? Damit ich beim nächsten Mal wenigstens schon mal einen Eintrag habe smile

Im Ernst, gerade heute hatte ich mich gewundert, warum der Server so einen stark erhöhten Load hat, wo er doch meist nur vor sich rum dümpelt. Ich gebe zu, ich hatte erst wieder einen ungebetenen Gast in Verdacht und fahndete nach einen nicht vorhandenen Geist. Doch dann fiel mir ein, dass Softraid alle 4 Wochen Sonntags immer einen Check durchführte....

Bingo! # dmesg -T |grep md:
[Mon Jan 20 03:42:11 2020] md: data-check of RAID array md0
[Mon Jan 20 03:42:11 2020] md: delaying data-check of md1 until md0 has finished (they share one or more physical units)
[Mon Jan 20 03:42:15 2020] md: md0: data-check done.
[Mon Jan 20 03:42:16 2020] md: data-check of RAID array md1

Schön, das war also geklärt smile

(Wenn der Check fertig ist, momentan ist er bei:

cat /proc/mdstat |grep check
      [===================>.]  check = 99.6% (2919523968/2929609152) finish=7.4min speed=22487K/sec

Achso, also gleich fertig, dann warte ich noch die paar Minuten und schreibe gleich weiter smile

# dmesg -T |grep md:
[Mon Jan 20 03:42:11 2020] md: data-check of RAID array md0
[Mon Jan 20 03:42:11 2020] md: delaying data-check of md1 until md0 has finished (they share one or more physical units)
[Mon Jan 20 03:42:15 2020] md: md0: data-check done.
[Mon Jan 20 03:42:16 2020] md: data-check of RAID array md1
[Mon Jan 20 19:25:31 2020] md: md1: data-check done.

Der Check hat also knapp 16 Stunden gedauert und mich dadurch mit vielen (ca. 50 email vom Monitoring System) genervt.

Zu den Benachrichtitungen schreibe nochmal einen Extra Artikel, momentan ist das nämlich nicht mit Collectd realisiert. Dabei sollte ich gleich diesen vorhersehbaren Load Anstieg berücksichtigen und die Schwellwerte  in der Zeit anpassen.

Zum Abschluß heute noch einen Screenshot der Load Grafik, die sich sehr gut mit dem dmesg Eintrag deckt.

Ich habe die Kombi png / Canvas eingestellt, dadurch kann ich in der Detailansicht sehr fein zoomen. 

Ps: Bei Buster ist der Cronjob anders eingestellt, nämlich immer am 20. des Monats

42 3 20 * * root if [ -x /usr/share/mdadm/checkarray ]; then /usr/share/mdadm/checkarray --cron --all --idle --quiet; fi

Beim Durchsehen der Statistiken ist mir besonders beim Disk Traffic aufgefallen, dass ich mir die Bösewicht Sucherei wirklich hätte schenken können, dieses Bild ist eher unüblich für malware.

 






Reflexionen: Von Linux zu Mac

Woher diese manchmal große Härte gegenüber Open Source Software hier im Blog? Warum ignoriere ich diese Entwicklungen nicht einfach und setze ich überhaupt noch Linux ein. Das sind so Fragen, die mich mehr oder minder freundlich formuliert erreichen. Spoiler: Der folgende Text enthält meine Meinung, gespeist aus jahrelanger individuell gesammelter Erfahrung.

Linux ist immer eine Wechselgeschichte. Kaum jemand beginnt seine PC-Karriere mit einem Linux-System. In meinem Fall war daran Windows Vista schuld. Es war 2007 und ich hatte ein neues Notebook und Windows Vista ohne Service Pack 1. Das war ziemlich genau so schlimm wie man heute im Netz noch nachlesen kann und führte mich direkt zu Linux. Damit hatte ich schon vorher rumprobiert aber immer Windows XP als Fallback behalten. Meine Karriere begann damit schon symptomatisch aus praktischen Erwägungen und nicht weil ich von Open Source ideologisch überzeugt gewesen wäre oder eine Peergroup im MINT-Studium sozialen Druck ausgeübt hätte.

Mein primäres Problem war erst einmal, dass dieses Notebook wirklich gut und wirklich neu war. Von den Hardware-Daten könnte man damit vermutlich heute noch arbeiten (leider wurde es bei einem Einbruch 2011 gestohlen). Die meisten Distributionen versagten schon den Start und WLAN war trotz Intel-Modul (an was man sich so alles erinnert...) schwierig. Mein größtes Problem war allerdings die NVIDIA-Grafikkarte und die gewünschten grafischen Compiz-Effekte. Linux im Jahr 2007 eben. Von ganz praktischen Herausforderungen, weil das Uni-WLAN mit Linux nur sehr kompliziert zu nutzen war. Leidensfähigkeit lernte man da sehr schnell.

Ich weiß nicht ob es wirklich so war oder ob man heute die Vergangenheit verklärt, aber neue Versionen waren fast immer ein Quantensprung. Ein neuer Kernel unterstützte endlich die gewünschte Hardware, am Desktop, am Browser, beim Office - überall ging es merklich voran. Wenn ich mir heute anschaue was sich zwischen zwei KDE Plasma LTS Versionen (5.12 -> 5.18) getan hat, hätte ich damals vermutlich müde gelächelt. Diese agile Entwicklung (um das beknackteste Wort aus dem gegenwärtigen HR/IT-Sprech zu übernehmen) ließ mich schnell zu RR-Distributionen greifen. Debian Sid wenn ich mich recht erinnere.

Natürlich fuhr man sein System damit ab und an mal an die Wand. Aber wenn man ehrlich ist: Was hat man damit schon groß gemacht? E-Mails, Office, Surfen. Zocken ging 2007 mit Linux wirklich noch nicht, sofern man mehr als Solitär wollte. Meine gespeicherten Daten passten auf 2-3 DVD-Rohlinge. Das änderte sich aber schleichend. Datenbestände wuchsen exponentiell und dank dem Siegeszug moderner Smartphones auch die synchronisierten Datenbestände. Irgendwann gab es dann auch nicht mehr nur ein Notebook, sondern zusätzlich einen klassischen PC und dann auch noch einen Homeserver für die Datensynchronisation in der Post-Snowden-Zeit. Kurzum: Der Einrichtungsaufwand meines persönlichen Linux-Setups stieg immer mehr an und damit wurden tägliche Updates auch immer mehr zum Risiko. Nicht weil Probleme unlösbar waren, sondern weil man viel mehr Software intensiv nutzte und daher auch in viel mehr Probleme reinlief.

Parallel hatte ich immer weniger Zeit und Lust auf Problemlösung. Die logische Konsequenz war daher der sukzessive Wechsel auf LTS-Distributionen (siehe: Linux - Eine sichere Basis) rund um das Jahr 2014 herum. Wirklich problemloser Langzeitsupport bieten die aber eigentlich auch nicht. Ich möchte hier gar nicht mit den Windows 7 Systemen meines Arbeitgebers kommen, die momentan nach 10 Jahren problemfreien Betriebes umgestellt werden. Selbst die 5 Jahre von Ubuntu sind eigentlich Makulatur. Alle 1-2 Jahre sind Migrationen notwendig, weil selbst die Spitzenreiter bei den Laufzeiten wie RHEL/CentOS verpflichtende Minorversionen bieten.

Es gehört meiner Meinung nach zu den bitteren Wahrheiten, dass Upgrades bei Linux nicht funktionieren. Sobald man kein System von der Stange mehr hat, braucht ein Upgrade genau so viel Nacharbeit wie eine Neuinstallation. Jetzt kommen sicherlich wieder welche, die sagen "aber bei mir...". Ich kenne kaum jemand im professionellen Bereich, der systematisch Upgrades macht. Stattdessen installiert man neu und migriert die Konfiguration. Die Ubuntu Zahlen deuten ebenfalls in eine ähnliche Richtung.

Und selbst wenn Upgrades nicht das Problem sein sollten, kämpft man trotzdem bei umfangreicheren Setups mit dem sehr volatilen Umfeld. Software kommt und geht, Forks werden gemacht und bestehende Funktionen gebrochen. An Upgradepfade und bestehende Anwender wird viel zu wenig gedacht. Selbst professionelle Projekte wie Nextcloud glänzen da nicht mit Ruhmestaten. Man ist somit eigentlich permanent damit beschäftigt der Softwarentwicklung zu folgen und die genutzte Software anzupassen. Das ist natürlich kein Problem, wenn man den einschlägigen Medien folgt und Entwicklungen zeitig rezipiert. Es gibt aber noch Menschen mit anderen Hobbys, die IT tatsächlich als Mittel zum Zweck begreifen.

Wie sehr man als langjähriger Linux-Anwender in einer Filterblase aus vermeintlich objektiven Zwängen und Binnenlogiken gefangen ist bemerkte ich eher zufällig. Bis dahin erzählte ich auch allen immer, sie müssten nur ihre Verhaltensweisen und Erwartungshaltung anpassen. 2016 verabschiedete sich mein Lenovo Notebook (siehe: Linux auf dem Lenovo IdeaPad 330p). Ich brauchte etwas Leichtes und vor allem brauchte ich mindestens 8 Stunden reale Akkulaufzeit, weil Lesesäle in deutschen Archiven nicht durchgehend mit so etwas neumodischem wie Steckdosen ausgestattet sind. Ein lokaler Apple Händler bot ein MacBook Air damals für knapp 800€ an und so griff ich zu meinem ersten Mac (siehe: Ein Apfel in der Antarktis - Teilwechsel auf macOS).

Mir ging es da eigentlich wirklich um die Hardware. Der Vorsatz war tatsächlich das Gerät schnell mit Linux auszustatten. 2016 war nur ein wirklich schlechtes Jahr. Kubuntu hatte ein katastrophales Release herausgebracht (siehe: Kubuntu 16.04 LTS - Ein wenig Licht am Ende des Tunnels), was auch an den projektinternen Umbrüchen zwischen 2015 und 2016 gelegen hatte (siehe: Kubuntu auf dem Weg zur Version 16.04 LTS) und bei openSUSE Leap stand eine neue Version in den Startlöchern. Also dachte ich mir, ich probiere übergangsweise macOS und stelle dann später um.

Am Anfang tat ich genau das, wovon wir in der Linux-Community immer allen Umsteigern abraten. Ich versuchte meinen Linux-Workflow auf macOS zu übertragen. Also installierte ich HomeBrew und zig Open Source Software. Mit dem erwartbaren Ergebnis mein System nahezu unbenutzbar zu bekommen. Neuer Anlauf, weniger Linux-Software, mehr einlassen auf die Eigenheiten und Eigenwilligkeiten eines fremden Systems. Im September dann das erste Upgrade. Zwei Klicks, ein Neustart - fertig. Ich war sprachlos und ersetzte im Dezember meinen Desktop durch einen Mac mini.

Im letzten Frühjahr ging dann mein Homeserver den Weg allen Irdischen. Nach einigem hin und her (siehe: Homeserver / NAS - Die Qual der Wahl) griff ich dann doch zu einer proprietären Lösung (siehe. Synology NAS I: Die Entscheidung für ein Synology NAS). Binnen eines Tages konnte ich ohne Vorwissen von 0 auf 100 alle gewünschten Dienste aufsetzen und konfigurieren. Linux läuft bei mir persönlich nun nur noch virtualisiert, für einige spezielle Dienste und um Arbeitsprozesse zu separieren.

Anfänglich hatte ich mit der zunehmenden Rückkehr zu proprietären Systemen meine Probleme. Weniger praktischer Natur, als vielmehr hinsichtlich des Datenschutzes und der Sicherheit. Zu sehr hatte ich selbst die Propaganda selbsternannter Datenschützer und Experten verinnerlich, deren Antwort auf jedes Problem immer "Open Source" lautete. Mit etwas Abstand und viel Recherche stellt man dann aber ziemlich schnell fest, dass das blinde Vertrauen in Open Source eben vor eines ist: Ideologie. Datenschutz und Sicherheit folgen daraus weder automatisch noch mittelbar. Diesen inhaltlichen Schwenk kann man natürlich hier im Blog nachvollziehen.

Ich habe noch nie ein so wartungsarmes Systemumfeld gehabt. Meine beiden Macs aktualisiere ich im Herbst mit zwei Klicks und einem Neustart auf die neueste Version, das gleiche mit der Synology. Wenn mich in meinem Umfeld Leute um Rat fragen, die weg von Windows 10 wollen empfehle ich ihnen mittelfristig einen Mac. Kommt das nicht infrage natürlich immer noch Linux. Im direkten Umfeld betreue ich dadurch auch immer noch ein paar reale Linux-Installationen und kriege dadurch natürlich die Änderungen und Entwicklungen weiter mit.

Wenn du bis hierhin durchgehalten habt, Glückwunsch. Aus meinen Blogartikeln spricht oft eine große Härte gegenüber Open Source im Allgemeinen und Linux im Speziellen. Das mache ich nicht um Leute zu ärgern, ich mache es auch nicht für die Klickzahlen. Die Mainstream-tauglicheren Artikel hier wie z. B. die Synology-Serie haben deutlich mehr Aufrufe. Ich wandel mit meinen Systemen zwischen den Welten und arbeite halt immer noch mit Linux.

Wenn man regelmäßig und praktisch über den Tellerrand schaut, merkt man wie sehr die Diskurse im Open Source-Bereich sich in einer sehr engen Filterblase bewegen. Viele Linux-Anwender benutzen kaum etwas anderes und wenn doch, dann mit der Überheblichkeit eines Missionars unter Heiden - unfähig die Vorteile und Potenziale zu sehen. Besonders putzig sind immer jene Kommentatoren, die sich über zu wenig Fakten und zu viel Meinung beklagen, weil sie Fakten nur als solche akzeptieren, wenn sie zu ihrer eigenen Meinung passen. Entwicklungen außerhalb des eigenen Universums werden kaum rezipiert, dauerhaft bestehende Probleme mit Workarounds begegnet (du brauchst eine separate Home-Partition, dann hast du keine Upgrade-Probleme etc. pp.), die kaum noch hinterfragt werden etc. pp. In diese Filterblase breche ich gerne anlassbezogen mal ein.


Bilder:

Einleitungs- und Beitragsbild von Daniel Hansen via Unsplash

"






Reflexionen: Von Linux zu macOS

Woher diese manchmal große Härte gegenüber Open Source Software hier im Blog? Warum ignoriere ich diese Entwicklungen nicht einfach und setze ich überhaupt noch Linux ein. Das sind so Fragen, die mich mehr oder minder freundlich formuliert erreichen. Spoiler: Der folgende Text enthält meine Meinung, gespeist aus jahrelanger individuell gesammelter Erfahrung.

Linux ist immer eine Wechselgeschichte. Kaum jemand beginnt seine PC-Karriere mit einem Linux-System. In meinem Fall war daran Windows Vista schuld. Es war 2007 und ich hatte ein neues Notebook und Windows Vista ohne Service Pack 1. Das war ziemlich genau so schlimm wie man heute im Netz noch nachlesen kann und führte mich direkt zu Linux. Damit hatte ich schon vorher rumprobiert aber immer Windows XP als Fallback behalten. Meine Karriere begann damit schon symptomatisch aus praktischen Erwägungen und nicht weil ich von Open Source ideologisch überzeugt gewesen wäre oder eine Peergroup im MINT-Studium sozialen Druck ausgeübt hätte.

Mein primäres Problem war erst einmal, dass dieses Notebook wirklich gut und wirklich neu war. Von den Hardware-Daten könnte man damit vermutlich heute noch arbeiten (leider wurde es bei einem Einbruch 2011 gestohlen). Die meisten Distributionen versagten schon den Start und WLAN war trotz Intel-Modul (an was man sich so alles erinnert...) schwierig. Mein größtes Problem war allerdings die NVIDIA-Grafikkarte und die gewünschten grafischen Compiz-Effekte. Linux im Jahr 2007 eben. Von ganz praktischen Herausforderungen, weil das Uni-WLAN mit Linux nur sehr kompliziert zu nutzen war, mal ganz abgesehen. Leidensfähigkeit lernte man da sehr schnell.

Ich weiß nicht ob es wirklich so war oder ob man heute die Vergangenheit verklärt, aber neue Versionen waren fast immer ein Quantensprung. Ein neuer Kernel unterstützte endlich die gewünschte Hardware, am Desktop, am Browser, beim Office - überall ging es merklich voran. Wenn ich mir heute anschaue was sich zwischen zwei KDE Plasma LTS Versionen (5.12 -> 5.18) getan hat, hätte ich damals vermutlich müde gelächelt. Diese agile Entwicklung (um das beknackteste Wort aus dem gegenwärtigen HR/IT-Sprech zu übernehmen) ließ mich schnell zu RR-Distributionen greifen. Debian Sid wenn ich mich recht erinnere.

Natürlich fuhr man sein System damit ab und an mal an die Wand. Aber wenn man ehrlich ist: Was hat man damit schon groß gemacht? E-Mails, Office, Surfen. Zocken ging 2007 mit Linux wirklich noch nicht, sofern man mehr als Solitär wollte. Meine gespeicherten Daten passten auf 2-3 DVD-Rohlinge. Das änderte sich aber schleichend. Datenbestände wuchsen exponentiell und dank dem Siegeszug moderner Smartphones auch die synchronisierten Datenbestände. Irgendwann gab es dann auch nicht mehr nur ein Notebook, sondern zusätzlich einen klassischen PC und dann auch noch einen Homeserver für die Datensynchronisation in der Post-Snowden-Zeit. Kurzum: Der Einrichtungsaufwand meines persönlichen Linux-Setups stieg immer mehr an und damit wurden tägliche Updates auch immer mehr zum Risiko. Nicht weil Probleme unlösbar waren, sondern weil man viel mehr Software intensiv nutzte und daher auch in viel mehr Probleme reinlief.

Parallel hatte ich immer weniger Zeit und Lust auf Problemlösung. Die logische Konsequenz war daher der sukzessive Wechsel auf LTS-Distributionen (siehe: Linux - Eine sichere Basis) rund um das Jahr 2014 herum. Wirklich problemlosen Langzeitsupport bieten die aber eigentlich auch nicht. Ich möchte hier gar nicht mit den Windows 7 Systemen meines Arbeitgebers kommen, die momentan nach 10 Jahren problemfreien Betriebes umgestellt werden. Selbst die 5 Jahre von Ubuntu sind eigentlich Makulatur. Alle 1-2 Jahre sind Migrationen notwendig, weil selbst die Spitzenreiter bei den Laufzeiten wie RHEL/CentOS verpflichtende Minorversionen bieten.

Es gehört meiner Meinung nach zu den bitteren Wahrheiten, dass Upgrades bei Linux nicht funktionieren. Bei Windows natürlich auch nicht, aber bis Windows 10 kam auch niemand ernsthaft auf die Idee das zu machen. Sobald man kein System von der Stange mehr hat, braucht ein Upgrade genau so viel Nacharbeit wie eine Neuinstallation. Jetzt kommen sicherlich wieder welche, die sagen "aber bei mir...". Ich kenne kaum jemand im professionellen Bereich, der systematisch Upgrades macht. Stattdessen installiert man neu und migriert die Konfiguration. Die Ubuntu Zahlen deuten ebenfalls in eine ähnliche Richtung.

Und selbst wenn Upgrades nicht das Problem sein sollten, kämpft man trotzdem bei umfangreicheren Setups mit dem sehr volatilen Umfeld. Software kommt und geht, Forks werden gemacht und bestehende Funktionen gebrochen. An Upgradepfade und bestehende Anwender wird viel zu wenig gedacht. Selbst professionelle Projekte wie Nextcloud glänzen da nicht mit Ruhmestaten. Man ist somit eigentlich permanent damit beschäftigt der Softwarentwicklung zu folgen und die genutzte Software anzupassen. Das ist natürlich kein Problem, wenn man den einschlägigen Medien folgt und Entwicklungen zeitig rezipiert. Es gibt aber noch Menschen mit anderen Hobbys, die IT tatsächlich als Mittel zum Zweck begreifen. Hat man hier einmal durch ein, zwei Jahre Untätigkeit den Anschluss verloren, erntet man richtig Arbeit.

Wie sehr man als langjähriger Linux-Anwender in einer Filterblase aus vermeintlich objektiven Zwängen und Binnenlogiken gefangen ist bemerkte ich eher zufällig. Bis dahin erzählte ich auch allen immer, sie müssten nur ihre Verhaltensweisen und Erwartungshaltung anpassen. 2016 verabschiedete sich mein Lenovo Notebook (siehe: Linux auf dem Lenovo IdeaPad 330p). Ich brauchte etwas Leichtes und vor allem brauchte ich mindestens 8 Stunden reale Akkulaufzeit, weil Lesesäle in deutschen Archiven nicht durchgehend mit so etwas neumodischem wie Steckdosen ausgestattet sind. Ein lokaler Apple Händler bot ein MacBook Air damals für knapp 800€ an und so griff ich zu meinem ersten Mac (siehe: Ein Apfel in der Antarktis - Teilwechsel auf macOS).

Mir ging es da eigentlich wirklich um die Hardware. Der Vorsatz war tatsächlich das Gerät schnell mit Linux auszustatten. 2016 war nur ein wirklich schlechtes Jahr. Kubuntu hatte ein katastrophales Release herausgebracht (siehe: Kubuntu 16.04 LTS - Ein wenig Licht am Ende des Tunnels), was auch an den projektinternen Umbrüchen zwischen 2015 und 2016 gelegen hatte (siehe: Kubuntu auf dem Weg zur Version 16.04 LTS) und bei openSUSE Leap stand eine neue Version in den Startlöchern. Also dachte ich mir, ich probiere übergangsweise macOS und stelle dann später um.

Am Anfang tat ich genau das, wovon wir in der Linux-Community immer allen Umsteigern abraten. Ich versuchte meinen Linux-Workflow auf macOS zu übertragen. Also installierte ich HomeBrew und zig Open Source Software. Mit dem erwartbaren Ergebnis mein System nahezu unbenutzbar zu bekommen. Neuer Anlauf, weniger Linux-Software, mehr einlassen auf die Eigenheiten und Eigenwilligkeiten eines fremden Systems. Im September dann das erste Upgrade. Zwei Klicks, ein Neustart - fertig. Ich war sprachlos und ersetzte im Dezember meinen Desktop durch einen Mac mini.

Im letzten Frühjahr ging dann mein Homeserver den Weg allen Irdischen. Nach einigem hin und her (siehe: Homeserver / NAS - Die Qual der Wahl) griff ich dann doch zu einer proprietären Lösung (siehe. Synology NAS I: Die Entscheidung für ein Synology NAS). Binnen eines Tages konnte ich ohne Vorwissen von 0 auf 100 alle gewünschten Dienste aufsetzen und konfigurieren.

Linux läuft bei mir  persönlich seitdem nun nur noch virtualisiert, für einige spezielle Dienste und um Arbeitsprozesse zu separieren. Davon werde ich aber auf absehbare Zeit auch keinen Abstand nehmen, weil Linux für einige Aufgaben die für mich am besten geeignete Basis bietet. Eine Basis, die aber ruhig nur in einer VM laufen kann.

Anfänglich hatte ich mit der zunehmenden Rückkehr zu proprietären Systemen meine Probleme. Weniger praktischer Natur, als vielmehr hinsichtlich des Datenschutzes und der Sicherheit. Zu sehr hatte ich selbst die Propaganda selbsternannter Datenschützer und Experten verinnerlich, deren Antwort auf jedes Problem immer "Open Source" lautete. Mit etwas Abstand und viel Recherche stellt man dann aber ziemlich schnell fest, dass das blinde Vertrauen in Open Source eben vor eines ist: Ideologie. Datenschutz und Sicherheit folgen daraus weder automatisch noch mittelbar. Diesen inhaltlichen Schwenk kann man natürlich hier im Blog nachvollziehen. Weil ich meinem System heute weniger vertraue, habe ich sogar mehr im Blick was da so an Datenverkehr läuft (siehe: Little Snitch 4 - macOS-Traffic im Blick).

Ich habe noch nie ein so wartungsarmes Systemumfeld gehabt. Meine beiden Macs aktualisiere ich im Herbst mit zwei Klicks und einem Neustart auf die neueste Version, das gleiche mit der Synology. Wenn mich in meinem Umfeld Leute um Rat fragen, die weg von Windows 10 wollen empfehle ich ihnen mittelfristig einen Mac. Kommt das nicht infrage natürlich immer noch Linux. Im direkten Umfeld betreue ich dadurch auch immer noch ein paar reale Linux-Installationen und bekomme dadurch natürlich die Änderungen und Entwicklungen weiter mit.

Wenn du bis hierhin durchgehalten habt, Glückwunsch. Aus meinen Blogartikeln spricht oft eine große Härte gegenüber Open Source im Allgemeinen und Linux im Speziellen. Das mache ich nicht um Leute zu ärgern, ich mache es auch nicht für die Klickzahlen. Die Mainstream-tauglicheren Artikel hier wie z. B. die Synology-Serie haben deutlich mehr Aufrufe. Ich wandel mit meinen Systemen zwischen den Welten und arbeite halt immer noch mit Linux. In den Weiten dessen was man früher Blogosphäre nannte und heute wohl Twitter darstellt, ist man da eine Ausnahme. Die meisten öffentlichen schreibenden Personen haben sich vollständig einem System verschrieben.

Wenn man regelmäßig und praktisch über den Tellerrand schaut, merkt man wie sehr die Diskurse im Open Source-Bereich sich in einer sehr engen Filterblase bewegen. Viele Linux-Anwender benutzen kaum etwas anderes und wenn doch, dann mit der Überheblichkeit eines Missionars unter Heiden - unfähig die Vorteile und Potenziale zu sehen. Besonders putzig sind immer jene Kommentatoren, die sich über zu wenig Fakten und zu viel Meinung beklagen, weil sie Fakten nur als solche akzeptieren, wenn sie zu ihrer eigenen Meinung passen. Entwicklungen außerhalb des eigenen Universums werden kaum rezipiert, dauerhaft bestehende Probleme mit Workarounds begegnet (du brauchst eine separate Home-Partition, dann hast du keine Upgrade-Probleme etc. pp.), die kaum noch hinterfragt werden etc. pp.

In diese Filterblase breche ich gerne anlassbezogen mal ein.


Bilder:

Einleitungs- und Beitragsbild von Daniel Hansen via Unsplash

"






Kommentar: Der Stand von LibreOffice

LibreOffice ist die einzige komplette und freie Office Suite für den Linux Desktop. Andere Produkte wie Calligra decken lediglich Nischenbereiche ab oder sind wie Softmaker Office proprietär. Die Qualität von LibreOffice ist aber nicht so gut, wie oft dargestellt.

In meinem Kommentar zu LaTeX (siehe: Kommentar: LaTeX ist nicht die Lösung) war die harte Formulierung zum Zustand von LibreOffice eher als Aufhänger gedacht, da Probleme mit LibreOffice im wissenschaftlichen Bereich gerne mit einem Verweis auf LaTeX gekontert werden.

LibreOffice ist behäbig in der Anwendung und der Ressourcenverbrauch immens. Über die technischen Ursachen kann man sich streiten, aber Entwickler berichten teilweise von einer uralten Codebasis mit hohen Einstiegshürden. Im Gegensatz zu anderen Großprojekten der OSS-Welt hat man bei StarOffice/OpenOffice/LibreOffice halt nie eine Neuentwicklung gewagt. Während Microsoft, Apple und Softmaker ihre Suiten in den vergangenen 10 Jahren signifikant weiter entwickelt haben und Konzerne wie Google an Office als WebApp arbeiten, hat sich bei LibreOffice weniger getan als man vermuten möchte angesichts zahlloser veröffentlichter Versionen. Die nach vielen Irrungen und Wirrungen halbherzig eingeführte neue Oberfläche ist immer noch experimental, Impress und Base siechen vor sich hin. Die gesamte Suite gehört nicht zu den stabilsten Produkten auf dem Linux Desktop und den Sprung auf Mobilgeräte hat man gar nicht geschafft. Letzteres ist vor allem deshalb problematisch weil dadurch die OASIS-Formate weiter an Boden verlieren.

Viele Ergänzungen unter dem Blogartikel bezogen sich aber auf die Beurteilung von LibreOffice. Daher möchte ich das hier ein bisschen ausführen.

Mein Nutzungsszenario ist natürlich nicht ganz trivial, weil es nicht um den privaten Einsatz geht. Text-Dokumente sind beispielsweise gerne mal mehrere hundert Seiten lang, mit Fuß- und Endnoten versehen und werden über mehrere Jahre (das heißt auch Versionen) hinweg geschrieben. Umfangreiche Präsentationen mit vielen Bildern sind ebenso in Verwendung wie Excel-Tabellen mit zahlreichen Sheets und mehreren tausend Zeilen, sowie Formeln, Übernahmen etc. pp. Genau dafür sollte LibreOffice aber gemäß Außendarstellung geeignet sein.

Denn es gehört zu den Gemeinplätzen von Artikeln zum Einsatz von Linux zu schreiben, dass Office kein Problem ist, weil mit LibreOffice (früher OpenOffice) ein vollwertiger Ersatz zu MS Office existieren würde. Diese Beschreibung kann man so seit bestimmt 15 Jahren lesen und sie wird subjektiv immer weniger wahr. Als ich 2005 umstieg war der Unterschied zwischen MS Office 2003 und OpenOffice 2 in meiner Erinnerung nicht so gravierend wie heute das Gefälle zwischen MS Office 2019 und LibreOffice 6.

Vier Facetten

Oberflächlichkeiten

Das fängt schon bei der Oberfläche an. LibreOffice hat heute immer noch standardmäßig die Anmutung jener Oberfläche, die StarOffice bereits 1995 auszeichnete. Winzige Menüpunkte ohne Text in mehrere Reihen gegliedert. Einer immer älter werdenden und zunehmend konservativen Open Source-Anwenderschaft mag das benutzerfreundlich vorkommen, weil sie mit MS Office <2007 gelernt und die Anwendungsweise verinnerlicht haben. Kleine Symbole ohne Text in horizontalen Reihen sind jedoch alles andere als das. Das gilt umso mehr für Anwender, die mit MS Office nach 2007 gelernt haben (das sind auch schon 13 Jahre), wo es beispielsweise kontextabhängige Menüs und die Hervorhebung wichtiger Elemente gibt.

Die LibreOffice-Oberfläche wurde zwar unter Linux auf GTK 3 portiert, aber davon profitieren auch nur die GNOME-Anwender. Die Darstellung bei alternativen Oberflächen wie elementary OS oder Linux Mint ist immer noch hakelig - von Qt-basierten Umgebungen ganz zu schweigen. Die Darstellung unter macOS ist auch alles andere als sehenswert, geschweige denn an die Eigenheiten des Systems angepasst.

Zwar gab es Anläufe die Oberfläche zu überarbeiten, aber diese waren weder stringent, noch konsistent oder folgten einem sichtbaren Plan. Erst integrierte man die Seitenleiste von Lotus Symphony um dann zusätzlich noch eine Art Registerkarten anzubieten. Beides natürlich standardmäßig deaktiviert und auch nicht vollständig umgesetzt.

Interoperabilität

Der de facto Standard im Office-Bereich sind immer noch die OOXML-Formate von Microsoft. Das kann man bedauern, aber an denen kommt man nicht vorbei. Bei jedem neuen LibreOffice Release darf man lesen, dass wieder die In- und Exportfunktionen verbessert wurden. Trotzdem muss man nur mit Kommentaren und Änderungsverlauf arbeiten um jedes Dokument zuverlässig zu ruinieren. Gleiches gilt für die Darstellung mittel-komplexer XLSX-Dateien. Die Interoperabilität ist zudem auch noch deutlich schlechter, als bei Softmaker Office oder der Apple Works Suite. Vor allem Softmaker kocht hier definitiv auch nur mit Wasser und hat lediglich ca. 15 Mitarbeiter. Das darf man also durchaus kritisieren und der ständige Verweis auf den komplexen OOXML Standard erscheint da eher wie eine Ausrede.

Plattformen

Denn LibreOffice steht zwar auf dem Desktop für alle Systeme zur Verfügung: Windows, macOS, Linux, sogar FreeBSD und Konsorten. Den Sprung auf die mobilen Plattformen hat man aber nicht geschafft. Für Android gibt es lediglich den Viewer und das was Collabora da jüngst für iOS vorgelegt hat wurde in der weniger Linux-lastigen Welt zu Recht verrissen. Die Codebasis scheint eine Portierung auf neue Plattformen nicht so ohne weiteres zuzulassen.

OASIS verliert damit als Dateiformat weiter an Bedeutung, weil man im mobilen Bereich dann auf alternative Lösungen wie Softmaker Office HD oder WPS Office setzen muss - sofern man nicht gleich zu MS Office greift. Einmal erreichte Erfolge in der Akzeptanz und Verbreitung von OASIS macht man durch Untätigkeit auf den Feldern der Zukunft zunichte.

Eben jene kleinen Lösungen im mobilen Sektor wie die Produkte von Softmaker oder WPS zeigen, dass man nicht die Finanzmittel von Microsoft braucht um etwas akzeptables auf die Beine zu stellen.

Einzelne Programme und Stabilität

LibreOffice besteht wie die meisten Suiten aus mehreren einzelnen Bestandteilen. Diese kann man nicht alle gleich beurteilen. Während der Writer noch vernünftiges arbeiten zulässt sind andere Bestandteile von LibreOffice schon legendär abgehängt.

Dazu gehört nicht nur LibreOffice Base, das immerhin konkurrenzlos bei den MS Office Alternativen ist, sondern auch LibreOffice Impress ist immer wieder für einen Lacher gut. Ein Absturz einer Präsentation kommt immer gut bei Anwendern an, vor allem wenn sie anwendungsgemäß gerade vor Publikum stehen.

Überhaupt kann LibreOffice bei sehr großen Dateien zu einer unkalkulierbaren Geschichte werden. Es kann aber nicht die Aufgabe des Anwenders sein die Arbeitsprozesse an den Unzulänglichkeiten der Software auszurichten und große Dateien manuell in viele kleine Einzeldateien zu zerlegen um die Arbeit nicht zu gefährden. Je nach Erfahrung vermeiden zudem manche Updates, weil sie der Entwicklung nicht trauen, andere hecheln jedem Update hinterher in der Hoffnung auf Besserung. Eine solide Außendarstellung sieht jedenfalls anders aus.

Einordnung

Natürlich kann man froh sein, dass es überhaupt LibreOffice gibt. Es ist die einzige brauchbare freie Office-Suite. Ohne LibreOffice stände Linux auf dem Desktop sicherlich noch deutlich schlechter da. Der gesamte Bereich und insbesondere die Interoperabilität ist ein sehr schwieriges Feld, das nicht mal eben so erledigt werden kann, weil es hier mit einer einmaligen Migration nicht getan ist, sondern Dateien gewissermaßen jeden Tag erneut zwischen den Welten wandeln.

So lange man sich auf einer Linux-Insel bewegt und keine zu ambitionierten Projekte bearbeitet reicht es auch aus. Der Allgemeinplatz "Linux kann Office", der sich so, oder so ähnlich, in zahllosen Artikeln und Debattenbeiträgen - sei es zum privaten Einsatz, zur Wissenschaftlich, für Firmen oder im Öffentlichen Dienst - findet, ist trotzdem nicht wirklich haltbar.


Bilder:
Einleitungs- und Beitragsbild von andreas160578 via pixabay

"






Ein erster Blick in Kubuntu 20.04 &quot;Focal Fossa&quot;

Am 23. April 2020 werden Ubuntu und alle offiziellen Derivate in einer neuen LTS Version mit dem Namen "Focal Fossa" erscheinen. Traditionell einer der wichtigsten Termine im Linux-Kalenderjahr. Grund genug einen ersten Blick in Kubuntu 20.04 zu werfen.

Der Zustand von Kubuntu ist für mich immer noch sehr relevant, da es auf mehreren von mir betreuten Systemen läuft. KDE bietet mit Plasma einfach eine Oberfläche, die einen niedrigschwelligen Einstieg für Windows-Umsteiger bietet. Die KDE-Integration in Kubuntu ist seit 18.04 wieder solide (siehe: Kubuntu 18.04 LTS - Ein Ausblick) und bietet stabile Rahmenbedingungen für bis zu 3 Jahre. Die Beschränkung auf 3 Jahre erhöht aber die Relevanz jeder LTS-Version, da man anders als früher keine LTS mehr überspringen kann, sondern binnen 12 Monaten nach Veröffentlichung aktualisieren muss.

Die Kubuntu Maintainer sind schon relativ weit mit der Vorbereitung der LTS. Die aktuellen Images enthalten bereits die Entwicklungsversion von KDE Plasma 5.18, das als Desktopumgebung für den Release geplant ist. Der erfolgreiche Abstimmungsprozess zwischen Distributoren und KDE Entwicklern hat für Kubuntu die termingerechte Freigabe von neuen LTS-Versionen von KDE Plasma und den Frameworks zur Folge.

An der Oberfläche haben die Kubuntu Maintainer nur wenige Änderungen vorgenommen. Anwender profitieren daher umfänglich von den soliden Entwicklungsfortschritten bei KDE in den letzten zwei Jahren. Die Oberfläche erinnert stark an Windows 7 und 10 mit der breiten Symbolleiste unten, dem Startmenü links und dem Desktopshortcut ganz rechts.

Die enthaltene KDE Software entstammt ansonsten vor allem dem gebündelten Release vom vergangenen Dezember und ist somit auch aktuell. Kubuntu setzt weiterhin primär auf KDE-Produkte. Neu ist vor allem Elisa als Musikplayer. Ansonsten gab es kaum Änderungen in der Zusammenstellung. KDE-fremde Bestandteile bleiben auf Firefox, VLC und LibreOffice beschränkt, weil es in diesen Bereichen keinen adäquaten KDE-Ersatz gibt.

In der Paketverwaltung bietet man weiterhin Muon als klassische Oberfläche zur Paketverwaltung, zusätzlich zum KDE App Store Discover an. Auf Snaps verzichten die Kubuntu Entwickler, anders als die Maintainer anderer Derivate, vollständig in der Standardauslieferung.

Kubuntu 20.04 ist bereits zum aktuellen - noch sehr frühen - Entwicklungsstadium eine sehr solide Distribution und man kann dem kommenden April sicher optimistisch entgegen blicken.


Bilder:
Einleitungs- und Beitragsbild von Lars_Nissen_Photoart via pixabay

"






KDE Plasma erhebt Telemetrie-Daten

Die KDE Entwickler integrieren in Plasma mit der kommenden Veröffentlichung 5.18 das KUserFeedback Framework um mehr über seine Anwender bzw. die eingesetzte Software zu erfahren. Eine tiefergehende Integration in weitere Bestandteile wie z. B. KWin ist angedacht.

Die KDE Entwickler folgen damit einem Trend auch in Open Source Projekte mehr Daten zu erheben. Ubuntu hat dies in Version 18.04 vorgemacht (siehe: Kommentar: Datenerhebung durch Linux-Distributionen) und openSUSE erhebt ebenfalls schon länger rudimentär Daten.

Auch wenn man als Datenschutz-bewegter Mensch damit immer seine Probleme hat, ist die Datenerhebung nicht per se überflüssig. Die erste Auswertung bei Ubuntu (siehe: Warum Telemetrie-Daten notwendig sind) zeigte interessante Informationen über die eingesetzte Hardware. Details, die sich so aus den öffentlichen Äußerungen in der Linux-Community nicht ablesen ließen. Beispielsweise die Tatsache, dass sowohl die Anwender von wenig leistungsfähiger, veralteter Hardware, als auch die Nutzer von potenter Highend-Konfigurationen eine Minderheit darstellen.

KDE folgt bei seiner Implementierung einem strikten Opt-In Verfahren. Die Entwickler appellieren trotzdem an die Anwender teilzunehmen, quasi als Beitrag zu freier Software.

Es ist natürlich eine Gradwanderung für ein Projekt, das sich Privacy immer auf die Fahnen geschrieben hat (siehe: KDE gibt sich Ziele: Privacy) und die Shitstorm-Kultur kann ein Projekt schnell in Ungnade fallen lassen. Zumal wir erst kürzlich das Thema hatten wie schwer wirksame Anonymisierung von Daten umzusetzen ist. Letztlich müssen die Anwender den Entwicklern vertrauen (oder in den Code gucken) ob die Datenerhebung wirklich sauber ist. Bei Microsoft und anderen kommerziellen IT-Unternehmen fehlt dieses Vertrauen, wie man an der anhaltenden Kritik zu Windows 10 sehen kann. Hoffentlich verdienen die Open Source-Projekte mehr vertrauen.


Bilder:
Einleitungs- und Beitragsbild von kreatikar via pixabay

"






Mozilla plant Unterstützung von Bildformat AVIF für Firefox 76

AVIF ist ein neues Bildformat der Alliance for Open Media (AOMedia), der auch Mozilla angehört. Mozilla plant die Unterstützung des AVIF-Bildformates für Firefox 76.

Alliance for Open Media

Mozilla, Microsoft, Google, Netflix, Amazon, Cisco und Intel hatten sich 2015 zu einer Allianz zusammengeschlossen, um einen lizenzfreien Open Source Videocodec für das Web zu entwickeln. Mittlerweile gehören der Alliance for Open Media, kurz: AOMedia, noch viele weitere große Namen an, darunter Apple, Facebook, Netflix, Nvidia, AMD, ARM, Samsung, IBM, Tencent, Adobe, Vimeo, BBC, VideoLAN sowie viele weitere.

Video-Codec AV1

Ein Ergebnis dieser Zusammenarbeit ist der Videocodec AOMedia Video 1, kurz: AV1, den Firefox seit Version 65 offiziell unterstützt.

Eine der wichtigsten Eigenschaften von AV1 ist die Tatsache, dass es sich dabei um einen Open Source Codec handelt, der frei von jeglichen Lizenzgebühr-Ansprüchen ist. Nach Angaben von Mozilla kommt in 80 Prozent aller Videos, die wir uns im Web ansehen, patentierte Technologie zum Einsatz. Jedes Jahr werden von vielen Firmen viele Millionen nur dafür bezahlt, dass wir kostenlos Videos in hoher Qualität konsumieren können. Dieser Punkt entfällt mit AV1. Aber auch technisch ist AV1 der Konkurrenz überlegen und erreicht die gleiche Qualität wie H.264 bei nur halber Dateigröße.

Bildformat AVIF

AVIF steht für AV1 Image File Format und ist ein Bildformat, welches auf AV1 basiert und ebenfalls von AOMedia spezifiziert worden ist. Mozilla plant die Unterstützung von AVIF für Firefox 76. Ähnlich wie AV1 bei Videos verspricht auch AVIF bei Bildern bei gleichbleibender Qualität deutlich geringere Dateigrößen als konkurrierende Formate wie JPG oder WebP.

Firefox 76 wird nach aktueller Planung am 5. Mai 2020 erscheinen.

Der Beitrag Mozilla plant Unterstützung von Bildformat AVIF für Firefox 76 erschien zuerst auf soeren-hentzschel.at.






Template Zammad Reverse Proxy mit Apache

<VirtualHost *:80>
  ServerName ticket.domain.tld
  RewriteEngine on
  RewriteCond %{HTTPS} !=on
  RewriteRule ^/?(.*) https://%{HTTP_HOST}/$1 [R=301,L]
  ProxyPass / http://127.0.0.1:8090/
  ProxyPassReverse / http://127.0.0.1:8090/
  ProxyPreserveHost On
  ProxyAddHeaders On
  RequestHeader set X-Forwarded-Proto "http"
</VirtualHost>
<VirtualHost *:443>
  ServerName ticket.domain.tld
  ProxyPass /ws ws://127.0.0.1:8090/ws
  ProxyPassReverse /ws ws://127.0.0.1:8090/ws
  ProxyPass / http://127.0.0.1:8090/
  ProxyPassReverse / http://127.0.0.1:8090/
  ProxyPreserveHost On
  ProxyAddHeaders On
  RequestHeader set X-Forwarded-Proto 'https'env=HTTPS
  RequestHeader set X-Forwarded-Ssl on
  SSLCertificateFile /etc/letsencrypt/live/ticket.domain.tld/fullchain.pem
  SSLCertificateKeyFile /etc/letsencrypt/live/ticket.domain.tld/privkey.pem
Include /etc/letsencrypt/options-ssl-apache.conf
</VirtualHost>