Kategorie: IT

Projekt Phoenix

Das ist eine “Rezen­si­on”, die ich 2016-11-16 12:58:39+0100 bei Goog­le+ geschrie­ben hat­te. und nun aus Grün­den re-pos­ten möchte.

—–8<—–

Pro­jekt Phoe­nix — Der Roman über IT und DevOps

Die Sto­ry:
Der Held (Bill Pal­mer) wird anfangs zum IT-Chef (genau­er: VP IT
Ope­ra­ti­ons) der Fir­ma Parts Unli­mi­ted beför­dert — eigent­lich läßt er
sich eher breit­schla­gen, die­sen Pos­ten zu über­neh­men. Parts Unlimited
ist eine Zulie­fer­fir­ma (Auto­bau?, das wird nicht genau­er erklärt) und
hat ca. 4000 Mit­ar­bei­ter. Der Fir­ma geht es nicht gut, die Konkurrenz
ist schnel­ler und beweg­li­cher. Des­halb wur­de das Pro­gramm Phoe­nix ins
Leben geru­fen, das nun alles ändern soll. An Phoe­nix hängt die Zukunft
der Fir­ma. Phoe­nix selbst ist en gro­ßer Klum­pen aus Prozessen,
Ver­ant­wort­lich­kei­ten — und eben auch (selbst­ge­schrie­be­ner) Software.
Sehr viel hängt dabei von der völ­lig über­for­der­ten IT ab.

Der ers­te Teil des Romans führt die han­deln­den Per­so­nen ein, und
illus­triert ansons­ten die depri­mie­ren­de Situa­ti­on in der Fir­ma. Auf jede
Kata­stro­phe folgt eine noch grö­ße­re Kata­stro­phe. Bill ver­sucht zu
ret­ten, was zu ret­ten ist, aber die ihm zur Ver­fü­gung ste­hen­de Zeit ist
ein­fach zu kurz. Natür­lich lei­det auch sei­ne Fami­lie. Am Ende wird das
Pro­jekt Phoe­nix mit Schma­ckes gegen die Wand gefah­ren (erin­nert sich
jemand an die zusam­men­stür­zen­de Seil­bahn bei Alexis Sor­bas — genau so!)
Ver­ant­wort­lich letzt­lich ist der völ­lig inkom­pe­ten­te CEO der Fir­ma, der
sämt­li­che War­nun­gen Bills in den Wind geschla­gen hat. Bill kündigt
daraufhin.

In Teil 2 wird genau der­sel­be CEO über Nacht geläu­tert und sieht seine
Feh­ler ein. Bill wird wie­der ein­ge­stellt und bekommt fak­tisch freie
Hand. Bereits im vori­gen Teil tauch­te ein Auf­sichts­rats-Kan­di­dat auf:
Erik, der fort­an als Bills Men­tor auf­tritt. In den Gesprä­chen zwischen
Erik und Bill geht es immer dar­um, ers­tens die IT als Pro­duk­ti­on zu
ver­ste­hen und zwei­tens Bill begreif­lich zu machen, daß er die
Gesamt­or­ga­ni­sa­ti­on im Blick haben muß, nicht nur die IT. Dabei ist Erik
eine merk­wür­di­ge Mischung aus einem wei­sen alten Kungfu-Leh­rer und
Sokra­tes (Mäeu­tik) In die­sem zwei­ten Teil schafft Bill es, die
wich­tigs­ten Eng­päs­se zu loka­li­sie­ren und beginnt mit ihrer Beseitigung.

In Teil 3 dann wird die Ern­te ein­ge­fah­ren, die in Teil 2 gesät wurde.
Alles wird fein, die Fir­ma läßt die Kon­kur­renz hin­ter sich, Bill steht
eine glän­zen­de Kar­rie­re an der Fir­men­spit­ze in Aussicht.

Mein Senf:
Ein grau­en­voll schlech­ter Roman. Die han­deln­den Per­so­nen sind allesamt
Kli­schees, die Hand­lung ist völ­lig vor­her­seh­bar, die Per­so­nen entwickeln
sich nicht. Die plötz­li­che Läu­te­rung des CEOs über Nacht wird weder
her­bei­ge­führt noch irgend­wie begrün­det. Es ist ein­fach pas­siert. Die
Dia­lo­ge sind schmerz­haft gestelzt und könn­ten einer Image-Kam­pa­gne für
irgend­was ent­nom­men sein. Kei­ne Les­emp­feh­lung von mir.

Es sei denn, man hat irgend­wie mit IT und Ent­wick­lung zu tun. Der Autor
ist ehe­ma­li­ger Mit­grün­der von Trip­wire und ver­steht also etwas vom
Gegen­stand des Buches: Wie baue ich ein funk­tio­nie­ren­des Softwareprodukt
in mög­lichst kur­zer Zeit? In Teil 1 wird die Ist-Situa­ti­on dargestellt:
ein ein­zi­ges Kud­del­mud­del. Jeder Ent­wick­ler darf über­all­hin einchecken,
es gibt kei­ne sta­ble bran­ches, CI/CD gibt es auch nicht, keine
defi­nier­ten Test­um­ge­bun­gen usw. usf. Ab der Bestands­auf­nah­me und auch
im gan­zen Teil 2 kommt Erik die Rol­le zu, Bill und damit dem Leser die
Prin­zi­pi­en von Dev­OPs nahe­zu­brin­gen. Dabei tritt er wie ein asiatischer
Guru auf. Teil 3 spielt gar kei­ne Rol­le mehr, der ist nur fürs Happy
End zustän­dig. Und da könn­te dann auch der Lese­ge­winn für den
inter­es­sier­ten IT-ler/­Ent­wick­ler lie­gen: die Her­lei­tung von modernen
Prin­zi­pi­en in der Soft­ware-Ent­wick­lung. Nur ist die Fra­ge, ob man dafür
nicht bes­ser ein tro­cke­nes Lehr­buch gele­sen hät­te. Apro­pos Lehrbücher:
Die (es sind eini­ge) wer­den auch kurz gewür­digt, da tau­chen dann
pene­trant sol­che Epi­the­ta wie “weg­wei­send, fantastisch,
beein­dru­ckend…” auf. Nicht mein Ding jedenfalls.
Offen­sicht­lich aber woll­te der Autor (genau­ge­nom­men die 3 Autoren) einen
Roman und kein Lehr­buch schrei­ben. Der Roman, der dabei herausgekommen
ist, ist lei­der eine Ent­täu­schung geworden.

Anhang:
Das bezieht sich alles auf das Ebook bei Ama­zon, und das ist leider
lieb­los gemacht. Kei­ne Sil­ben­tren­nung, aber Block­satz, dadurch teils
häß­lich gro­ße Wort­ab­stän­de. Völ­lig unmo­ti­vier­te kur­siv gesetzte
Pas­sa­gen, meist am Absatz­an­fang. Scha­de, von O’Reil­ly darf man
mehr Sorg­falt erwarten.

—–8<—–

#aus­ge­le­sen

Heimrouter ein LE-Zertifikat verpaßt

Seit län­ge­rem schon wer­den die gro­ßen Brow­ser immer ping­li­ger bei Zer­ti­fiak­ten: Selbst­si­gnier­te mögen sie nicht, neu­er­dings sol­che mit Lauf­zei­ten von > 395 Tagen, wenn der CN bzw. SAN nicht stim­men; wer weiß, was nächs­ten Monat passiert.

Also habe ich es nun end­lich in Angriff genom­men: Dem Rou­ter­chen im Kel­ler ein sau­be­res Zer­ti­fi­kat geben. Da ich sowie­so schon über­all ein Wild­card für *.sokoll.com ver­wen­de, war­um nicht für den Rou­ter? Also zunächst im DNS den Rou­ter bekannt machen (eigent­lich fin­de ich pri­va­te Adres­sen im DNS uncool, aber nun ja)

~$ host homerouter.sokoll.com
homerouter.sokoll.com has address 192.168.1.254
~$

Das war schon mal einfach!
Nun noch schnell das Zer­ti­fi­kat rüber­schie­ben. Das macht dann der Raspi daneben:

root@r4:~/bin# cat le_for_router.sh
#!/bin/sh
rsync -aL big.sokoll.com:/etc/dehydrated/certs/wildcard_sokoll.com/{fullchain,privkey}.pem /tmp/
cat /tmp/privkey.pem /tmp/fullchain.pem > /tmp/server.pem
rsync -a /tmp/server.pem 192.168.1.254:/etc/lighttpd/ 2>/dev/null
ssh 192.168.1.254 'kill -SIGINT $(cat /var/run/lighttpd.pid) ; /usr/sbin/lighttpd -f /etc/lighttpd/lighttpd.conf' 2>/dev/null
rm /tmp/*.pem
root@r4:~/bin#

Dum­mer­wei­se inter­es­siert ein SIGHUP den ligh­ty über­haupt nicht, so daß man ihn töten und hin­ter­her neu star­ten muß. Das gan­ze wird dann ein­mal täg­lich via cron aufgerufen.
Ich soll­te noch etwas verschönern:Wenn sich das Zer­ti­fi­kat nicht geän­dert hat, kann man eigent­lich gleich nach dem ers­ten rsync aufhören.
Das wird dann Ver­si­on 0.0.1 😉

 

Netcup, Snapshots

Mein root-Ser­ver bei #Net­cup läuft auf Ubun­tu 18.04, ich wür­de ihn gern auf ein aktu­el­les 20.04 hoch­zie­hen. Aber mit Sicher­heits­netz, sprich: Mit einem Snapshot, auf den ich im Fal­le eines oder meh­re­rer unlös­ba­rer Pro­ble­me zurück­sprin­gen kann. Ich bin bei IT, ich bin feige…
In mei­nem bis­he­ri­gen Leben hat­ten Snapshots genau eine anfäng­li­che Grö­ße: 0 Bytes.
Nicht so schein­bar bei Net­cup, da ist ein Snapshot genau so groß wie das zu snaps­hot­ten­de System:


Obwohl beken­nen­der Grammar-Nazi, las­se ich mal die mehr­fach krea­ti­ve Kom­ma­set­zung unkommentiert…

Bleibt fest­zu­hal­ten: Net­cup kann kei­ne Snapshots. Das ist sehr schade.

Linux die harte Tour

Kol­le­gen, von Win­dows kom­mend, bau­en einen Apa­che für Unix, in die­sem Fal­le Sola­ris, aber egal. Nach dem erfolg­rei­chen Build wird alles in ein Archiv gepackt und ausgeliefert.
Da gibt es dann ein Ver­zeich­nis lib/ mit Sym­links drin. Da die Kol­le­gen von Win­dows kom­men, erstel­len sie das Archiv mit zip (1) — das kennt aller­dings kei­ne Sym­links, weil DOS.
Und so gehen die Sym­links ver­lo­ren und statt der neu­en schi­cken Libs ver­wen­det der Apa­che irgend­wel­che schimm­li­gen aus dem Betriebs­sys­tem. Und funk­tio­niert nicht wie erwartet.

Never use zip!

The power of hard links

Wie­vie­le Datei­en sind eigent­lich in die­sem Ver­zeich­nis und sei­nen Unterverzeichnissen?

root@r4:/usbdisks/rsnapshot# find . -type f | wc -l
105192958
root@r4:/usbdisks/rsnapshot#

105 Mil­lio­nen!

Ach nein, die Fra­ge ist: Wie­vie­le Datei­en sind eigent­lich in die­sem Ver­zeich­nis und sei­nen Unterverzeichnissen?

root@r4:/usbdisks/rsnapshot# find . -type f -links 1 | wc -l
6026471
root@r4:/usbdisks/rsnapshot#

6 Mil­lio­nen…

Don’t be evil, E2E bei WhatsApp und die Kinder bringt der Klapperstorch

Eini­ge ame­ri­ka­ni­sche Bun­des­staa­ten kla­gen gegen Google.

Kla­ge­schrift beim texa­ni­schen Gene­ral­staats­an­walt, loka­le Kopie.

Der Ham­mer steht auf Sei­te 57:

Goog­le also has vio­la­ted users’ pri­va­cy in other egre­gious ways when doing so is con­ve­ni­ent for Goog­le. For instance, short­ly after Face­book acqui­red Whats­App, in 2015, Face­book signed an exclu­si­ve agree­ment with Goog­le, gran­ting Goog­le access to mil­li­ons of Ame­ri­cans’ end-to-end encryp­ted Whats­App messages, pho­tos, vide­os, and audio files.

Das bedeu­tet nicht mehr und nicht weni­ger, als daß es kei­ne E2E-Ver­schlüs­se­lung gibt, und daß Face­book eure ganz per­sön­li­chen Chats, Fotos usw. an Goog­le ver­kauft, jeden­falls 2015 einen sol­chen Ver­trag geschlos­sen hat, ganz sicher­lich in der Absicht, ihn auch zu erfüllen.

Ehr­lich gesagt: Face­book steht auf mei­ner per­sön­li­chen Inte­gri­täts­ska­la auf einer Stu­fe mit Hüt­chen­spie­lern und Gebraucht­wa­gen­händ­lern, aber DAS über­rascht mich dann doch. Und Goog­le auch.

Bn ja gespannt, was dar­aus wird. Es kla­gen die Bun­des­staa­ten Texas, Arkan­sas, Ida­ho, India­na, Ken­tu­cky, Mis­sis­sip­pi, Mis­sou­ri, Dako­ta, Utah. Da wird Goog­le kaum mit einem Deal rauskommen?

RSS/Atom, die mißachteten Kinder

Vor­hin las ich einen hüb­schen Arti­kel von Flo­ri­an Frei­stet­ter auf spektrum.de und dach­te mir so, die Sei­te sieht ganz inter­es­sant aus, soll­te ich mal abon­nie­ren. Es gibt kei­nen Link auf einen Feed, den ich abon­nie­ren könnte.
Der Quell­text ver­rät dann die Links zu den ein­zel­nen Feeds.

Herr­gott­noch­eins, ich will euch nicht auf Face­book fol­gen, auch nicht auf Tin­der oder Twit­ter oder Insta­gram — all die­sen Deppenpattformen!

Nun ist das nicht spe­zi­fisch für spektrum.de, es gibt ganz vie­le mehr oder min­der inter­es­san­te Sei­ten, die Feeds anbie­ten, aber verbergen.

War­um?

Neuer Privoxy

Hm, die release notes:

Pri­v­o­xy 3.0.29 sta­ble fixes a cou­p­le of memo­ry leaks and introduces
htt­ps inspec­tion which allows to fil­ter encryp­ted requests and
responses.

Mit ande­ren Wor­ten: mitm eingebaut.
Ich ver­ste­he die Inten­ti­on, aber will man das wirk­lich? (Ich set­ze Pri­v­o­xy in mei­nem Heim-Set­up ein, das funk­tio­niert wirk­lich gut, in Ver­bin­dung mit den Adblock-Fil­ter­lis­ten — da kann piho­le nur weinen 😉

Der Pro­xy wird via DHCP verteilt:

pi@raspberrypi:~ $ grep sokoll-proxy /etc/dhcp/dhcpd.conf
option sokoll-proxy code 252 = text;
option sokoll-proxy "http://wpad.sokoll/proxy.pac";
pi@raspberrypi:~ $

Mit rich­ti­gen Rech­nern (Linux, MacOS) funk­tio­niert das gut, bei IOS muß man den Pro­xy umstel­len auf “auto­ma­tisch”, Android inter­es­siert sich über­haupt nicht dafür, son­dern möch­te den Pro­xy hart ein­ge­tra­gen haben.
Ich hab’ das jetzt nicht nach­ge­le­sen, aber für die­ses Fea­ture wird man auf den Cli­ents sicher­lich eine eige­ne Fake-CA ein­spie­len müs­sen — nichts, was ich ver­ant­wor­ten könn­te, weder auf Arbeit noch der Fami­lie gegenüber.
Ich gebe zu, daß mich das aus tech­ni­scher Sicht reizt.…

#pri­v­o­xy #pri­va­cy

Elektriker hier?

Von Strom weiß ich soviel, daß zuviel davon viel Aua macht.
Im Haus habe ich Außen­ja­lou­sien, die wer­den mit einem nor­ma­len Unter­putz-Schal­ter geschaltet:

Das schreit natür­lich danach, der Haus­au­to­ma­ti­sie­rung vor­ge­wor­fen zu wer­den, dabei muß es aber immer mög­lich blei­ben, die Jalou­sien wei­ter­hin mit klas­si­schen Schal­tern zu schalten.

Da bin ich auf Shel­ly gesto­ßen, das von HA unter­stützt wird.

Könn­te das was werden?