So, moin.
Moin!
Also heute ist eine verspätete Aufnahme, weil ich war am Wochenende in Berlin.
Das heißt jetzt haben wir den 9.9.
ein völlig unaufgeregter Dienstag.
Moin Thomas!
Moin Andrej
Dann lass mal richtig starten.
Du wolltest ein kleines Vorlaub machen zum Delta-Chat-Thema.
Hat das Vorlaub damit was zu tun, warum ich die ganzen DNS-Einträge setzen musste?
Okay.
Wobei, es war eigentlich eine willkommene Ausrede schon fast.
Also, dich darum zu bitten, die DNS-Einträge mal zu setzen, weil wir hatten sie von Anfang
an nicht gesetzt.
Das geht jetzt hier um die ganzen Spam-Vorrichtungen, genau, DKIM.
Und die Mark.
Wir hatten halt nur so das rudimentäre MX, SBF und so gesetzt.
Genau, was wollte ich noch sagen?
Also kleiner Follow-up zu DeltaChat vom letzten Mal.
muss mich nämlich zum einen mal korrigieren.
Ich sagte beim letzten Mal, Notifications gibt es bei DeltaChat nur mit, wenn du den
Chatmail Server verwendest, also einer dieser offiziellen sozusagen Accounts.
e-Mail Server da.
Genau.
Ich habe jetzt tatsächlich durch Zufall nur herausgefunden, dass das gar nicht stimmt.
Und zwar kannst du dir in deinem die Statistik anschauen und du siehst unter anderem den
Speicherverbrauch, also wie viel Platz du belegst mit deinem Mailkonto.
Unter drunter siehst du auch die letzten X, ich glaube es waren so 3, 4, 5, Chacks, ob es
neue Nachrichten in diesem Account gibt.
Das heißt, DeltaChat sagt dir im Grunde, zuletzt habe ich, ja ich rufe das mal ganz kurz
auf, zack, Konto.
Genau, Einstellungen.
Dann gibt es da nämlich Connectivity und unter Connectivity sieht man Incoming Messages,
ist man connected, also Inbox connected, Notifications connected, Last Messages sent
successful ist, so als Statusinformation, grünes Häkchen daneben sozusagen.
Und darunter gibt es auch die Informationen, wie viel Storage belegt ist.
Wenn du das jetzt aber bei einem Konto machst, also das ist, so sieht es aus, beschrieben,
wenn
Wenn du das auf einem Chatmail-Account machst, machst du das auf einem
Nicht-Chatmail-Account, siehst du bei Notifications eben nicht Connected, sondern du
siehst Checked-At und dann, wir sind jetzt gerade bei 17.16 das heißt an der Stelle hast
du zum Beispiel Checked-At 17.13, 16.53, 16.31, On Average, genau der Polled und schreibt
dir dann On Average Every 15 Minutes.
Also wie ein E-Mail kleint halt der dann alle x Minuten.
Was haben wir mal...
ja schon drüber gesprochen, ob Apple Mail wohl irgendeine Sonderlocke da hat, es dieses
Polling durchführen kann.
Nö, anscheinend nicht.
Es macht DeltaChat ganz genauso.
somit, also für jemanden, der so responsiv ist wie ich bei Chatnachrichten, reicht das
vollkommen.
Ist nicht umsonst asynchron.
Genau, also kann man durchaus auch im Betracht ziehen tatsächlich mit DeltaJet und
normalen E-Mail Konten zu arbeiten, wenn man mit diesem Delay in Notifications leben kann.
Wenn man die App offen hat, dann ist sie econnected und dann kriegt man es sofort mit,
Nachrichten reinkommen.
Also alles gut.
Dabei ist mir aber Folgendes noch aufgefallen.
habe dazu nämlich tatsächlich noch mal einen Account eingerichtet hier und da und ich bin
hängen geblieben beim Account ein.
Also nicht beim Account einrichten bin ich hängen geblieben, sondern beim
Kontakt herstellen.
Ich habe jetzt also diesen regulären E-Mail-Account genommen, auf der einen Seite und auf
der anderen Seite einen Chatmail-Account und habe dann einen Invite-Link rübergeschickt
und mit dem Invite-Link wollte ich dann quasi den Kontakt herstellen.
Und dann stand da eine Meldung, so von wegen dauert eine Sekunde, die
Ende-zu-Ende-Verschlüsselung aufzubauen.
Das ging aber nicht weg.
War keine Sekunde, ja leider ging nicht weg.
Und ich hab...
Also man kann dann auch tatsächlich in der Situation erstmal nichts machen.
Du siehst auf beiden Seiten nicht, dass irgendwas nicht funktionieren würde.
Beide Clients sind connected.
Ich hab mich mal mit einem normalen E-Mail Client auf der Seite des normalen E-Mail
Accounts eingeloggt und dann hab ich Mailer die Nachrichten gesehen.
Genau.
Da kam also Chatmail hat quasi die E-Mail rejected.
weil es kein DGAM Eintrag gab.
Also hier, wie heißt das?
Domain Keys Identified Mail, wenn ich mich recht erinnere.
Also im Grunde eine Spam-Maßnahme, die du wieder über DNS-Einträge steuerst, die fehlte
bei uns eben, weil wir es am Anfang nicht eingerichtet haben, haben wir nachgeholt bei der
Gelegenheit mit noch weiteren Einträgen, eben die Mark und diesem ganzen Auto-Config-Part.
Genau.
Und das hat dann dazu geführt, dass das dann funktioniert hat.
du musst dann den Versuch noch neu starten.
Also da gibt es jetzt kein Auto-Retry.
Genau.
Und dann lief alles und seitdem funktioniert das einfach frei.
Man kann sich hin und her Nachrichten schicken und wie gesagt, Notifications sind halt
verzögert, aber es funktioniert problemlos.
Da aber natürlich die Erkenntnis wieder, E-Mail als Transport ist, ja, es bringt dir schon
viel mit.
Aber du hast relativ wenig Kontrolle natürlich darüber.
Klar, E-Mail, also DeltaChat hätte jetzt die Nachricht auch, also hätte auf Mailer, die
Nachrichten hören können, explizit danach suchen können und hätte sie versuchen können zu
interpretieren, aber die sind halt auch nicht 100 % durchstandardisiert.
Das heißt, das Layout dieser Nachrichten, es ist nicht gebaut für automatisches Parsen.
Dementsprechend
Human readable synths, mehr oder weniger, wenn du weißt, wonach zu scannen hast, wenn du
die Nachrichten vor dir siehst.
zur automatischen Auswertung eher nicht geeignet und das ist natürlich ein kleiner
Fallstreck für diesen Anwendungsfall.
Dann wäre ich ja mal gespannt, du mit einem Microsoft, ist jetzt egal ob hier Hotmail,
MSN, Office 365, Outlook.com oder wie sie alle heißen, ob das damit geht, weil damit habe
ich ja persönlich die schlechtesten Erfahrungen gemacht mit, selbst mit einem internen
Exchange.
Die rejecten ja so viel und das kriegst du ja als Admin teilweise noch nicht mehr mit, da
musst du in so ein spezielles Log gucken irgendwo in so einem Interface und dann siehst du
das und dann sagst du aha, danke wollte ich eigentlich nicht, danke Microsoft.
wahrscheinlich in dem Fall dann bei solchen E-Mail Accounts weniger das Problem, dass
deine E-Mail an ein Chatmail durchgestellt wird, das vielleicht schon eher, aber dass
E-Mails von Chatmail-Servern aus Gründen rejected werden.
Also ich habe halt, ich weiß nicht ob ich das letzte Mal erzählt habe, die...
wir unseren eigenen oder ich habe ja meinen eigenen Mailserver und das glaube ich auch
ein.
Ich habe so einen Mailcouse Server.
Den nutze ich auch für meinen Blog.
Dort habe ich dann ein Mail Setup für...
mal Marker im Moment.
So, Data Chat ist done.
Aber Mail generell, da habe ich einen Mailcouse Server, weil das recht cool aufzusetzen
ist in meinen Augen, relativ easy.
Und das Updaten und so weiter, das ist alles ganz gut.
Alles zusammen verflochten, die ganzen...
Komponenten dieser Mesaver mitbringt und es gibt bei Hetzner ja so eine Anleitung wie du
mit Microsoft umzugehen hast.
Bei Microsoften wohl nicht so cool drauf ist.
Und zwar, ich erinnere mich noch damals als wir bei Model Aachen gearbeitet haben, da
hatten wir auch mal ein paar Jahre, acht Jahre oder so, hatten wir auch einen Exchange und
dort gab es unser eigenes Software, ein Wiki.
Und die hat immer so Links verschickt, so Standardemails, so ein Template hatten.
war nur ein Link drin, hey, diese Seite hat sich aktualisiert.
Und unser eigenes Domain wurde rechecked.
Das war halt fürchterlich.
Wir mussten alle paar Monate da dran, diesen Mesauber zu sagen, nein, unser Domain ist
tatsächlich gewidelistet.
Ja, auch dieses Mal.
Und Microsoft ist, wenn sich E-Mail-Inhalt sehr ähnelt und dann da nur was anderes drin
ist, wie zum Beispiel ein Login-Link.
Was bei mir der Fall war, meine Ghost User, es gibt nämlich kein Usernennpassword, die
machen Magic Links.
Das heißt, die kriegen diesen Link geschickt und darüber authentifizieren sich, kriegen
eine Kugel gesetzt und dann können die in meinem Blog halt browsen oder Kommentare setzen,
was auch immer.
Aber das kommt halt bei Hotmail, bei Office 365, bei den ganzen Konsorten von Microsoft
ganz häufig nicht an und dann musst du jedes Mal mit denen in Support gehen.
Und dann hättest da so eine schöne Anleitung.
...
machen Ticket auf, hier und auf der Seite.
Dann steht da, das wird rejected, dann schreibst du Folgendes.
Also, die wissen schon ganz genau, wie das läuft ...
und Microsoft ist da einfach eine Katastrophe.
Bisschen Gatekeeping.
Als Hoster hat man tatsächlich leider Kontakt mit solchen Themen, weil du hast natürlich
große Adressbereiche, hast eine gewisse Fluktuation von Kunden.
Dann hast du auch mal wirklich irgendwo so einen Kunden dazwischen, der vielleicht mal ein
bisschen Spam rausschickt oder Mail, die als Spam klassifiziert werden kann.
Und dann wird vielleicht auch schon mal etwas, also irgendwann etwas großzügiger
Netzbereiche geblacklisted und dann stehst du da.
Ich habe ja nur eine IP-Adresse, die ist auch sauber, damit mache ich auch nichts.
Die habe ich auch schon seit Jahren.
Die hatte ich schon vor dem Maze Server genutzt als normale Server-Adresse.
Ich habe die dann behalten, weil die halt sauber ist.
Und dann dachte ich, ich, laufe ich da meinen Maze Server drauf?
Lass ich meinen Maze Server drauf laufen.
Aber trotzdem alle paar Morte muss ich bei Microsoft wieder an der Tür klopfen und sagen,
bitte mach mein IP wieder frei, weil das ist nur ein Login-Link.
Bitte, bitte, bitte, bitte.
Und dann klappt es oder klappt es nicht.
Hängt es halt nicht hinter.
Ja, die Freuden der Mail Server Administration.
Wobei die Mailcow Leute nehmen einen da schon viel ab.
Also die Anleitung ist von Mailcow und von Hetzner diesen Top.
Genau unsere Smart Hütte die läuft auf eine mailu.
Das ist ja ein relativ ähnliches Projekt.
Also Mailcow startete meine ich sogar mal nicht dockerisiert und dann gibt es jetzt ja
dieses Mailcow dockerize also jetzt ist gut.
Das gibt es schon sehr sehr viele Jahre.
und mailu macht das ähnlich also die die machen halt auch dockerisiertes Mail Server.
Ich meine mailu hatten etwas
anderen Ansatz.
Sie sind etwas leichtgewichtiger.
Mail.co liefert dir dann halt auch wahrscheinlich halbwegs optional, aber die liefern dir
halt so eine Groupware mit, eine Sogo zum Beispiel, und dann kannst du den Kalender alles
mitmachen.
Mail.u ist wirklich mehr auf E-Mail fokussiert.
Und das haben wir auf dem Server am Laufen.
Und an der Stelle aber auch ein Lob an die Jungs, die das gebaut haben.
Also sowas wie Decim zu aktivieren, das ist super trivial.
Also du gehst dann auf die Domain, da gibt es so eine Übersichtseite, dann gibt er dir
alle Einträge, die du irgendwie setzen solltest und teilweise checkt er sogar, ob sie
gesetzt sind.
Also sowas wie SPF, das checkt er auch.
Und er generiert dir alle Einträge und dann hast du einen Button mit Regenerate Keys und
dann hast du den ganzen dicken Kram.
Ja, die gleiche Schose hast du auch beim Echo.
Hast dann so eine schöne Liste, musst dann die Enträge setzen, dann kannst du auf Recheck
drücken und dann checkt er halt.
Dauert halt bei DNS manchmal länger, ne?
Kommt ja darauf an, wo du bist und wie die Propagation gerade läuft, ne?
Das Verteilen der DNS-Einträge über alle, über aller Welt.
We know.
kurzer Exkurs zum Email.
So, jetzt mal ein Marker, weil ich habe jetzt noch einmal das Zigbee Stick Thema, das hat
mir vor einigen Folgen mal aufgegriffen.
Und zwar hattest du dir jetzt ein SLZB-MR1 gekauft.
Den hast du ja mitbestellt.
Ich habe ja schon ein, das geht runter von der Zunge, SLZB-06P7.
Das ist ein älteres Modell, hat eine Antenne.
Den habe ich schon länger als Koordinator laufen.
Funktionen auch super mit Zigbee2MQTT in Home Assistant.
Den wollte ich oder anders, wollte meinen Zigbee Netzwerk ein bisschen in der anderen
Etage stabiler machen.
Dann dachte ich, ich den anderen Stick, den ich als erstes genannt habe, nehmen.
Der hat nämlich Zigbee und Meta.
Dann dachte ich, cool, dann kann ich den als Router laufen lassen.
Und da hatten wir kurz die Thematik, dass wir nicht ganz klar waren, können wir denn, wenn
wir sie als Router laufen lassen, weil der auch PoE hat, das Ethernet nutzen und stellt
sich raus, das hat ganz wenig Bedeutung, weil im Endeffekt, nö.
Steht auch auf deren Webseite drauf.
Wenn man das als Router laufen lässt, dann ist das halt einfach nur im Funknetz das
Dickbees unterwegs.
Das einzige, wofür das Ethernet benutzt werden kann, ist halt das Management Interface und
Wenn man da jetzt nicht oft drauf braucht, dann kann man das mit Wifi machen.
In der Theorie stört sich das ja mit...
Zigbee ist ja auch 2,4 Aber die 3x die man da drauf muss für Updates ist auch nicht so
wild.
Ja, das stimmt.
hatte ich die Frage, wie man den einbindet.
Ich habe es heute probiert und nicht geschafft.
man kann den...
Der hat zwei Chips, deswegen kann er ja Meta und Zigbee.
Das ist ja aktuell mit einem Chip noch sehr buggy.
Und ich weiß gar nicht, ob die Entwicklung da weitergeht.
Daher haben die dann das Produkt gebaut, was dann halt zwei Chips hat.
Einen für Meta, einen für Zigbee.
Und dann habe ich die Firma geflasht.
über das Webinterface, die für den Router zuständig ist.
Und ich krieg den nicht ins Netzwerk integriert.
Es gibt unter Settings, General Settings, kann man dann so einen Button klicken, irgendwie
Reconnect heißt der, glaub ich, bei mir mittlerweile.
Oder Connect to ZigBee, wenn man das noch nicht gemacht hat.
Ich krieg's aber bis aufs...
Nee, ich krieg's nicht hin.
Es funktioniert einfach nicht.
Ich hab jetzt noch im Forum mal gefragt, im Home Assistant Forum, da meinte jemand, ich
soll eine...
Aktuellere firmen installieren die habe ich aber nicht zur auswahl Also nicht zumindest
nicht so ausweiten web interface von dem stick selbst und dann hat er einen link geschickt
zu dem Ja zu so einem repositori wo ganz viele firmen für die ganzen sticks sind auch
unterschiedliche versionen Aber hier ist man wenn ich das runter lade kriegt nur eine hex
datei und kein binary und ich weiß ich nicht ob ich das selber compile muss oder nicht da
bin ich gerade noch also da hat es bei mir gestoppt dann haben wir quasi angefangen mit
der folge hier
Hast du da schon ein bisschen was gemacht zu dem Stick?
Oder hast du den EJUZ-Coordinator laufen?
die Glocke.
Ich kurz weg.
Ich weiß nicht, was du mitgekriegt hast.
Ich habe irgendein Shortcut ausgelöst.
Damit war mein gesamtes Audio weg.
Hoppela.
ich wollte dich fragen, du hast ja auch den gleichen Stick jetzt.
Du wolltest den allerdings als Koordinator nutzen, oder?
Ja, das war die Geschichte.
wollte ihn ursprünglich mal überlegt, weil es räumlich eine etwas größere Trennung ist,
zwei getrennte Netze voneinander aufzubauen.
Ich habe es nicht gemacht, weil tatsächlich das eine Netz Hue-Lampen, hat gut
funktioniert.
Also ich habe es jetzt immer noch im Einsatz und es funktioniert eigentlich sehr stabil.
Also hast du ein Netz jetzt und er ist der Koordinator.
Genau und nur einen im Einsatz.
Der zweite liegt tatsächlich hier noch im Karton.
Aber da kommt mir jetzt gerade die Frage, ich hatte ja das Problem zumindest seitdem die
Jübirnen drin sind, eventuell auch vorher schon, dass ich zum Anlernen nah an den
Koordinator ran muss.
Hast du das mal probiert, dass du mit dem zweiten...
miteinander, also die sind sehr nah nebeneinander.
Ich hab extra von unten hochgeholt, um dieses Problem halt auseinander zu...
oder rauszunehmen.
Ja.
Ok, skurril.
Nee, da kann ich leider nichts zu sagen.
Ich finde das noch ein bisschen verwirrend mit den ganzen Firmwares, weil da gibt es dann
irgendwie eine, die heißt Launchpad-Firmware und eine heißt Other Router-Firmware.
so, okay, was ist das?
Und dann gab es dann GitHub-Issues zu, von wegen, ja, steht auch da, was die
Launchpad-Firmware ist, aber...
Eben bin ich zu doof, blind oder...
ja, weiß ich nicht.
Ich hab's noch nicht rausgefunden.
Ich finde es auf jeden Fall auch noch ein bisschen...
Es ist unübersichtlich.
Du hast halt irgendwo eine Liste an Firmware und musst dann daraus rausfischen, welche du
installieren möchtest.
Aber in der Liste sind Firmware drin, wo ganz explizit dran steht, das ist experimentell,
das ist mehr so für Dev.
Und du musst dann wirklich...
Also es gibt keinen eindeutigen Marker, du musst die lesen, du musst die parsen.
weil bei einer habe ich heute noch geguckt, weil ich gucken wollte, ob ich vielleicht
meinen Haupt-, also meinen Koordinator, ob ich den vielleicht updaten muss, um den Router
hinzuzufügen.
Allerdings habe ich dann gesehen, bei den Filmware-Updates, da stand dann etwas, was mir
nicht gefallen hat, und zwar, ich nutze auch gerade eine der Filmware, eine von 2024,
Juli, schon ein bisschen was her.
Danach gibt es zwar zwei neue Updates, allerdings
steht da ganz dick drin, only for test purposes.
Some users have reported, dass man die Devices alle neu pairn muss.
Und da ich hart keinen Bock drauf.
Und das steht da drin, das musst du lesen, verstehen und dir im Klaren sein.
steht da auch explizit so drin.
Wenn du das hier installierst, kann es sein, dass du alles neu pairn musst.
Und das passiert heute nicht bei mir.
Und auch nicht die nächsten Wochen.
Ich hoffe, da kommt demnächst mal eine Firma, nicht deaf ist.
Ja, das wäre gut.
da können Sie auf jeden Fall auch noch am Interface arbeiten, dass man das ganz klar
erkennen kann.
Ist das etwas, was man nutzen soll oder nicht?
Oder ist es Opt-in?
Ich erinnere mich nicht.
Kann man auswählen?
Bitte nur stabile Firmen anzeigen.
Ach so, das hab ich noch nicht gesehen.
Ich glaube, das...
Nee.
Also bei mir hab ich das auch versucht zu finden, aber kam mir jetzt nix.
Problem ist, ich fahr ja selber auf einer Dev-Film, hab ich dann gelernt.
Weil ich davor mit einer Probleme hatte.
Kann auch sein, dass ich nicht hatte, das schon über ein Jahr her, das Ding hab ich ja
schon ewig jetzt.
Auch wohl länger.
Das einzige was ich dann geupdatet habe ist dann nochmal das OS.
du hast ja da den ESP selbst.
Der ESP32 der da dieses Webinterface bereitstellt.
Das bauen die ja.
Wie heißt die Firma die diese SLZBs baut?
Vergissen.
SM Lite, steht ganz unten auf der Seite.
Genau, das ist super gut gemacht in meinen Augen.
Tolles Interface, kannst alles schön Copy-Paste, Home Assistant und so, VPN einrichten,
alles mögliche.
Aber mir wird noch gefallen, wenn man halt so Stable Releases oder Beta Releases
wegfiltern könnte.
Ja, ich sehe auch gerade, ich habe mich nochmal eingeloggt.
Ich muss ein bisschen Buße tun.
Also zum einen, es steht schon Dev-Firmware drüber.
Ist sogar farblich hervorgehoben.
Vielleicht ist es auch das, also jetzt sehe ich es gerade und denke mir, okay, ist ja doch
nicht so unübersichtlich.
Aber vielleicht auch, es wird nicht unterschieden zwischen Dev und die kannst du durchaus
nutzen und Dev, die...
Tod.
Da steht ganz explizit, also da steht es in Großbuchstaben, only for test purposes, read
note here.
Immerhin.
Genau, aber man muss schon aufpassen.
Die haben halt so eine Art Change-Log, so einen minimalen Change-Log noch drin.
Und das ist halt alles in einem Text-Blob.
Das heißt, du guckst, halt die Revisionsnummer, dann hast du die Release-Notes.
Das ist dann halt dieser Blob.
Und da musst du dich halt entscheiden, nimmst du die oder nicht.
weil ich finde das schon gut, dass da die Change-Frags sind, man hier noch mal separat ins
Block oder Repo von dem gehen muss.
Das wird mich nämlich nerven.
Das stimmt.
Aber ich sehe auch gerade, dass ich tatsächlich auf einer Dev-Firma bin.
Ich musste upgraden.
Ich hatte nämlich Latenzprobleme in meinem Netz mit der Firma, die vorinstalliert kam.
Also ich habe hier so Aqara Motion Sensoren und dann wurde auch das Licht damit gesteuert.
Ja und das hat einfach zu lange gedauert.
Das war dann alles weg mit der neueren Version, aber da muss man halt erst mal drauf
kommen, kann ich jetzt nutzen, weil die letzte...
Der Firmware, wo halt only for test purposes steht, die ist halt auch schon vom 25.
März 25 und wir schreiben ja gerade den 9.9.25.
Ist also nicht so, als wenn das nur ein ganz temporärer Zustand wäre, der sich innerhalb
von ein, zwei Wochen lösen würde, sondern nee, das kann auch länger sein, dass die latest
firmware nur für test purposes ist.
Ja, das ist...
Ich hab das Gefühl, es bei Zigbee, bei Zigbee, Sticks einfach normal, dass die Dev-Filmer
genutzt wird.
Augen auf beim Firmwarekauf.
Wenn ihr Idee habt, wie man den Stick als Router in das Stickbin erzeugt bekommt, bitte
gerne her damit.
Ich war auf jeden Fall nicht fähig genug, die BIN-Datei zu finden bei GitHub.
Immer wenn ich das SIP runtergeladen habe, war da nur eine Hex drin und eine Hex kann es
noch nicht flashen über das Webinterface.
Man kann ja über das Webinterface eine Custom-Film über hochladen.
Das ist ja das Coole.
Das heißt, wenn die von SM-Lite
Jetzt nicht die neuesten Filme was anbieten.
Heißt das ja noch lange nicht, dass man andere nicht flashen kann.
Diese Chips, wir benutzen, sind ja Standardchips.
Die nutzen ja alle möglichen SIGWI-Sticks.
Und bei SIG B2 MQTT auf der Docs Seite sieht man das auch.
Aber ich war nicht schlau genug für den Moment.
Aber ein interessanter Gedanke tatsächlich, dass das ja Standardchips sind und dass man
firmware-seitig vielleicht gar nicht unbedingt an SM Lite gebunden ist.
Hast du da mal was von gelesen, dass Leute das tatsächlich tun?
Alternative Firmware installieren?
sowieso die Firma, die in diesem Repo drin ist.
Also es hat gar nichts mit, das ist nichts spezielles von SM Lite.
Das ist im Endeffekt nur, sagen wir mal ein schönes Paket.
zu wissen.
So ist mein Verständnis dahinter zumindest.
Ich kann auch mal in die Show Notes den Link reinpacken von dem FW, wo ich mich
reingesnickt habe, weil ein Herr auch die gleiche Problematik hatte.
Das machen wir dann einfach in die Show Notes, falls ihr Interesse habt.
Ah ja, hier Link kommt da rein, Attacke.
Ja, mehr habe ich dazu gerade auch nicht.
Ah, der schreibt gerade, flash the hex file.
Okay, dann muss ich das mal probieren.
Ich dachte, es gibt ein Bin.
Live Update.
Zurück zu Ihnen.
Na gut, dann hacken wir das mal ab.
Also du hattest noch...
Willst du deine Nahtoderfahrung oder was soll das hier sein?
Erfahre.
Ja, ein neuer Angst frei geschaltet, kam mir da einfach nur direkt in den Kopf.
Ein kleines Anekdotchen aus dem Hause hier, wenn man so möchte.
Meine Nichte lebt ja unter uns und ich habe irgendwann während der Arbeit einen
Hilfeschrei bekommen per Telefonanruf mit
Ich komm nicht mehr aus meiner Wohnung raus.
Okay.
Und jetzt muss man dazu sagen, an der Wohnungstür hängt häufig der Schlüssel einfach
außen.
Weil es ist ein komplett familienbewohntes Haus hier.
Wir haben irgendwie im Erdgeschoss meine Schwiegereltern, im ersten OG meine Nichte und im
zweiten OG leben wir.
Und seit das der Fall ist,
seit hier nur noch Familie im Haus ist, wir da ein bisschen entspannt und da hängt halt
auch schon mal der Schlüssel draußen.
Ja, das Ding war dann nun, also die Tür ging nicht auf.
Und stellt man sich natürlich als erstes die Frage, hat mich jemand eingeschlossen?
Aber ich bin mal runter und nein, das war tatsächlich nicht der Fall.
Der Schlüssel hing zwar da nach wie vor, aber er war...
Genau, von außen.
Aber war nicht abgeschlossen.
Sie hat die Klinke betätigt und die Tür ging nicht auf.
Es ging dann, als ich den Türschlüssel in die öffnen Richtung gedreht habe.
Also wenn man ja schon aufgeschlossen hat und der sozusagen in Nullposition ist und du
drehst ihn ein Stück weiter, dann zieht man diesen Falle.
Diese Falle wird dann nochmal eingezogen.
Das hat es gebracht.
Dann ging die Tür auf.
Was ist jetzt passiert?
Offensichtlich ist diese Falle, also dieses Dreieck, ja aus diesem Einsteckschloss, ich
habe gegoogelt wie man das Ding nennt, Einsteckschloss, genau, da habe ich, genau diese
Falle, die muss, also ich denke sie ist abgebrochen.
Das interessante ist, wenn du dieses Einsteckschloss auseinander nimmst, springt es
irgendwann auseinander.
Also da sind, genau.
sehr unerwartet kommen, dass es auseinanderspringt und keine Handschuhe anhat und es dann
noch ein bisschen zwickt.
genau, dementsprechend kann ich natürlich nicht sagen, wie der Zustand war, als das Ding
noch nicht auseinandergebaut war, noch nicht auseinander gesprungen war sozusagen.
Aber es sah wohl so aus, als wäre da in der Falle wahrscheinlich irgendwo diese Schiene.
Also es muss ja irgendwo an der Schiene geführt sein, damit es halt gerade rausfährt.
Und das muss irgendwo abgebrochen sein.
Das heißt, du konntest es nach oben und unten wackeln und dann hat es sich halt verkantet.
Und tatsächlich, also wenn du nur die Türklinke hast, du kannst sie bewegen, es ist nichts
passiert.
Und du bist auf einmal in deiner Wohnung eingeschlossen und kannst effektiv eigentlich
nichts dagegen tun.
Ich meine so eine
den Schlüssel von innen drehen können und dann die Wohnung aufmachen?
Ich nehme an, das hätte funktioniert.
Genau.
das beiden Seiten machen kannst.
beziehungsweise, oder du hast halt den Schlüssel nicht außen an der Tür hängen, das macht
ja jetzt auch nicht unbedingt jeder, dann würde es wahrscheinlich gehen.
in diesem konkreten Fall wäre niemand im Haus gewesen oder verfügbar gerade, dann bist du
eingesperrt.
Ich war ganz schön perplex muss ich sagen.
Dinge über die man nie nachdenkt und mit denen man vielleicht über die man, ja mit denen
man nie gerechnet hat, wie es einen im Haus einsperren kann.
kann ich einen Tipp geben, vor wenn man sich mal aussperrt.
Bei YouTube gibt es auch schöne Videos zu.
Man kann sich aus einer Plastikflasche, also ganz normaler PET-Flasche und einem kleinen
Messer, richtig guten Türfallenöffner bauen.
Anstatt 400€ für einen Schlüsseldienst zu bezahlen, als ich damals an Köln gewohnt habe,
ich dann einfach in den Keller gegangen.
Ich hätte mich ausgesperrt, Tür viel zu, was auch immer, wegen Wind oder so.
Dann in den Keller gegangen, Peetee-Flasche geschnappt, hatte irgendwann noch kleines
Messerchen.
Der Keller-Tür war Gott sei offen und der eigene Kellerraum war durch einen Schloß, so ein
Zahlenschloss, so ein Padlock-Ding geschützt.
Dann konnte man sich dann so ein Rechteck rausschneiden, rundet die Kanten ab und wiggelt
herum wie bescheuert zwischen dem Türspalt und die Gummilippe.
Oder der Tür und der Gummilippe.
Manche Türen haben ja auch keine Gummilippe, sondern einfach nur die Zarge direkt.
Ein bisschen rumwiggeln die ganze Zeit.
Den Türknopf nehmen und hin und her.
Und irgendwann springt das rein und öffnet dir die Tür.
Wenn nur die Falle natürlich...
du musst die natürlich...
Ist im Grunde selbe wie dieser alte Trick mit den Kreditkarten, oder?
Jaja, die sind ja auch teilweise dick und etwas nicht mehr so elastisch, das kann ja
variieren.
Okay.
Film wird das auch bisschen mit so billigen Türen gezeigt.
Vielleicht geht das dann schneller.
Also ich hab da schon so 10 Minuten dran rumgewickelt und irgendwann hat man es dann raus,
dann geht es Also PET-Flasche öffnet Türen.
könnte in Sendungstitel sein.
Also in dem Fall vielleicht tatsächlich irgendwo eine Flasche aufbauen.
Hab ich tatsächlich danach auch so gemacht.
Oder ich hatte es sogar anders, ich hab das zugeschnittene Teil einfach irgendwo im Keller
versteckt.
Weil sowas räumt niemals weg.
Habt man dann einfach mal da.
testen.
Ist ja auch nicht schlecht das Skillset schon zu haben, wenn man es irgendwann mal
braucht.
Und ich bin sehr zufällig sichtlich, dass man es irgendwann mal brauchen wird.
Ja, kann ja auch passieren, dass so eine Tür zufällt.
Und ich sehe es dann gar nicht ein, dass die dann, im Endeffekt kommt der Schlüsseldienste
und genau dasselbe.
Die haben halt nur Werkzeug genau dafür.
Mhm, genau.
Das lohnt sich nur, wenn das Schloss wirklich weg muss, wenn man den Schlüssel verloren
hat oder halt dann auch gar nicht mehr reinkommt.
Dann hat man halt ein Problem, wenn es tatsächlich auch abgeschlossen ist.
Aber ein anderes Problem.
Ja, neue Angst.
Mäckrchen.
So was machen wir jetzt?
Soll ich mir bisschen über Proxmox rannten?
Okay, dann ran über Proxmox.
Ja?
ja, da unten auch noch.
Ja, Ja, das kann man zusammenpacken.
Genau, ich wollte...
Ich wollte mal bei dem Home Assistant-Projekt ein bisschen mitentwickeln.
Und habe...
Ich wollte PSI, Pressure Style Information zum Home Assistant Operating System hinzufügen.
War nicht vorhanden.
Das ist so eine Metrik, die...
eine relativ neue Metrik, ist auch schon ein Jahre alt, ich glaube Kernel 513 oder so
haben sie es reingebracht, aber die Metrik sagt halt so eine Art Druck für Memory, I.O.
und CPU, ob die Prozesse wirklich die Arbeit tun können oder nicht oder ob sie die ganze
Zeit nur warten.
Das ist eine sehr gute Metrik, die Facebook ganz stark nutzt und mit dieser Metrik kann
man dann checken, ob alle Prozesse gerade
warten auf I.O., auf Memory oder CPU.
Nee, bei CPU gibt es das nicht.
Bei CPU gibt es nur teilweise.
Und dann gibt es, also es gibt einmal alle Prozesse für I.O.
und für Memory.
Das heißt, man ist komplett geblockt und wartet die ganze Zeit.
Dann ist das System quasi nicht operativ.
Und dann gibt es die andere Metrik, die heißt Sum.
Das heißt, ein oder mehrere Prozesse warten auf I.O., CPU oder Memory.
Die wollte ich in Home Assistant anzeigen lassen.
Es gibt nämlich eine
System Monitor Integration heißt sie.
Die kann man sich jetzt auch schon reinklicken und da hast du sowas drin wie Disk Usage,
Load, Memory Usage.
Aber Memory Usage ist immer so, meh, sagt halt häufig nichts aus.
Weil du kannst 90 % Memory Usage haben und davon sind 5 GB Cache und du kannst noch 100
andere Container oder Applikation laden.
Du kannst 90 % Usage haben und das ist kurz vorm um das System.
ist halt null Aussage kräftig.
Ja, also müsste schon wirklich unterschieden werden zwischen was ist Cache und was nicht.
Ja, superschwer.
dann hast du ja noch Docker.
Wie viel...
Nein, bei Docker ist das egal, aber dann wird ein Prozessor, das die Shared Libraries
haben.
Wie läuft das dann?
Ich weiß auch gar nicht, wie Docker das dann macht, weil wenn du theoretisch die gleichen
Bindings installierst, sind die dann geshared, kommt auf der Tiles den vielleicht an.
Jo.
Du sagtest das gibt es schon als Addon?
Monitor gibt es als Integration.
Man muss es nur einmal einrichten, dann hat man noch nichts.
Per Default gibt es dort nichts.
Also du musst die Metrik selbst, die du haben möchtest, enablen.
Du kriegst einfach drauf, ausgegraut und dann sagst du enable und dann kommt die und
dann...
Ich glaube du kriegst alle 30 Sekunden Wert.
Und das finde ich ganz cool.
Wie gesagt, ich wollte allerdings PSI, die Presser Stall Information vom Linus können
haben.
Ich nicht.
Dann dachte ich cool, dann integriere ich das vielleicht.
Beim Python ist es zwar sonderlich schlecht.
Also ich bin kein guter Python-Dev.
Aber mit ein bisschen Gemini.
In meinem Falle habe ich dann den Part des Repos mir erklären lassen, wie das so
funktioniert.
Hab dann auch die Interfaces gesehen, wie man das einrichten könnte.
Problem war, Home Assistant OS gibt diese Metrik gar nicht aus.
Also es gibt es nicht im Kernel.
Die haben recht neuen Kernel, 612, relativ modern.
Aber allerdings habe ich dann geschaut in meinem Odroid, die Metrik liegt in Proc Pressure
und dann CPU Memory und I.O.
Gibt es aber nicht.
Dann dachte ich, hm, vielleicht ist hier so ein spezielles Ding wegen dem Kernel für
Odroid.
Habe ich mir dann mal eine VM klicken wollen in Proxmox und mal schnell Home Assistant
installieren.
Ja, so schnell war das dann doch nicht.
Ich war ein bisschen genervt, weil ich dachte, wofür hat man Proxmox?
Hast du dann so Webinterface, dann kannst du klicken, 2-3 Klicks und dann startest du eben
Home Assistant OS und dann gehst du drauf und testest deine Sachen, die du testen
möchtest.
Pussekuchen.
Denn die Datei, die du runterlädst bei Home Assistant auf der Webseite ist so ein Image.
Ich glaube CQOV2 ist das von KVM.
QCOW.
ne, Q-C-O-W.
genau.
Das ist offizielle Imageformat.
von KVM, Qemo, ich weiß nicht mehr, wer da wer ist, egal, aber auf jeden Fall, ja er ist
ein Standard Image Format und was kann man nicht machen bei Proxmox?
Dieses Image hochladen.
Nee geht nicht, per GUI zumindest nicht.
Das heißt, man kann gar keine Immunities hochladen und dann nur nicht in dem Format.
aber dat nicht.
Das hat mich so genervt.
denke mir so, wofür hast du diese GUI?
Dass du dann so ein paar Sachen abstrahieren kannst, vielleicht mit einem Klick schneller
bist und dann musst du dich wieder per SSH da drauf auf diese Kiste.
Und ich mir denke, warum muss ich so oft per SSH da drauf, wenn du diese GUI hast?
Habe ich per W-Geld mir das Image eben runtergeladen, dann export entpackt und dann kannst
du, dann musst du im Webinterface eine VM anlegen, dann hat die, dann musst du der VM aber
das Storage wegnehmen und ein paar Klicks machen, da gibt es so eine Anleitung im Proxmox
Forum.
wie das Home Assistant OS herkonfiguriert sein muss, ...
weil das muss UEFI haben und so weiter.
Dann darfst das nicht starten, ...
sondern muss dann in die ...
dann gehst du in die Kommandozeile von Proxmox, ...
dann kannst du die VM-ID nehmen, ...
das ist ja einfach nur ...
durchnummeriert bei Proxmox, ...
...
einfach 100, 101, 102, was auch immer.
Und dann machst du einen Import ...
der ...
Image-Datei auf diese VM.
Daraufhin listet sich eine Harddisk im Proxmox.
Das heißt, du siehst sie auch dann im GUI.
Da musst du dann nochmal draufklicken.
Da musst du Discard aktivieren für SSD.
Und dann steht ihr als Wolken zur Verfügung und dann kann es starten.
Okay, das klingt kompliziert.
Du kannst es auch nicht umdrehen.
kannst also nicht sagen, okay, ich gehe jetzt mal hin und ich lade, wie auch immer, ich
lade das Image jetzt einmal händisch hoch.
Das ist dann in Proxmox drin und dann erstelle ich die VM und dann sage ich einfach, nimm
doch hier das Image, das ist ja schon da.
Eventuell geht das, glaube nicht, weil warum hätte sonst einer diese komplizierte
Anleitung gemacht?
Ja.
Fairpoint.
Aber ich hatte dann auch keinen Bock auf da weiter.
Ich dachte auch, vielleicht kann ich das ja in so Art Image Store oder Database bei Proxmo
reinladen.
Nee, die haben das einfach im User Routing hochgeladen.
Okay.
das denn so?
Gibt es bei Proxmox einen?
Ich muss sagen, ich kenne das Produkt, aber ich habe es nie wirklich benutzt.
Ja, ich bin ja auch kein guter Benutzer.
bin...
Ich...
Ist ja nur mein...
Server da drauf.
Ja, aber immerhin, kann ich dir vielleicht zumindest die Frage stellen, gibt es denn da so
die Möglichkeit, also hast du so einen Image-Katalog?
Und kannst du deine eigenen Images grundsätzlich hochladen in diesen Katalog?
so hochladen kann, aber so Images hab ich jetzt nicht im Kopf, nee.
Das wäre jetzt die Frage, ob du jedes Mal, wenn du eine VMS stellen willst, dieses Image
verwenden aber dann müsstest du es für jedes Mal hochladen.
Nee, sowas wird es geben, für meinen speziellen Anwendungsfall, wo ich das QCore haben
wollte, das hat nicht funktioniert.
Ich gucke mal hier kurz durch, aber ich sehe jetzt nichts auf die Schnelle.
Das heißt aber nicht, dass das nicht stimmt, ich bin kein, sondern nicht guter Proxmox
Anwender.
Wenn das Ding zumindest raw unterstützen würde, also die einfachste Form von Disk Image
ist raw, da hast du die gesamten Bits niedergestreamt in einer Datei, dann kann man das
relativ convenient konvertieren.
Es gibt dieses...
Wie hieß das noch gleich?
War das Teil von Qemo?
so ein Image-Convert-Tool.
Aber natürlich RAW hat als großen Nachteil, genau, das ist nicht sparse, das ist nicht
komprimiert und nichts, sondern dementsprechend, wenn da Nullen sind, also du erstellst
ein Image von einer 20 GB Disk und das ist nur 1 GB belegt, dann dauert das Image halt
trotzdem 20 GB groß.
Nullen wären da mitgerechnet, das ist ja eher nachtelbar so was.
Kann auch sein, dass Proxmox, das sind ja neun, es gibt ja jetzt Proxmox neun.
Ich bin noch auf 845.
Ich habe nicht großartig gesehen, also nicht großartige Change-Docs gesehen, außer dass
die jetzt den Unterbau von Debian 12 auf Debian 13, ich glaube Trixie heißt das neue
jetzt.
Ich weiß gar wie das 12 heißt.
Aber ich hatte jetzt keinen Bock deswegen Proxmox zu updaten, nur weil ich einen Home
Assistant nur erstmal kurz ausprobieren wollte, ob dort diese Metric vorhanden
Ja.
Ja.
Genau, das hat mich einfach genervt.
Vielleicht war ich zu doof, wenn ich zu doof war, bitte sagen.
Ich lehne ja gerne dazu, aber das hat mich schon wieder genervt.
Weil dieses GUI habe ich im Endeffekt nur für vier Sachen benutzt, als andere habe ich
über Kommando-Zeiten gemacht.
Das denke ich mir dann auch so.
Da kann ich auch gleich GUI-Modell, LibVirt oder so benutzen, wenn ich das auch lernen
muss.
Ja, das wäre jetzt tatsächlich meine Frage gewesen.
Also, du die Vergleichsmöglichkeit?
Nimmt dir Proxmox denn dann immer noch relativ, also nimmt es dir wirklich was ab?
Selbst wenn du über die Kommandozeile arbeitest?
Hat das zum Beispiel ein convenient...
Virtual-Konsole übers Webinterface ist schon ganz nett.
Mal eben schnell reingucken, das geht schon.
wo ich dann dachte, ich hab ja vor einiger Zeit mal meinen Ubuntu Server updaten wollen
und dann hab ich einen Snapshot vorher gemacht.
Die konnte ich dann nicht einbinden.
Also ich konnte nicht zurück zu diesem Snapshot, weil das nur ein btfs-Ding war und dann
hat er gesagt, nee, ist nur read-only und dann musste ich das auch über Commodore-Zeile
machen.
Das hat mich dann wieder genervt.
Deswegen bin ich jetzt gerade auch nicht so mega happy mit dem Produkt für meinen
Use-Case, für den wirklich simplen Home-Use-Case.
Ja und ganz ehrlich, ich die...
Das ist natürlich nicht ganz Proxmox Schuld, aber als ich die GPU eingebaut habe, mein
Server...
PCIe Device Naming ist natürlich auch so eine Sache.
Du hast ein neues PCIe Device und plötzlich sind die ganzen NVMe's auf einer anderen Slot.
Und dann muss dich alle VMs wieder abändern, damit diese blöden Harddiscs wieder erkannt
werden.
Mmh.
Das ist jetzt nicht ganz Proxmox Schuld, das ist Linux per se.
Gerade Consumer Hardware.
Ich habe gehört, dass Enterprise Hardware fixe Namen hat.
Ich persönlich habe es noch nie erfahren, weil ich nie mit Enterprise Hardware, also
Hands-on-so Hardware gespielt habe.
Bei uns ist ja alles virtualisiert.
Was?
Fluchensegen würde ich mal sagen.
Ich erinnere mich noch, dass ich früher, als ich den Bundesverver noch bemette hatte,
hatte ich da über Coemo mir eine VM gemacht für Home Assistant.
Da hat es bisschen genervt, da du das nicht so häufig brauchst, vergisst du halt schnell
die Kommandos.
Und dann dachte ich, Proxmox nimmt mir viel ab.
Hm, weiß jetzt nicht.
Ist ein bisschen mehr convenience, aber ich muss trotzdem oft an der Stelle dran.
Okay, und hast du jetzt schon eine Idee, wie du die PSI-Metrik da rein kriegst?
Ich hab schon fertig, wurde schon gemercht.
Also zumindest, stopp, zwei Parts.
Die PSI-Metrik in System Monitor, ist ja die eine Sache, da arbeite ich gerade noch dran.
Habe ich jetzt fertig bei mir lokal, funktioniert.
Kann ich ja gleich was zusagen.
PSI ins Operating System zu kriegen, war auch relativ easy.
Im Nachhinein, es war wirklich nur ein One-Line-Change, wo ich einfach nur
config-psi-equal, yes.
So.
Und das ist ein Kernelparameter.
Den gibt man einfach nur an das Bildsystem von Home Assistant OS.
Die bauen...
die basieren auf Bildroute.
Und...
da muss ich mir aber erstmal reinfuchsen, wo man das dann hinzufügen muss, weil es gab
viel zu viele Dateien, wo du solche Konfigurationen hinzufügen konntest.
Hab ich dann gemacht, hab ein paar Mal ausprobiert.
Ich war ein bisschen schockiert, wie lange das dauert, so ein OS zu bauen.
Also config-underscore-psi klingt jetzt auch erstmal nach einem Kernelheader, den du halt
setzt und dann den Kernel baust.
Das macht man ja heutzutage nahezu gar nicht mehr.
Also als Enduser.
Das hat man früher tatsächlich noch gemacht.
Thema.
Bildruth baut alles.
Das ist das Krasse.
gibt...
Ja.
Also der Kernel ist ja auch größer geworden.
Klar, die Rechenleistung ist auch schneller geworden, aber Kernel bauen war früher noch
schon immer etwas, da konnte sie aber schon locker mal paar Käfchen ziehen.
Also ich hab das erstmal auf meinem Framework angefangen.
Natürlich ging der Lüfter los.
Hab ich mit gerechnet, dass der Lüfter losgeht.
Völlig fein beim Compilen.
Ich mach mal kurz das Fenster zu.
Die Kirche pimmelt jetzt wieder.
Genau und ähm...
Ja es war dann aber doch an eine Stunde oder so.
Das hab ich dann einfach abends laufen lassen.
Irgendwann ging mir das Geräusch auf den Nerv.
Von dem Lüfter und dann hab ich das auf den Server gemacht.
Da war es aber auch nicht viel schneller.
Genau.
Dann musst du dich das ein paar Mal probieren.
Die Iterationszyklen sind ja ein bisschen ätzend, würde ich mal sagen.
Du setzt einen Config-Parameter in der Datei, baust, guckst nach, dann musst du dich das
Image nehmen, per WGET oder SCP auf einen Proxmox Server, per SSH draufpacken, den ganzen
Kleiderer-Date wieder neu machen, import dies das, starten, gucken.
Mist, hat nicht geklappt.
Dann nochmal.
Das war so...
Über mehrere Abende habe ich mal den so hier und da mal einen Parameter probiert, bis ich
es dann gerafft habe, wo der gesetzt werden muss.
Genau, wurde auch sofort gemercht.
Das wird jetzt wahrscheinlich im nächsten Home Assistant OS Release Das heißt, dann ist
das erstmal verfügbar.
Und das ist dann.
Und jetzt saß ich heute Vormittag am PSI-Metriken für die System-Monitor-Integration.
Hab den Python-Kram gemacht.
Muss jetzt noch testschreiben.
Das ist ganz cool, wie man das machen kann.
Du kannst im Endeffekt dir den Ordner, also es gibt jede Integration hat ihren eigenen
Ordner in Home Assistant, die im Core drin sind.
Du kannst den Ordner einfach kopieren in einen, config slash custom components auf deinen
Home Assistant.
Und dann überschreibst du einfach deine eigene, also die offizielle.
Und so kannst du das einfach testen, live.
Konnte ich natürlich nicht so einfach, weil
der Home Assistant OS hat ja noch kein PSI weil das kommt ja erst im nächsten Home
Assistant OS Release raus das heißt dann habe ich das ein bisschen angepasst, habe eine
Fake Datei hingelegt auf die der Home Assistant Container drauf zugreifen kann das bei mir
im Home Assistant Android checken
Dann habe ich das gemacht, hat irgendwann funktioniert, dann war es nur bisschen
Fleißarbeit, weil im Endeffekt sind das ja vier Metriken...
...nein...
...vier Metriken für CPU, acht für I.O.
und acht für Memory.
Genau.
Jetzt werde ich...
Hättest du natürlich in deinem Proxmox dann testen können?
Hab ich danach auch gemacht.
Genau, habe jetzt einen, habe ich vorhin zum evaluieren.
Weil was ich interessant fand ist, es gibt ja einmal diese Pressure Averages über die
letzten 10, 60 und 300 Sekunden und die Totals, das ist einfach nur eine Summierung der
ganzen Mikrosekunden, der Prozess auf Memory, IOU oder CPU wartet.
Da dachte ich mir mal, ich habe dir vor allem jetzt nicht viel gegeben, zwei CPUs, paar
Giga und so.
Ich dachte mir mal, ich installiere mal paar Addons, sowas wie den ESP Home Builder und
guck mal, wie der sich verhält, wenn der mal
ESP Home Sachen compilert.
Da kommt man schon direkt sehen, das war jetzt IO-limitierend.
und dann während der Compile-Phase war es dann CPU-limitiert.
Fand ich ganz spannend.
Ich mal gespannt.
Ich muss das noch bisschen auffinischen und paar Tests schreiben.
dann hoffentlich, ja ich weiß nicht, wann das gematcht wird, das hängt natürlich von der
Kapazität der Leute ab, die da bei Home Assistant arbeiten.
Ja,
Und ob dann der Feedback-Schleifer noch notwendig ist, das weiß ich auch noch
mal interessant.
Also ich kannte das System Monitor, die Integration jetzt nicht und habe die mal
hinzugefügt und da würde sich das ja dann einfach integrieren.
Genau, dann würdest du einfach eine neue Metrik haben, die du da anklickst, enablest und
dann hast du es drin und kriegst alle 30 Sekunden Wert.
Und das ist ganz praktisch, weil dann hast du halt einen Verlauf und dann kannst du sehen,
hey, habe zu dem Zeitpunkt war wirklich die Kiste voll memory limitiert, aus irgendwelchen
Gründen.
ist natürlich nur für die Leute interessant, die Probleme haben.
manchmal gibt es halt die Aussage, ja irgendwie ist es langsamer geworden, aber du kannst
es nicht fest, du kannst es dann nichts festmachen.
weil es halt auch punktuell ist eventuell mit dem RAM.
Ich meine das ist immer wieder zum Beispiel bei der Geschichte, bei mir mit dem VS Code,
dieses Addon, wie ich irgendwie in diesen Umloop gekommen bin.
Also quasi Speicherverbrauch steigt kontinuierlich an, irgendwann ist er kritischen
Bereich, dann wird das System lahm, da wäre dann halt Pressure hoch, Memory Pressure hoch
und dann wird das Ding wieder weggekillt und startet so langsam neu.
Nur, dass es halt leider nicht weggekillt wurde, weil der Container, also das Addon an
einen Limit geraten ist, das irgendwo hart gesetzt wurde, sondern das System hat halt
einfach keinen Rahmen mehr gehabt und deswegen wurde es gekillt.
Theoretisch kann man die PSI-Metriken, die Sum-Metrik zumindest, als Prediction benutzen,
als Vorausschau in die Zukunft.
Wenn ein oder mehrere Prozesse immer mehr auf eine Ressource warten, und du so einen Trend
siehst von der Linie, wie man ein Sekunden oder Minuten, je nachdem, wie schnell oder
langsam diese Prozesse an der Ressource traschen, sag ich mal.
Dann kannst du tatsächlich eine Prediction machen und nicht erst warten bis der Umkiller
kommt.
Das ist natürlich bisschen sehr advanced, das brauchen wir jetzt nicht für herum, ist ein
Kram.
Aber das ich einfach generell eine tolle Metrik für den guten alten Linux-Admin,
Sys-Admin, System-Engineer, wie sie nicht alle heute heißen.
an der Stelle vielleicht auch ganz praktisch, falls man damit noch nicht gearbeitet hat.
Ich habe es noch in einer ziemlich alten Konfiguration, ich weiß nicht heutzutage.
Du kannst dir natürlich auch den Status dieser Entities exportieren.
Denen Home Assistant zu haben ist schon nützlich sicherlich, aber sagen wir mal, du hast
vielleicht bei dir zu Hause einen Grafana installiert, wo du Dinge visualisierst.
komplexere Dashboards vielleicht baust, dann möchtest du eventuell auf solche Werte
zugreifen.
Und das kannst du, indem du zum Beispiel, also ich hab's noch mit Influx bei mir zu Hause
aufgesetzt, kannst du ganz gezielt sagen, welche Entitäten exposed werden sollen oder
nicht exposed, exportiert könnte man vielleicht eher sagen, weil sie werden aktiv gepusht
in Influx.
dann hast du, also Influx ist eine Time Series Database.
Im Grunde in Anführungsstrichen ähnlich wie Prometheus.
Anführungsstrichen, weil Prometheus ist eigentlich mehr als das.
Das ist mehr als nur eine Datenbank.
Aber, genau, Influx Time Series Database.
Das heißt, da kannst du solche Werte abspeichern und dann aus Grafana zum Beispiel drauf
zugreifen.
Genau, dann kannst du einfach im Systemmonitor aktivieren und wenn du den Flux sowieso
laufen hast oder die Integration konfiguriert hast, hast du es direkt drin.
Ja, das ist cool.
Weißt du zufällig auswendig, gibt es auch schon eine Komponente, mit der man das Ganze in
Prometheus exportieren kann?
Damit du es mit Prometheus scrapen kannst?
Alternativ zu Influx?
Ja, ich meine schon.
Ich glaube, habe das sogar bei mir konfiguriert, aber ich war dann doch bei Influx
geblieben.
Also ich hatte definitiv mal ein Promises Exporter laufen auf dem Home Assistant OS, da
wollte ich aber die Sachen von dem OS haben, weil ich monitorn wollte.
Es gibt aber glaube ich auch ein
Meters Exporter der F-Home Assistant läuft und da kriegst du aber nur die, da kriegst du
keine systemrelevanten Metriken außer du hast den System Monitor installiert.
Genau, aber das kann natürlich so eine Art Gateway für dich sein.
Du holst dir die Metriken erst in Home Assistant rein und von da aus werden sie dann
exportet in Richtung Prometheus.
Es gibt es tatsächlich.
Ich habe es mal die Show Notes gepackt.
Ich weiß damals, ich habe da schon mal nachgesucht und das ist, mich aber nicht wann, es
mag sein, dass das vor einem Jahr war, mag sein, dass das vor zwei Jahren war und ich
meine zu dem Zeitpunkt habe ich es nicht gefunden.
Es gab andere Komponenten für Prometheus.
Aber das war dann mehr so um Query gegen Prometheus abzufeuern und das Resultat dann in
einer Entity als State zu speichern.
Also genau andersrum.
Aber das Ding hier tickt also genauso wie die Influx Komponente, dass du einfach sagen
kannst, entweder include Entities, include Entity Globs, also Pattern, Wildcard, include
Domains und das Ganze auch mit Exclude.
Dann kannst du ganz flexibel bestimmen, was in welcher Form exportiert wird.
Der Nachteil in meinen Augen ist bei dem Prometheus ist ja Poll.
Das heißt du richtest die Integration ein.
Dann musst du Prometheus einrichten deinen Home Assistant zu Scrapeen.
Bei Influx finde ich es bisschen entspannter.
Du installierst einfach Influx, setzt da dein Bucket auf und dann konfigurierst du deine
Integration in Home Assistant und der pusht automatisch.
Ich weiß nicht, irgendwie fühlt sich das mit Influx entspannter an.
Es spricht eigentlich auch gar nichts gegen Influx.
meine, irgendwie hat das so bisschen seit Prometheus so beliebt geworden.
Man sieht viele Migrationen.
mit ihrer Version 3 und mit diesen Flux-Migrationskram.
Und jetzt haben die wieder eine neue Query-Language und zwar SQL benutzen jetzt.
Wir haben sich so bisschen das Python-Problem eingeholt.
Python 2 auf drei Migrationen hat dazu geführt, dass viele Leute, viele Firmen auch noch
bei Python 2 ewig hängen geblieben sind, weil die Migration eben nicht trivial war.
Und bei Prometheus war das ähnlich.
Meins läuft tatsächlich immer noch auf der 1er Version, weil privat habe ich noch keine
Muße gehabt, das zu aktualisieren.
Als du dann auf 2 gings, also die hatten damals ja schon InfluxQL, das war halt wie SQL,
also wie SQL.
Dann musstest du auf...
wie hieß das andere?
Fluxking, genau.
Aber in FluxQL war es immer noch supported.
Und dann haben die während die Version 2 gepatcht haben und Features hinzugefügt haben die
irgendwann gesagt, nee, Flux ist doch doof, ist jetzt Community supported, dementsprechend
tot.
Und dann sollten jetzt wieder alle wieder auf FluxQL, also deren eigene SQL-Danguage.
Aber jetzt gibt es wieder Version 3.
Version 3 hat wieder, glaube ich, diese Server-Side-License, von wegen...
dass du es nicht so einfach selbst hosten kannst irgendwie.
Ich bin mir nicht ganz sicher, ...
...
Lizenzen bin ich gar nicht für drin, aber da gab es ein bisschen Stress.
Und dort gibt es jetzt InfluX QL und SQL.
Also...
Das meinte ich mit.
Ja.
okay.
Oh.
Okay.
Ich bin die ganze Zeit davon ausgegangen, wir sind einfach nur wieder zurück zu InfluX
Nee, nee.
Also die haben jetzt glaube ich beides wieder.
Und...
ach, naja.
Ja.
Ich kann es verstehen, wenn man da Sachen abbilden kann, die man halt mit Influskuell
schwierig abbilden kann.
Ich erinnere mir nicht noch, dass ich diese ganzen Dashboards auf der Arbeit umgeschrieben
habe und dann nachher alles wieder rückgängig machen.
Einige Sachen waren härter, einige Sachen waren einfacher, einige Sachen waren nicht
möglich, einige Sachen waren möglich.
Ich verstehe das von der Sicht her, aber ganz ehrlich, zu Hause...
da tut es auch Influx, also ganz ehrlich.
Da hast du weniger Stress mit aktuell.
Ja ja ja, Prometheus.
Deswegen dachte ich halt auch an Prometheus gerade und würde ich wahrscheinlich mal die
Migration wagen auch, weil Prometheus halt ja sagen wir mal also es kommt nicht unbedingt
daher mit dem Alertmanager, aber das ist halt leicht zusammen installiert oder und dann
kannst du dir halt auch wirklich einfach Alerts bauen.
Kann man auch anders lösen.
Man kann auch mit Grafana Alerts senden.
Ich finde es
Also es ist besser geworden.
Ich erinnere mich an Zeiten, wo es ein bisschen schwierig war, vor allem wenn du halt
eben, wenn du einen ganz konkreten Alert, also ein ganz konkretes Career hast, ist es gar
nicht so schlecht, aber wenn es etwas generischer werden soll, da wird es dann etwas
komplizierter.
Ja, ich habe auch noch mal den Prometheus Notexporter für die Low-Level-System-Hetrischen
von Home Assistant in die Show Notes gepackt.
Den habe ich auch bei mir laufen, einfach zu gucken, wie es dem Home Assistant so geht.
Das heißt ja demnächst, wenn Home Assistant OS installiert wird, das neue Update mit
meinem PSI, sollte ich das theoretisch automatisch da drin bekommen.
Wenn der Notexporter das direkt exportet.
Ich nehme mal ein Ja, aber...
Ja, okay.
Cool.
Meine Aussage gerade war bisschen vage, ist mir im Nachhinein aufgefallen.
Also vielleicht lohnt es sich das auch noch mal kurz auszuführen.
Also Graphanalerts, die Erfahrung die ich da gemacht hatte, war nämlich, du kannst halt
einen konkreten Alert definieren, wenn irgendein Schwellwert bei irgendeinem Query
überschritten wird, dann bitte ein Alert triggern und dann irgendwie was benachrichtigen.
Das ist dann halt ein konkreter Alert.
Wenn du aber sagen wir mal
eine Liste von also eine Serverfarm, also Metriken für eine Serverfarm hast und du
möchtest nicht nur einen Alert feuern, also quasi der ist grün oder nicht, oder rot oder
nicht, nachdem wie man sieht, sondern du möchtest sagen, es wird ein Alert gefeuert für
folgenden Host und es wird vielleicht zu einem späteren Zeitpunkt nochmal ein Alert
gefeuert für einen anderen Host und die sind komplett unabhängig, die sind beide halt
gerade aktiv und die können aber beide unabhängig da voneinander auch wieder geschlossen
werden.
Das waren Szenarien, sind trivial mit Prometheus und Alert Manager, aber mit Grafana war
das zumindest vor einem Jahr noch nicht so.
Ich glaube da wird sich jetzt viel tun, Ich mach mal einen kleinen Marker.
Obscene ist ja deprecated.
und ich glaube Grafana drückt da jetzt gerade in diese Nische rein mit dem...
Ja, Alerting.
Ja ja.
Ich könnte mir vorstellen, sie das nutzen.
Ich habe zumindest bei LinkedIn ein paar Posts zu dem Thema.
da meinten Leute, nutze einfach Grafana Learning.
Obst Genie ist ja Atlassian mittlerweile.
Ich meine Atlassian hat ein...
Wir haben wieder mal aufgekauft, haben Leben gehalten und dann jetzt ersetzt, wie man es
ja gerne mal macht.
Jetzt haben sie ihr eigenes Produkt dafür gebaut.
Ach wusste ich gar nicht.
Weißt du wie heißt?
Na dann, nevermind.
googeln migrate from ops genie nur wohin
auf ins Internet.
bin da aber heißt es echt so okay jira service management or compass compass keine ahnung
klingt komisch
Ja gut, wenn du dann die Ticketintegration hast mit einem Incident Management Prozess,
kann ich das nachvollziehen.
Das ist ja die Stärke von Obscene, das Routing und die Escalation Policies.
Vielleicht haben sie es neu gedacht und mit Jira besser integriert.
Ich habe es noch nicht benutzt.
auch nochmal in Graf Ahne reinzuschauen, was da mittlerweile der Umfang ist.
Das muss man ja sagen, die Jungs sind wirklich sehr aktiv.
genau.
Wir haben ja jetzt letztens auf der Arbeit Grafana Alloy benutzt.
Oh, Träumchen.
Das ist der...
Warte, das hieß früher anders.
Das hieß Prom...
Prom-Exporter?
Ich hab's vergessen.
Egal.
Das ist im Endeffekt ein kleines Go-Binary, was dir Metriken schnappt und die irgendwo hin
pusht.
Oder auch Logs oder auch Traces.
Also alles auf einmal.
und zwar im Promises-Format, die Metrik.
Tolles Tool!
Ja wie hieß das denn früher?
Promptail, ja das war der alte Name.
Jetzt hast du alles in einem drin, kleines Binary, brauchst nicht mehr drei Programme
laufen lassen, konfigurierst nur noch eins, kannst auch komplexere Blöcke konfigurieren,
das ist dann meine Data Source für Metriken, das ist meine Data Source für Tracing,
whatever.
Kannst auch das mehrfach definieren und dann schreibst du dir einen Konfigurationsdatei
und dann pusht das Ding fröhlich überall hin, wo du es hin möchtest.
Cool.
Und das schön leichtgewichtig.
Ja, ich hab's jetzt nicht getestet, aber ich würde mal annehmen, dass es leicht
gewichtiger ist, als wenn du mehrere Binaries laufen lassen musst.
Das ist ja erstaunlich, wenn du dich mit dem Thema Logshipping beschäftigst.
Im Grunde natürlich auch Metriken pushen, aber Logshipping ist glaube ich so ein bisschen
der klassischere Ansatz, den man da geführt Oder nicht Ansatz, damit hat man vielleicht
früher gestartet und dann haben sich so Lösungen etabliert wie
Lockstation, ganz klein gewichtige Lösung.
Ja genau, ne?
Filebeat dann auf der anderen Seite, der das Ganze pusht oder wie hießen die noch?
Wie ist das Ding von der 6th Fetch nochmal?
War es Flo & Bit?
Nee.
Es geht bei Flo und...
Elastic Search, das ist Filebeat.
Ja genau.
Habe ich schon benutzt.
Bit war das andere und es gab Fluent D.
Fluent D war dann das ältere von den beiden.
Ich war auch manchmal sogar in der Skript Sprache geschrieben und etwas
ressourcenverschwenderischer.
Fluent Bit war dann schon deutlich moderner, deutlich kompakter.
Ich meine C++, leichtgewichtiger.
Genau.
da bei uns spielte, also in unserem konkreten Use-Case, da wir da jetzt beruflich
gemanagte Plattform-Services spielten, es natürlich auch eine gewisse Rolle, weil wir
immer den Ansatz gefahren sind, dass für jede Service-Instanz, also für jeden
Plattform-Service, der von einem User benutzt wird, der läuft auf separaten virtuellen
Maschinen.
Dementsprechend hast du natürlich mit jeder virtuellen Maschine gewissen Overhead.
Und den möchtest du natürlich möglichst niedrig halten.
Da du gewisse Dienste auf jeder dieser virtuellen Maschinen laufen lässt und du nicht mehr
den Benefit hast, dass die geshared werden über alle Instanzen, hast du den Overhealt
wirklich pro Platform Service Instanz.
Ja, und das mal 1000, wenn du 1000 VIMs hast, zack, dann da Megabytes weg oder Gigabytes.
beispielsweise, ich dachte eine lange Zeit lang ehrlich gesagt, dass Filebeat in Java
geschrieben wäre.
es ist jetzt nicht ganz abwegig, würde ich mal behaupten, weil es gehört ja zum
Elasticsearch Projekt.
Und es ist im Go geschrieben und ich verstehe nicht, also ich war sehr, warum habe ich das
gedacht?
Ja, weil das Ding halt 70 Megabyte RAM frisst, so im Betrieb.
Das ist jetzt nicht unbedingt etwas, womit ich, also was ich von einem
man im üblichen kleinen Go-Binary kenne.
Und da geht es halt Logshipping.
Ja, ist deutlich komplexer, glaube ich, als man sich das vorstellt.
Also du musst ja wirklich gucken, welche Pattern sind definiert, welche Dateien sollen
geöffnet und geschippt werden.
Das kann sich ja jederzeit verändern, gerade wenn du sowas hast wie, ich möchte
Dockerlogshipen und die Dockerlogs werden vielleicht noch in die klassischen
Docker-JSON-Logdateien geschrieben.
Das heißt, du musst im Grunde sagen,
Hasa ohne Ende.
Walib-Docker-Containers, da sind die ganzen Container drin.
Da kannst du jederzeit einer wegfallen, ein neuer hinzukommen und dann in dem Verzeichnis
wäre dann irgendwo ein unterverzeichneter Teil.
Du musst das die ganze Zeit also monitorn, idealerweise mit sowas wie iNotify, damit du
immer up to date bist.
Dann hast du noch deinen Log-File im Sinne von wo war ich, falls ich neu starte.
Das muss der Memory halten.
State, du hast und du musst dann pro Datei dir natürlich merken, wo du warst.
Ist ja nicht einfach nur so, wäre es ein Zeitstempel, dann und dann habe ich zuletzt was
geschippt.
Nein, in der der und der Datei war ich an Position X, weil die Datei kann eventuell auch
replaced werden oder wegrotiert werden.
Oder sie ist plötzlich vielleicht auch einfach kleiner, weil der Dienst neu startet.
Gibt es auch bei manchen, also jetzt nicht bei Docker, JSON-Logs, aber bei manchen
Diensten, da wird die halt auch einfach mal truncated.
Wenn der Dienst neu startet, dann wird halt einfach neu reingeloggt.
Das musst du auch erkennen können.
Also das zu tracken ist nicht so trivial, wie man sich das vielleicht am Anfang vorstellt.
Ist ja nur Textdatei lesen und wegshippen.
Also schon ein bisschen was hinter.
Wenn du betrachtest, früher, zumindest was ich so jetzt im Kopf habe, war es ja immer so,
dass die Logshipper das ganze Paar sie gemacht haben und das dann in dem Format, das du
definiert hast oder was die automatisch erkannt haben, in deren was auch immer
Logspeichermedium, RSSLog oder was auch immer.
Der Grafana Toolstack, der macht das ja ganz anders.
Die schicken ja einfach nur raw dahin.
Die schicken, die machen ja gar kein Parsing.
Das einzige, da ankommt, ist ein Timestamp und dann die Message.
Und das ganze Parsing machst du nachher bei, wie heißt es?
Loki, genau.
Im Loki Web Interface.
Da machst du das Parsing.
Das heißt, der Client müsste theoretisch leichtgerichtiger sein, weil er kein Parsing
machen muss und sich nicht tausend verschiedene Pattern-Matching-Sachen merken muss.
Die hast du dann alle auf dem Server.
Ja und bei Fluent Bit oder Filebeat, kannst du halt auch, also dieses Parsing, was du
meinst, also zum einen kann das natürlich am Input hängen.
Also wenn du so was wie konkret Docker, JSON, Logfile supporten möchtest, dann bedeutet
das, also wenn du die nativ supporten möchtest, dann musst du die tatsächlich erstmal
interpretieren, weil da sind schon strukturierte Daten drin, da sind halt schon Timestamps
in jeder Zeile drin.
Ich glaube, oh jetzt
Wenn ich mich recht erinnere, das irgendwie pro Zeile ein JSON-Objekt.
Und das nimmt dann halt Filebeat hin und deserialisiert das JSON.
Dann wandelt er halt die ganzen Attribute in irgendwelche Felder um und kann das dann die
Log-Message, die er dann wegschickt, packen.
Darüber hinaus kannst du aber natürlich auch eigene Parser-Regeln definieren.
Parser im Sinne von auch
irgendwelche Felder droppen, Felder hinzufügen nach gewissen Kriterien, vielleicht aus
Umgebungsvariablen oder sonst was.
Oder auch einfach modifizieren nach Reggags vielleicht, umbauen und das...
noch, wenn du deinen Nginx Log angepasst hast, den Output von dem Nginx Web Server, wenn
du zum Beispiel die Latency drin haben wolltest, dann musst du auch direkt den Logger
anpassen.
Mit Lösungen wie Loki, einfach nur RAW rüber schicken, ist das halt viel entspannter, weil
du musst das Ding nicht mehr anfassen.
Du musst deine Query immer noch anpacken, du musst es noch anpacken, aber du machst es
nicht mehr auf allen Systemen, was ja heutzutage leider mit Docker und
VMS ein bisschen komplexer geworden ist durch die Anzahl, dafür machst du es halt an
deiner zentralen Stelle an deinem also in deinem Log Aggregation System.
Ja, spannendes Thema auf jeden Fall.
Also das ist nicht so trivial und jetzt mögen Leute denken so 70 MB RAM ist doch völlig
okay.
Wenn du Hoster bist und das mal 10.000 hast, dann ist das schon viel Speicher, den du
nicht verkaufen kannst und dem der Kunde nicht zur Verfügung steht.
Ja genau und das waren dann so, ich jetzt mal nachschauen, die 70 Megabyte waren glaube
ich so im Eitel.
Da hat sich auch was getan, wenn du jetzt einen Fallbeat neu nimmst und also aktuelle
Versionen nimmst, es ist weniger, aber es ist immer noch Bereich, du dir denkst, oh guck,
da hätte ich jetzt nicht mit gerechnet.
Wenn du so einen Fluent-Bit startest, der läuft glaube ich mit 5 oder 10 Megabyte RAM.
So damit, ja das würde ich erwarten in etwa.
Aber da Goja auch viel nachgelegt mit Garbage Collection, Algorithmen verbessern und
solche Dinge.
Genau, kann natürlich sein, dass es an der Stelle auch...
System, also wenn diese Programmiersprache geupdatet wird, ist das eigentlich gar nicht so
verkehrt, dass die anderen direkt mitziehen, weil das hat schon recht schnell einen
Benefit.
Nicht für alle.
Mich privat in meinem Homeoffice interessiert das jetzt auch nicht, ob ich 70 Megabyte
oder 100 Megabyte verballe.
So auf Kante genäht sind meine Kisten jetzt nicht.
Weiß nicht, wie es bei dir aussieht.
Nö, auch nicht.
Da ist es auch kein Problem.
Aber wenn man wiederum auf so Raspberry Pi oder so was nachdenkt, vielleicht sogar noch
die ältere Modelle, wo du nur 2GB hast, ganz anderes Thema wieder.
Ja, ich habe eher hier das Problem auf einer anderen Ebene.
Ich habe ja noch so einen Thin Client als so kleinen Netzwerkserver bei mir.
Der macht nicht viel.
Der macht so bisschen DNS und der hat eine Keep-Alive-Instanz und macht also hier Floating
IP.
Und da ist ein Traffic drauf als Reverse-Proxy.
Also nur so, falls der Hauptserver mal rebooted oder upgraded oder ausfällt oder sowas,
damit nicht alles gleich down ist hier.
Und vom RAM her komme ich damit klar, weiß nicht mehr was hat, 4 oder 8 GB RAM oder sowas,
passt schon.
Aber der hat halt so eine klitzekleine SSD drin.
So ein 8 GB oder so?
Ja, so schon weniger.
Ja, und das ist erstaunlich.
Warte, ich gucke mal, ob ich hier nicht lüge, aber...
Also, Betriebssystem ist ja schnell mal 7Gig groß, ne?
Das ist schon knapp.
Was hast du denn...
4GB RAM, das war richtig.
die Disk, ja, genau, ist eine 8GB SSD.
Und auch wenn du einen Debian nimmst, ist das ein Debian?
Das ist ein Debian, denke ich.
Weil das ist ja kein Pi, dementsprechend ist das nicht irgendwie Raspbian oder so.
Das müsste ein Debian sein.
oh, my bad, das ist ein Ubuntu.
Also ich weiß nicht, ob die einen schlechteren Track-Record haben mit Minimalen, aber das
ist ein Ubuntu 2204 momentan.
Das wird sich auch nicht mehr ändern.
Bei dem Platzmangel kriege ich das mit dem Update nicht so leicht hin.
Genau, 8 GB, das ist furchtbar, weil die Platte geht halt ständig voll und du denkst dir,
das kann doch nicht, das kann doch nicht, was braucht der?
Das ist ein Minimalsystem, da läuft halt ein Docker drauf.
Okay, aber das ist ein Teil des Problems.
Richtig.
Da hast du nämlich nicht mehr den Benefit, wenn du das einfach nur alles installieren
würdest, dass die ganzen Bibliotheken geshared werden.
weil die ja alle gegen dieselbe Version gebaut sind, sondern bei Docker hast du wirklich
dann...
Da könntest du vielleicht darauf aufpassen, dass du Images nimmst, immer von dem gleichen
Base Image gehen.
Zum Beispiel jetzt Debian und dann hast du zumindest die ersten Layer geshaded.
Aber das ist auch mehr Glückssache.
Ich hab auch wirklich nicht mehr viel drauf und wenn du dir sowas wie ein Traffic Image
anschaust, ist ja schon...
Das ist ja, wie heißt das so, from scratch, ne?
Da ist ja einfach nur ein Go-Binary drin und das war's.
Vielleicht noch eine Busybox mittlerweile, aber da ist ja nichts drin.
Und bei den meisten Images ist es so, die sind recht klein.
Ach guck mal, sagt er, ne?
Da ist ja nichts drin.
Jetzt guck ich mir gerade die Liste an Images an.
Okay, was habe ich drauf?
Ich sag das jetzt einfach mal, keine Ahnung, wird nichts wichtiges sein.
Der DDNS-Updater, den hatten wir schon mal ganz kurz thematisiert.
ein winziges Go-Binary, genau, 12,3 MB Image Size.
Cool.
So erwarte ich das.
Go-Bary einfach nur wahrscheinlich auch, keine Ahnung, from scratch gebaut, nur das Binary
drin, vielleicht noch ein Busybox, mehr wohl nicht.
Note-Exporter, 25 MB.
Wireguard.
Das ist dann von Linux Server, also LSCR, IO, Linux Server, WireGuard Image, 102 MB, ok,
passt.
Dann habe ich dieses lustige Projekt, von dem ich mal erzählt habe, dieses SSLH, was so
ein Multiplexer ist, wo du auf einem Port dann definieren kannst, guck mal, wenn der
Client HTTPS sprechen möchte, schick's bitte dahin, wenn er SSH sprechen möchte, schick's
bitte dahin und wenn er SMTP sprechen möchte, schick's bitte dahin.
ziemlich cooles 11 Megabyte.
Syncthing 40 Megabyte.
Traffic 226.
Ich hatte nämlich auch im Kopf, dass Traffic zwischen Saunen und Draunen mega weit
rumliegt.
Ich glaube, das basiert dann auf einem Verbieren wahrscheinlich oder sowas.
Wann sehn?
Bestimmt.
Ich meine, die Layers muss man sich hier anschauen können.
Ja, wir brauchen jetzt hier nicht live die Bangen im Podcast.
warum?
Ne Quatsch, ja.
Genau, braucht man nicht, ist richtig.
Also größer als erwartet.
jetzt hab ich mich gemütet.
Kann aber auch groß sein, weil wenn die eine SQLite nutzen, intern, für StatKram, muss man
halt mit GDBC und der ganzen Kram compilen.
Sonst kriegst ja kein StatDigBinary.
Das ist dann ein bisschen größer.
Ja genau, dann machen wir so einen Haken an den kleinen Ausdruck mit...
Ja, was soll man das hier machen?
Denn ich wollte noch mal kurz darauf eingehen, warum haben wir den nicht vorher
aufgenommen.
Gewöhnlich nehmen wir Samstagsvormittag auf.
Aber ich war Samstag in Berlin, weil ich spontan entschieden habe und Gott sei hatte meine
Freundin noch genug Bahnpunkte.
Sonst natürlich, weil die fahren auch günstig nach Berlin zu fahren.
Ich dachte erst, ich wollte zu IFA, aber das habe ich mir dann doch gespart, weil...
Also ich interessiert das nicht so neue Devices, News, Kram und braucht das irgendwie
nicht.
Da hab ich gedacht, komm dann geh ich nur fürs Home Assistant Meetup dahin.
Bin ich also Samstag schön 6 Stunden im Zug, Flix-Train gefahren und am Sonntag mit dem
ICE zurück.
Fährt übrigens auch einer durch bis nach Aachen, Berlin und Aachen.
Ganz entspannt, musste man nicht umsteigen.
Und dann war ich dann Samstagabend beim Home Assistant Meetup, weil dort waren...
auch einige von den Entwicklern und einfach von der Open-Home-Foundation und von Nabokasa
waren da welche da und auch ein paar Vendoern.
Das fand ich dann super spannend.
Also ich hab den Frank getroffen.
Der, Gott, Frank Neoff oder so spricht man den aus.
glaub, der ist Holländer.
Super netter Typ, der hat ja angefangen mit den Add-ons damals und Livestream mit so einer
Weihnachtsmütze und hat die ganzen Community-Add-ons, die mittlerweile bei Home Assistant
per Default dabei sind, die hat er
zum Großteil mitentwickelt.
Und was ich auch spannend fand, da waren die zwei Jungs Justin und Trevor von Apollo.
Das ist eine Firma, die sitzen in Kentucky in den USA, machen alles selber und bauen so
ESP-Home basierte Sensoren, Geräte.
Die haben ein bisschen so wie dieser eine Brite, der Lewis glaube ich heißt, der macht ja
auch so diesen ESP-Home
Presence One oder so heißt der.
Das ist so ein Millimeter-Wave-Erkennungssensor.
Aber der ist recht teuer.
60 Dollar oder so an die glaube ich dafür haben.
Oder Pound, weiß nicht wie es da ist.
Und die Jungs sitzen halt in Amerika und bauen komplett selbst zu zweit diese Sensoren.
Die auch einen kleinen Shop, wo du dann alles kaufen kannst.
Und das war ganz spannend mit denen zu sprechen, weil ich bin ja auch gerade in der Mache.
dieses Board weiter zu entwickeln bei mir, mein Poké-Pow.
Muss einfach ...
Ja?
du an der Stelle mit die bauen komplett selbst?
Also die entwickeln die Hardware, die bestücken die Platine, die verpacken das Ding, die
machen alles selbst, also von 0 bis 100.
Richtig krass.
nicht irgendwo produzieren, keine Ahnung,
Ne ne, ne ne.
Also so habe ich es zumindest verstanden gehabt.
die haben auch in der Garage angefangen und ach das wird eh.
Manchmal waren hier so 5 Sensoren.
Und plötzlich sind die beide Vollzeit seit einer einiger Zeit dabei.
Also super cool, voll sympathisch.
habe ich mir dann auch bei denen mal den Github Repo angeschaut, weil die bauen natürlich
auch diese ganzen Releases.
Wenn ESP Home eine neue Version raushaut, dann müssen die natürlich auch dann
dementsprechend testen, ob das funktioniert mit der neuen Version.
Da ich dann auch gefragt, wie es denn so ist, mit, ja, was ist, wenn die ESP Home Version
einen kaputten Wi-Fi-Driver hat und dadurch der Empfang schlechter geworden ist.
Ist ja nicht die Schuld von ESP Home an sich, sondern von der...
Arduino oder ESP-IDF Library und die wiederum nutzt eine Wi-Fi Driver für den ESP.
Das heißt, du hast wirklich dann so eine richtige Kette an Dependencies.
Das war schon spannend, wie die...
Er sagte immer mit ein bisschen Pipi die Hose, aber wir testen es.
Im Endeffekt, weil es schon scary ist, du dann ein Update raushaust und das dann den
Kunden alles kaputt macht.
Aber du kriegst das immer recovered, Weil die Dinge haben doch oft einen USB-Port und du
kannst neu flashen zur Not.
Gar kein Problem, du kannst neu fleischen.
Soweit ich weiß, Exposen die das auch immer, werde ich bei meinem Board auch machen, weil
ich will...
Das Coole ist, was die und ich halt sagen können ist, selbst wenn wir sagen, hey, ich habe
keinen Bock mehr oder ich werde vom Bus überfahren, das Gerät wird für immer weiter leben
können oder solange die Komponenten noch heile sind, weil Elektronik geht auch immer
kaputt, Aber solange, das hängt jetzt nicht von einer Person oder einer Firmentität ab,
weil ESP Home...
ist frei verfügbar, ist in der Open Home Foundation.
Wenn du es nicht kannst, kannst du jemanden bezahlen oder in der Community fragen, der die
ESP Home Konfiguration anpassen kann für die neue Version oder sowas.
Das läuft.
Und das brauchst du theoretisch ja noch nicht mal.
Wenn es jetzt funktioniert, du das Gerät so lange laufen lassen, bis nicht irgendwie das,
ich glaube ESP Home und Home Assistant sprechen ihr eigenes Protokoll.
Und wenn da zum Beispiel jetzt ein Deprecating Change wäre, müsstest du dran.
Aber der Theorie musst du da nicht dran.
Kannst einfach laufen.
Und natürlich Security, ne?
War jetzt letztens ein kleines Security Feature.
Äh, Feature...
CVE.
Also, kann auch ein Feature sein, je nachdem, man es sieht, Bei ESP Home.
ESPY-Home.
Ich ich, also wenn du die, ich glaub das war der Web Server, wenn du Basic Auth
konfiguriert hattest, konntest du mit einem leeren String was machen, reingehen glaub ich
direkt und trotzdem OTA Updates anspielen und so.
Nicht so geil, weil du heißt ja nicht ohne Grund Basic Auth, aber die, die halt kein Basic
Auth benutzen haben, hat ja, doch...
schön zu haben muss ich sagen.
Also irgendeine Art von Schutzmechanismus auf IoT-Devices.
Das ist halt leider nicht selbstverständlich.
Nee, ist auch immer echt schwierig, auf diesen Devices kostet dieser Webserver gut Power.
Ja und Authentifikation ist ja nochmal ein bisschen was mehr.
Ich finde es gut, wenn die Projekte das von Anfang an so vorsehen.
Ich meine es war eh als Presence, wo das zum Beispiel nicht möglich war.
Und du kannst dann halt auch Over-the-Air-Updates drin fahren und ja, da müsstest du dann,
also wenn du es nicht haben willst, also mit Zero Trust, geht halt nicht.
Da müsstest du dann wirklich, ne, Perimeter.
Thrust quasi bauen und das Ding in ein separates Netzsegment packen.
Den klassischen Ansatz, den ja viele noch fahren und ich auch noch kenne durchaus, also
der steckt so im Blut, aber ehrlich gesagt habe ich da keine Lust mehr drauf.
Also im Idealfall einfach nur einladen und alles muss halt gesichert sein.
So, da möchte ich mich darauf verlassen können und das ist schwierig.
Bei manchen IoT-Devices geht es eben nicht, sogar bei Open Source Projekten ja teilweise,
wie wir es jetzt gerade hatten.
wohin.
Ja genau, das hast du dann halt eventuell mit anderen Produkten.
Also, keine Ahnung, ich habe erzählt, dass ich irgendwie die Logitech Harmony habe und die
mal gefire-rolled habe und dagegen halt nichts mehr.
Ja, wer rechnet denn mit sowas?
halt mega cool, weil es ist halt Local Only und niemand soll was machen.
Und du kannst auch OTA ausschalten, dann kann niemand damit was machen, außer vielleicht
hat Licht an und aus, du da drauf hast.
Was bedeutet das jetzt?
Also die Sicherheitslücke, die betraf ja dann irgendeine ESP-Home-Version, dann gab es
eine neue Version.
Alle Devices, die du selber flashst, baust du einfach neu, flasht da drauf, alles gut.
Jetzt gibt es ja die Devices, die IO-Torero zum Beispiel sehe ich hier gerade im Regal
stehen oder Apollo, Das heißt, da muss man sich dann natürlich als User darauf verlassen,
dass der Vendor wieder eine neue Firmware liefert?
Ja, du kannst es zweilang machen.
kannst entweder sagen, ne das ist mir jetzt gerade so heikel, ich adopte das Device.
Adopten heißt, es gibt ja den ESPHome Builder, das ist diese Web-Applikation, du deine
ESPHome-Devices verwalten kannst.
Und dort siehst du auch alle Geräte, die ESPHome benutzen, auch wenn es von Vendoren ist.
Und dort kannst du sagen, adopt.
Dann übernimmst du die Config, aber dann bist du auch verantwortlich fürs Updaten.
Du kommst auch nicht mal ebenso zurück.
hab ich gleich schon erwähnt.
bist du einfach der Gegner.
Das ist im Endeffekt deine Konfig dann.
Fertig aus.
Wenn du das lässt und dann kannst du einfach warten.
Kannst du den Herstellern natürlich anschreiben und sagen, hey, da war eine Lücke, bitte
mal neu bauen.
Dann kannst du einfach warten und es gibt einen Update-Mechanismus in ESP-Home, dass die
eine neue Version pushen.
Deswegen hab ich mir mal deren Gitterprepo angeguckt.
Wie bauen die das denn so automatisch?
Weil es natürlich nicht ganz trivial ist.
so Workflow zu haben, der das Binary baut, aber auch einen Dev Brunch zu haben, aber der
dann nicht direkt an alle ausgerollt wird und so weiter und so fort.
Aber genau, da gibt's schon Lösungen für und dann kriegste einfach ein kleines Popup und
dann kriegste auf Update und das war's.
Super cool.
Klingt gut.
Und der Adopt Prozess, wenn ich das jetzt richtig verstehe, sieht dann das sogar sofort
vor.
Also du kriegst dann auch eine passende Config direkt in deinen ESP Home.
kriegst die Config, die der Wendor im Endeffekt mitliefert.
Also du hast, auf dem ESP Home läuft natürlich das compile binary.
Aber es gibt, wenn du made for ESP Home machst, also wenn du in diesem Programm
beitrittst, dann musst du irgendwo per Open Source, per Link diese Jammell liegen haben.
Und die holt er sich dann im Endeffekt.
So verstehe ich das.
Ich habe natürlich nicht in den ESP Home Bildercode geguckt, aber das ist mein Verständnis
dahinter.
finde ich gut.
Also es ist eine coole Lösung, dem User jederzeit die Möglichkeit zu geben, ich übernehme
das jetzt mal.
ja, dann kann man ja tatsächlich, also man kann ja dann Modifikationen angehen oder halt
einfach nur sagen, ja gut, ich hätte jetzt einfach gerne, ich mache das einfach nur, um
Updates selber in der Hand zu haben.
Ja, dann musst du halt eventuell dann halt bei GitHub gucken und das anpassen.
Oder wenn du wie das ich gemacht hab mit meinem Sohn auf damals ist schon wieder einer
gestorben.
Komm ich dann mal zu.
Ich habe ja eine Steckdose gemacht, die ein Timer integriert hat.
Das heißt, die ist 20 Minuten an und die geht dann selber aus in ESP Home.
Und dann, wenn du diese Logik haben möchtest, dann kannst du sehr unwahrscheinlich die
Logik von dem Hersteller nehmen, weil der wird halt nur eine Steckdose haben.
Wenn Knopf dann
das, wenn knüpfen noch mal, dann geht aus.
Wenn du weg von der Herstelllogik möchtest.
auch spannendes Thema.
Aber lass mal das Meetup kurz abschließen.
Ja, warte, ich mach mir mal eine kurze Notiz, wenn's nicht verloren geht.
Ja, Memory Pressure, Some processes might be started.
Also meine Baseline von Memory Pressure ist schon erhöht, sag ich dir.
Ok cool, meetup.
Genau.
Ja, war lustig, hat Spaß gemacht.
hab einige Leute von der Hauptministerialstund Foundation getroffen und von Nabucasa
selbst.
Hartwürdig zu betonen, Leute, mit den Vendoren sprechen, die diesen Home Assistant in
yellow und den Home Assistant in green vertreiben.
hab ich mir im Mai das Kölner Home Assistant Community Day Meetup organisiert.
Dafür hatte ich mir T-Shirt machen lassen.
Und dann kam ich da hin.
Und die Grafikdesignerin, die diese Logik entworfen hat, es voll gefeiert, weil ich einen
richtig guten Print hatte.
hatte hier wohl einen sehr guten oder einen Qualitätladen gefunden, der gute Qualität
drucken kann.
hat die richtig abgefeiert.
Und da fand ich es sehr lustig.
Ich glaube, die andere war es, die hatte im Marketing gearbeitet.
Die hat erzählt, dass sie auf Jobsuche war.
Ich habe mich gefragt, wie kommt ihr zu diesen Jobs?
Das mich aber interessiert.
Und dann meinte sie,
Ja, ich hab einfach irgendwie irgendein Jobportal gesehen, dann hab ich meine Abokasa
beworben und dann hat sie das ihrem Freund erzählt und der Freund meinte, Moment mal...
Abokasa hast du gesagt?
Ja, ich weiß gar nicht, was die machen, aber die haben so eine Marketingrolle und und er
so ging dann zum Schrank.
Du weißt schon, dass das gelbe Ding von denen ist.
Du musst da hin, du musst da hin, du musst da hin.
Weil die haben natürlich auch die Pflicht, ihr eigenes Smartphone in Home Assistant laufen
zu lassen und haben auch ein kleines, kleines Budget, womit sie ein bisschen Hardware
spielen dürfen, bisschen Sachen probieren, wahrscheinlich auch interne von ja, von
irgendwelchen Partnern im Programm.
Das fand ich sehr lustig.
Dann war da auch noch der Gründer von Music Assistant.
Ein sehr großer Niederländer.
Alle sehr groß.
Der hat das Projekt damals ja gestartet.
Ich hab's verfolgt.
Weil ich hab vor Jahren mal so ein System gebaut mit Home Assistant.
Wo ich eine Karte mit NFC an so einen Techreader gehalten hab.
Und dann wurde eine Playlist gespielt.
Ich hab das für meine Freundin gemacht.
Das ging aber kaputt, weil die Software dahinter war.
Die Apis waren nicht stabil von YouTube Music, aber der war ich da gerade genutzt habe.
auf deinen Google Smart Speaker ausgegeben,
Genau, auf die Google Homes.
War cool, aber nur, ich glaub, vier Monate funktioniert dann aber die API kaputt.
Och, und ich hab das immer so beobachtet, diesen Space mit Musik.
Weil ich find, der ist noch sehr volatil.
Und dann fing der, weiß nicht, vor vier, fünf Jahren fing er an, dieses Music Assistant zu
bauen.
Aber da dachte ich so, ja, das schon wieder einer und irgendwann hat er keinen Bock mehr,
weil die YouTube API...
Die ist nicht offiziell, das so eine reverse-ingenierte ARP und dann funktioniert das
wieder nicht und ich nutze halt einfach YouTube Music.
Ich finde das vom Preis-Leistungs-Verhältnis mit YouTube Premium einfach besser als
Spotify.
Fürs gleiche Geld kriege ich halt YouTube ohne Werbung plus Mucke.
Ist einfach für mich interessanter.
Aber das hat sich wohl gezeigt, über die Jahre und er hat auch gesagt, er war kein
Pathen-Entwickler, gar nicht, hatte keinen Plan davon gehabt, hat er sich das beigebracht,
gemacht, gemacht, gemacht.
und mittlerweile ist das ja auch ein offizielles Produkt von der Home Assistant
Foundation.
Nee, Open Home Foundation, so heißt das.
Hast du es mal getestet?
ich hab's mal getestet, aber ich hab grad nicht so das Interesse, über Mucke
nicht gerade im Use Case.
ich wünschte mir, es wäre damals schon da gewesen, weil dann würde es einfach immer noch
funktionieren, was ich damals ge- gebaut
Ja, das war ärgerlich, weil ich erinnere mich, wie du es gebaut hast und dachte mir, oh,
ist ja einiges, da auch an Hirnschmalz reinkommt und an Arbeit.
Du hattest, glaube ich, so RFC-Text gekauft und die kannst du dann beschreiben und in
irgendeiner Form...
Karten, ich...
Das waren Karten, die ich beschrieben habe.
Aber diese Karten waren auch bedruckbar mit meinem speziellen Drucker, den ich da hatte.
Dann konnte ich das Albumcover oder was auch immer ich da draufgeschrieben hatte halt dann
draufpacken.
War schon ein schönes Projekt, aber leider damals kaputt.
ärgerlich sehr ich habe es auch mal kurz angetestet aber bei mir hat es einfach nicht
funktioniert also ich habe wahrscheinlich was falsch gemacht oder es liegt mal wieder
daran also hier im haus sind halt überall so Home Pods verteilt und die sind glaube ich
eingestellt auf das mal wieder mit netzsicherheit und sowas alle die im home sind
Also die hier quasi in diesem Zuhause, in dem Homekit Zuhause angemeldet sind.
Die dürfen es steuern.
Und dann bist du halt bei so welchen Zugriffen wie automatisiert, bist du ein bisschen
raus.
Das ist blöd.
Homosystem ist ja auch damit gebaut, dass deren Prämisse ist, hat ein flaches Netzwerk.
Alles andere sagen, also habe ich mal irgendwo gelesen, unterstützt die nicht.
Klar geht das irgendwie, wenn du deine Firewall gut unter Kontrolle hast, aber ist halt
komplex dann.
Wenn du dann genau weißt, welches Gerät mit welchem Port wo wann sprechen möchte.
Discovery Technik wird es halt einfach nicht mehr nur schwierig, sondern unmöglich.
Wenn du in anderen Netzen bist, dann musst du dich schon darauf verlassen, dass du IPs
oder so irgendwo händisch angibst, also Integration händisch konfigurierst.
Ich hab gerade geschaut, deswegen war ich für einen Moment leicht abgelenkt.
Weil mein Home Assistant mir jetzt gerade gemeldet hat, dass es ein HAOS Update gibt und
da wollte ich natürlich direkt mal gucken, ob der zufällig das...
Also es ist aber anscheinend schon 17 Stunden alt.
Ich hab's halt nur jetzt erst gesehen und dann dachte ich mir, guckst du direkt mal, ob
das PSI drin ist, aber hat's anscheinend nicht reingeschafft in dieses Release.
Ja, aber Texting-Phase und alles vorher, ne?
was haben wir denn heute Dienstag?
Ich glaube, die haben das gestern gemeldet oder vorgestern.
Ja, okay, klar.
Und es muss ja vorher alles getestet werden, Also kein Wunder.
Aber wäre natürlich cool, wenn das jetzt richtig live noch re...
Oh, das mega.
Schade.
Das wäre wirklich cool gewesen.
Ich meine, ist wirklich nur ein Line Change, da...
Lass mal erstmal hier Mieter abhaken.
Oder hast du noch Fragen dazu?
Nö, gab's doch einen Anlass?
War das einfach so ein Meetup wie vor ein paar Monaten, was du auch in Köln abgehalten
hast?
Da war das ja ein Community Day, ne?
die war, genau der Anlass von meinem war der Community Day.
Der Anlass von denen jetzt war IFA.
Einige von denen waren einfach auf der IFA.
Und deswegen haben die das dann gemacht in Berlin.
Ich hatte jetzt kein Interesse an der IFA und deswegen dachte ich, komme ich mal vorbei.
Fast superspannend.
Also es gibt auch ein paar Sachen.
Es könnten vielleicht noch ein paar Dinge kommen.
Von den Home Assistant Leuten.
Die haben auch nicht mehr gesagt zu mir, so, ha?
Weil ich hab direkt gefragt, ich würde gerne das nächste Home Assistant-Meetup in Köln
organisieren.
Ich hab auch schon ein Location.
Ich brauch das Datum nur.
Ich könnte 150 Leute da rein drücken.
Aber die meinten, vielleicht kommt noch was anderes.
Ich habe auch gefragt, wie sieht es aus mit Home Assistant Professional Support und so
solche Sachen.
Da haben sie auch bisschen ausweichend darauf reagiert.
Ja, mal schauen.
Oh!
dann können wir ja auf irgendwelche Announcements hoffen.
Was gab es jetzt?
ein Device mitgenommen.
Also gab es so Tisch, wo man einfach ...
...
so ein Grabbeltisch, wo man ...
...
ne, ne.
Ne, die hatten da so ein paar Geräte ...
...
von den Partnern von WorkSource Home Assistant.
Ich war leider zu langsam.
Ich hab das nicht gerafft, dass der Tisch war.
Da waren so viele Leute in der Bar.
Dann hab ich gedacht, die sitzen einfach nur so.
Und ich wusste nicht, dass die dazugehörten.
Und dann haben sie gesagt, du kannst was hier holen.
Und ein Kumpel von mir, Richard, liebe Grüße.
der hat ein Keypad bekommen, so ein Tastaturfeld.
Das fand ich dann super spannend, weil sowas hab ich noch nicht gehabt.
ja, so eine Art für eine Alarmnage zum Beispiel.
Cool.
Geräte, die da gerade, ja klar, durch die neue Antenne pushen die natürlich in die
Richtung.
Ich glaube, ich glaube, Friend, die hast du hier auch verlinkt gehabt, Ja, die sind
nämlich im Works-as-Home Assistant-Programm eingenommen worden und die hatten da ein paar
Devices.
Aber weil ich keinen ZigBee hab, aktuell, ne ZigBee, SeaWave meine ich.
Ich rede die ganze Zeit von SeaWave.
Grab, Zigbee raus und mach Siewell rein.
Ja, das wäre schön.
Genau und ich habe aber keinen Siebwerf zu Hause, deswegen dachte ich, lasse es mal und
dann habe ich mir einfach so einen kleinen Button von Third Reality geholt.
machen doch auch viel ZigBee, oder?
Die Jungs von...
Ja, weil als ich das das Announcement gelesen habe von Friend, dass die jetzt Works with
Home Assistants sind und mal geschaut habe, was haben die denn bis jetzt so für Sensoren
und da waren ein paar interessante bei, mal wieder hier sowas wie Water Leak Sensoren, Air
Quality Sensoren, aber was mich persönlich ja...
am meisten interessiert hat ist das electricity meter interface es gibt ja diese diese
digitalen stromzähler Es gibt ja diese digitalen stromzähler die die man so in seinem
stromkasten installiert bekommt die sind per se erstmal nicht smart ich glaube das kann
man nachrüsten tatsächlich die haben eine schnitt stelle aber man kann die haben aber auch
so eine so eine
Blink-LED, wenn ich das richtig verstehe?
wird so ein Code drüber gesendet.
Ja.
In dem Takt, immer wenn du, glaube ich, immer wenn was hochgezählt wird.
Das heißt, du kannst dir effektiv da irgendein Lichtsensor dran hängen und dadurch das,
ja, die Strom.
den Smart Cable da.
Ich glaube aber nicht, dass das der ist.
Ich habe verstanden, dass der Smart Cable im Endeffekt nur ...
...
...
da packst im Endeffekt ...
auf der einen Seite Strom rein und auf der anderen Strom so aus ...
und dann kannst du dir jedes Gerät schmarrt machen.
Also anstatt dass das an der Steckdose ist, du dann eine Kabel.
So verstehe ich das Gerät.
Ich mag mich irren.
Ich sehe es zumindest nicht in der Liste.
Diese hier.
Also sowas wie ein Son of Basic früher.
Genau.
Sonneauf müssen wir auch noch kurz mal ansprechen, aber machen gleich.
Ja.
Okay, also dieses Alarizier-Certimeter finde ich vor allem deswegen cool, bei uns ist es
so, dass der Stromkasten im Keller ist und wir reden hier von Altbau, also 1800 schlagt
mich tot.
Genau, es ist so ein Gewölbekeller sogar wirklich, ne?
Also die Decke ist dann noch so abgerundet und so weiter.
Und ich habe ja immer noch Projekt Flurfunk, das circa 0 % fortgeschritten ist.
Aber ich muss...
Also ein bisschen.
Ich hab hier, wenn ich jetzt...
Also ja, dann circa.
Ich hab circa gesagt.
Ich hab halt hier schon...
Man sieht oder ahnt, hatten wir jetzt gerade, wie hieß das Ding noch?
Open Grid, auf dem das Ganze montiert ist.
Das heißt, Switch und Netzteil vom Switch haben schon...
seinen Platz an dem Grid, aber es muss jetzt tatsächlich noch eingerichtet werden.
Also ich habe da noch gar nicht konfiguriert.
Ich muss noch einen Unify Access Point einrichten und ich muss den Switch, der ist smart,
oder smart ist er nicht, aber es wird gemanagt.
Der braucht auch noch so bisschen Liebe.
Dann müssen Löcher gebohrt werden und durch Räume und so was.
Deswegen ist er nicht so wirklich fortgeschritten.
ich glaube, es hängt zumindest jetzt an dem Grid.
Ich weiß nicht, ob das schon ein ganzes Prozentrecht fertigen würde.
doch, das Drucken, dauert ja auch schon ewig, herauszufinden, was braucht man denn, welche
Abstände und...
länger.
Naja, es geht voran irgendwann.
Wie komme ich drauf?
Genau und dann hätte ich quasi W-Lanen mit dem, ja genau, unten im Erdgeschoss im
Eingangsbereich und der Gewölbekeller ist im Grunde genau drunter, nur ist es halt sehr
massiv und dann musst du ja auch noch in den Stromschrank rein, der ja auch noch aus Stahl
besteht.
Ja, es ist Feuchtewand, richtig, ja genau.
noch schlechter, also ich glaub nicht, dass du da durch kommst.
bin gespannt.
Weil das coole an diesem Ding ist, dass es batteriebetrieben ist.
Laufzeit sollte...
schlaft mich tot, ich hab's gelesen.
ich glaub mindestens ein Jahr oder so.
Und das war halt irgendwie so Standardbatterien auch noch.
Was ist das?
AA oder sowas?
Genau.
Das heißt, ich will halt...
Also es gibt natürlich schon Lösungen, wie man Strom messen kann, aber...
Ich hatte bis jetzt nicht die Muße da irgendwie einen Elektriker zu beauftragen, da was zu
installieren.
Und ich hatte keinen WLAN da unten, muss man auch dazu sagen.
WLAN, ja, und das brauchst du halt eben da jetzt nicht.
Du hast WLAN, er misst auch regelmäßig.
Auch da müsste ich jetzt noch mal, ich bin nicht vorbereitet, aber ich glaube irgendwie
alle 30 Sekunden oder so greift dein Wert ab und das reicht ja so locker.
Also deswegen total interessantes Ding, bin ich sehr gespannt drauf.
Ja den gab's leider nicht.
Ich echt vor Ort.
ist das alles schon nativ mit Home Assistant?
Die sind jetzt im Partner, oder nee Partner ist der falsche Begriff, die sind halt
Works-with-Home-Assistant-Partner, aber heißt ja noch nicht zwangsläufig eventuell, dass
alle Geräte schon nativ damit funktionieren.
Nee, da musst du auf die Blogseite mit den Anonsmark gehen.
Ja, das schaue ich mir mal an.
Das Ding ist auf jeden Fall interessant.
hätte mitnehmen können wäre ein Rauchmelder in smarten.
War aber leider auch Z-Wave soweit ich weiß.
Und ich wusste auch nicht wofür, weil wir haben hier überall welche.
Und ganz ehrlich, wenn es hier piept, dann gucke ich nicht aufs Handy, sondern dann breche
ich die Sachen und hau ab.
Ja.
Also ich meine ich kann es verstehen wenn man nicht zu Hause ist aber ich arbeite im
Homeoffice, ich schlafe im Homeoffice also nicht im Homeoffice, schlafe aber zu Hause.
sehe da jetzt noch nicht so den neger Vorteil.
Deswegen habe ich mir einfach so eine kleine Third Reality, so ein Knopf mitgebracht, also
ein Button.
Sieht aus wie eine Mini-Fan-Bedienung.
Leider im hässlichen Blau oder so eine Art Home Assistant-Bedienung, ist nicht so schön
mit meinen Augen, hey, ein Geschenk in Gauche.
Schaut mal nicht ins Maul.
Doppel A rein, zwei Stück und das Ding hat sich relativ schnell mit dem Siegbien-Netzwerk
dann verbunden.
Musste natürlich wieder zum Koordinator hoch und
Dann musste ich erstmal ein Update fahren.
Boah, das hat lange gedauert.
Also Updates über Zigbee machen ja gar keinen Spaß.
Halbe Stunde hat das rumgerödelt.
Aber dann war dann.
Ist ja nur, es macht man ja nicht so häufig.
Ja, und jetzt habe ich einen Button, den ich...
Ich weiß nicht, was ich denn machen soll.
Also irgendeinen Use Case.
Das Coole ist, die hatten also einen...
Die hatten...
Oder der Button hat einen Einfachklick, einen Doubleklick, Hold und Release.
Also du kannst dann theoretisch darauf reagieren.
Bisschen mehr als der Aqara-Button, den ich habe.
Und der sollte auch wesentlich länger halten, weil der halt zwei Doppel-A Batterien hat.
Das auch dann diese längliche Form, wie so eine Art Fernbedienung.
Und die hatten dabei so paar Sticker, wo du was draufkleben konntest, wie ein Fernseher
oder so, was du halt an- ausmachst.
Und einen kleinen Magnetstreifen.
Fand ich praktisch, weil der jetzt, mein, mit einem Bett ist aus Metall, kann ich einfach
dran kleben und kleben.
Also, super Idee.
Hab ich noch nie darüber nachgedacht.
Weil...
Oder einen Kühlschrank, kannst du das dann auch packen.
Wenn du einen aus Metall hast, wir leider nicht.
Wir haben so eine Frontervor-Holz.
Interessant.
Ich habe leider gerade einen Dämpfer erfahren, ich auf der Seite von diesem Electricity
Meter mir irgendwann die Frage gestellt habe, Moment, ich bin aus irgendeinem Grund die
ganze Zeit davon ausgedacht, dass das WiFi spricht.
Aber es spricht gar kein WiFi, es spricht Zigbee.
Ja, Zigbee kriege ich da unten nicht hin.
wäre es nicht batteriebetrieben.
Wi-Fi und Batterie funktioniert nicht.
Ich dachte halt er nimmt alle 30 Sekunden Wert und es wäre ja fein wenn er das dann alle x
Minuten pusht.
Aber da es Zigbee ist, die Chance sich Zigbee, also da unten rein kriege in den
Gewölbekeller, die ist halt schon sehr gering.
Da müsste ich schon irgendwie keine Ahnung mit irgendwelchen Birnen rein dahin routen die
Ecke, aber nee, ich glaube das wird nichts.
Schade.
Schade, schade.
Ich hab ja mal die Ecke WLAN gelegt,
Hast du die Ecke gelegt?
Wie hast du das Ding gemacht?
WLAN die Ecke legen.
Unsere alte Wohnung hatte einen Flur, so ein L-Floor war das.
wenn man auf der kurzen Seite des Ls war im Endeffekt das Badezimmer.
Und das Badezimmer hatte einen riesigen Spiegel, im Endeffekt die gesamte Wand.
Und auf der Ecke war die Elektroinstallation.
Das heißt da war der Elektrokasten.
und der ganze Garaffel warm Wasser, heiß Wasser, dies das.
Und ich muss mal kurz das Fenster zumachen.
Und das heißt, durch diese Ecke und durch diesen Spiegel kam kein Netz.
Und warum willst du wedern auf dem Klo?
Klar zum Lesen und Co.
YouTube, Der Klassiker.
Und natürlich Musik.
Ich hatte da einen kleinen Google Home Speaker stehen.
Der hat aber keinen Empfang.
Und was ich dann gemacht hab, ist, ich hab mir
einen Spiegel geholt, den ganz leicht angewinkelt an die Wand montiert und durch das
Signal weiterhüpfen lassen.
Das funktioniert.
Ein ganz normaler Haushaltsspiegel, so ein Hochkant.
Ich habe den an die Wand montiert, aber ich habe den leicht an der rechten Seite
angewinkelt, so dass er schräg stand und die Signale vom Wlan halt zurückgeschmissen hat.
Das hat tatsächlich funktioniert.
Okay.
Da ich auch sehr erstaunt drüber.
Ich dachte, das wäre eine sautdove Idee.
War es auch, aber funktionierte.
Die Wellen wissen ja dann, dass sie nach links müssen.
ja.
Schön.
Na gut.
So, Marker.
Wir noch Sonoff, bevor ich jetzt hier...
Genau.
Ja.
Ich hab ja damals mit Smart Home angefangen.
glaub der Staubsauger war mal eins meiner ersten Geräte.
Und Sonoff, weiß, dass es damals gab, es gab Gar nichts.
Oder es war arschteuer.
Also wirklich teuer teilweise.
So eine Steckdose an 40, 50 Euro, das war ich dann nicht bereit zu bezahlen.
Plus damals war ja noch Student oder gerade Berufsanfang.
Und Sonoff hatte damals den Sonoff Basic und den Sonoff Air, hieß er glaube ich.
und den Sonoff S20 auf den Markt gebracht über ein Jahr oder so.
Und die wurden natürlich richtig gefeiert in der Community, die waren damals noch gepowert
bei ESP8266, also den Vorgänger von dem ESP32.
Die konnte man einfach flashen.
Oder wenn man wollte, konnte man auch deren eigene Cloud nehmen.
Ich glaube, das ist die eWee Link App.
typische...
Ja, das ist im Endeffekt, wo jeder No-Name-IoT-Anbieter...
Das ist ein Stack, kannst du dir klicken im Internet, dann kriegste da Zugang zu der
eWinlink App und du kriegst eine Firma für dein IoT-Gerät und dann hast du halt IoT.
Genau, die konnte man damals flashen, da musste man dann tatsächlich auch selber die Kabel
dran tüdeln bei den meisten.
Zumindest bei dem Air und bei dem Basic.
Der Basic war im Endeffekt nur für stinknormale Lichter geeignet.
Und der Air konnte tatsächlich auch noch, ich glaube der konnte mehr Ampere schaffen und
konnte auch Power Metering.
habe ich damals benutzt die Waschmaschine zu checken ob die läuft oder nicht durch den
Brauchverbrauch.
Und der Sonoff S20 das war eine Steckdose, also eine schaltbare Steckdose.
Ich hatte bestimmt acht oder neun von den Basics in diversen Lampen, Kabel aufgeschnitten,
dazwischen geklemmt und dann Attacke.
Zwei von den R2s und ich glaube drei oder vier von den S20s.
Über die Jahre sind die mir alle weggestorben.
Ich hab noch einen.
Ich wollte, das ist jetzt kein Witz, ich wollte damals einen Artikel schreiben in meinem
Blog über Best Value Smart Home Gerät und da war der so noch drin.
Und eine Woche später sind sie mir alle gestorben.
Ich hab den immer noch im Draft Modus, weil er jetzt einfach komplett daneben war.
Also was, bei mir ist passiert, dass ich die erstmal mit TAS Motor hatte und dann mit ESP
Home und
Als ich die dann mit irgendwann hatten Update in meinen Augen die kaputt gemacht danach
konnten die nicht mehr mit Wifi reden.
Das haben so viele Leute gehabt auf GitHub.
Das ist unfassbar gewesen.
Also ständig gab es, ich habe ein Update gemacht, sondern ging das Wifi nicht mehr.
Ich habe das dann getestet, indem ich dann per Kabel mir das Log geholt habe von dem
Sonoff und das Ding funktioniert.
Es konnte schalten, also mit dem physischen Knopf.
Allerdings hat es nie hingekriegt das Wifi zu connecten.
Und irgendwann habe ich gesagt, ich habe so viel die Wackenzeiten reingesteckt.
Weißt du was?
Weg mit den Dingern, alle abgebaut, alle rausgeschmissen.
Das waren erst die Basics.
Irgendwann starben dann auch die R2s.
Oder die Rs, das waren die ersten.
Und die S20s auch mit der Zeit.
Ich habe noch einen, der tut noch.
Und ein Basic, ein Basic und ein S20.
Mal gucken, wann die sterben.
Letztens wollte ich nämlich die Bettheizung anmachen für meine Freundin.
Eine kleine Heizmatte im Bett mit diesem Timer.
Und ich drück, geht an, ich drück, geht nicht mehr aus, drück nochmal, ist aus, tot.
Gar nichts mehr.
Diese Ironie dahinter, dass ich einen Blockartier geschrieben wollte.
Ich fand die Dinger damals halt auch wirklich genial, weil das wieder so ein universelles
Produkt ist.
Du kriegst es sehr einfach umgeflasht mit TAS Motor.
Hm, so einfach war es auch nicht.
Du musstest Pins dran löten und so ein Blödsinn.
Oder du hast die so halb drangehalten in einem 45 Grad Winkel.
Jaja.
Jaja.
es war für den Zeitpunkt, also Shelley ist halt heutzutage einfacher, weil Shelley, du
flashst das jetzt nicht unbedingt mit anderer Firma, aber du kannst das halt super mit
Home Assistant integrieren oder selbst ja mit MQTT oder sowas.
heutzutage ist einfacher.
Also haben die Shelly-Geräte die Pins exposed zum Flashen?
Aber ja, ich hab keinen, deswegen weiß ich's nicht.
Achso, hast gar kein Jelly?
Ich hab die Steckdosen, aber da ist mir die Firma, die die Lokale haben, auch okay, weil
ich nutze einfach die Rumsinn Integration.
Die ist ja auch lokal.
die Stecktüte.
Naja, das ist eigentlich auch ein ganz guter Sack-Way zu dem Notiz, zu dem Notiz, ich mir
vorhin gemacht habe.
Und zwar, das passt jetzt, Marker, Marker, Marker, danke, das passt doppelt.
Und zwar auf der einen Seite Sonoff, weil, also was habe ich gemacht?
Ich habe irgendwann die Erfahrung sammeln dürfen, dass ein Kabelmodem, oder in dem Fall
ein Kabelrouter, also
Internetkabel, dass der hin und wieder mal ganz gut daran tut, wenn die Konsensatoren sich
mal komplett entladen.
Ja, ich hatte das schon, genau, also unabhängig, ich hatte das so, das war zu einer Zeit,
hatte ich glaube ich, da hat Unity Media oder ich oder wie auch immer sie damals noch
hießen, da haben sie halt noch ein Cisco Modem ausgeliefert.
Aber da gab es das Problem auch schon und hin und wieder mal gerade so nach Gewitter oder
so, hast du eventuell häufiger mal Verbindungsprobleme bekommen.
Und da tut es ganz gut, das Ding mal ein, zwei Minuten vom Strom zu trennen, damit die
Kondensatoren komplett leer werden.
Das ist gut.
Das sollte man auch machen, du ein Netzteil hast, welches...
Also wenn das Netzteil nicht eingebaut ist, sondern wo der Trafo im Netzteil ist, das
Netzteil wirklich rausziehen.
Weil da sind ja auch Kondensatoren drin, die dann auch ein elektrisches Feld oder
Magnetischfelder erzeugen können.
Und weil das beim Internet immer mal wieder vorgekommen ist bei mir, dass diese Probleme
auftraten, die dann alle immer wieder auf magische Art und Weise verschwunden sind, wenn
man mal kurz den Router vom Strom trennt und das nicht einfach nur rebootet.
man kann das ja auch testen, du kannst ja auch einfach nur sagen, ich reboote den jetzt
auf Software eben.
Das löst das Problem halt nicht.
Du musst das Ding wirklich vom Strom trennen.
genau, deswegen habe ich mir irgendwann mal eine schaltbare Steckdose genommen.
So noch.
Und hab die dann vor die Fritzbox gehangen.
Und hab mir dann eine Automatisierung in Home Assistant geschrieben.
Einmal die Woche.
mich.
Das war die Damage schon doof, aber ja, es hilft.
Ja, genau, es hilft.
Also einmal die Woche oder zweimal die Woche habe ich das dann irgendwann nachts zu
Zeiten, wo sehr wahrscheinlich ist, dass alle hier im Haus schlafen, kurz vom Strom
trennen, zwei Minuten warten, wieder einschalten.
Irgendwann im Urlaub, also ich im Urlaub, kriege ich die Information, Internet würde hier
nicht funktionieren im Haus.
ja...
Und ich dann, meine Nichte, geht hier rein und ich navigiere sie so durch und erzähle dann
so, guck mal, da unten links, da hängt dann der Router und das Stromkabel, also leuchtet
der?
Nein.
Okay, das Stromkabel geht irgendwo nach hinten in so eine schaltbare Steckdose.
Ja, sehe ich.
Leuchtet die?
Nein.
Drück mal auf den Knopf.
Da ist so ein Knopf.
Ja, jetzt leuchtet's wieder.
Und der Router auch.
Okay.
Ich bin noch zu dem...
Ja.
Also, genau, er hat sich ausgeschaltet.
Also, Home Assistant hat ihn ausgeschaltet und hat ihn aber nicht zwei Minuten später
wieder eingeschaltet.
Und ich gerätselt.
Nö.
Genau, der Router macht nicht das.
Ich hab ja...
Also, das ist die Fritzbox.
Bei meinem konkreten Fall ist tatsächlich an der Fritzbox erstmal nur wieder nochmal ein
Router.
Das ist ein Mikrotikrouter.
Das heißt, du hast den Bridge-Modus drin.
das nicht, das ist deaktiviert vom Provider und ich hab nie den Schmoo gemacht, das
irgendwie umzufleschen oder sowas.
Genau.
Und das heißt alles hängt an Mikrotik, der macht auch DHCP, dementsprechend die Devices
sollte das gar nicht tangiert haben.
Maximal IPv6 natürlich, weil Prifix durch...
Also der Mikrotik holt sich halt einen Prifix durch Prifix Delegation von der Fritzbox,
aber...
hat, wäre schon sehr unwahrscheinlich, dass das nicht verlängert worden wäre und genau
dann aus-timed.
Also, wie auch immer, ich konnte es mir nicht erklären, aus irgendeinem Grund hat er also
einfach nur nicht wieder sich eingeschaltet.
Und das ist ja, das Sound-Of-Ding lief auf das Motor, dementsprechend MQTT, da die
Messages retained sind.
Selbst wenn er kurz die WLAN-Verbindung verloren hätte, hätte er ja im Anschluss sofort
Wenn er sie wieder bekommen hätte sehen müssen, ich soll eingeschaltet sein.
Also zack.
Das heißt es ist eigentlich nicht mal so ein Problem, dass nur das Signal zum Einschalten
verloren gegangen ist.
aus irgendeinem Grund hat sich das nicht wieder eingeschaltet.
Ich konnte es mir nicht erklären.
Na gut, aber es hat sich damit erst mal gelöst.
Und irgendwann, ein paar Wochen später, ging halt nichts mehr.
Da war die Fritzbox dann auch wieder aus und ich konnte es aber dann nicht mehr
einschalten.
Ich weiß nicht mehr genau, es ist auch nicht meine erste, nicht mein erstes Sonoffos.
gestorben ist.
weiß nicht mehr genau, was das Fehlerbild war.
Ich glaube, es blinkt die LED so nach dem Motto, ich kann nicht connecten zum, das kann ja
bedeuten, entweder zu WLAN oder zu MQTT zum Server.
In beiden Fällen blinkt das glaube ich gleich bei TAS Motor.
ja, alle anderen Geräte konnten aber sowohl zu WLAN als auch MQTT verbinden.
Ich habe es eine Zeit lang debugged, bis es mir irgendwann
Also bis ich einfach realisiert habe, okay, das Ding ist wohl einfach in der Fritten.
Also ist ja nicht der erste, aber am Anfang habe ich halt noch damit gerechnet, dass hier
wirklich irgendein Problem vorherrscht.
Irgendein WLAN-Issue oder irgendein MQTT-Issue oder...
Aber nö.
Das Ding ist jetzt halt so auf dem Müllhalter.
Ja, aber die Dinger sterben tatsächlich, ne?
Wie du sagtest, also die sterben so langsam.
Und ist ja wie gesagt auch nicht der erste.
Ich hab da eine lange Zeit lang ohne diese...
diesen diesen Mechanismus gelebt, der meine Fritzbox neu startet und vor...
War das denn okay?
Oder musstest du den Mechanismus
Vor zwei Tagen hatte ich...
Nein, anders.
Irgendwann in den letzten sieben Tagen hatten wir einen Gewitter.
Und am nächsten Tag fing es an, dass ich Probleme mit dem Internet hatte.
Aber die waren etwas seltsam.
Also warum seltsam?
Was mir immer wieder aufgefallen ist, wenn ich zum Beispiel YouTube-Videos schaue, dass
die stehen bleiben, dass die die Auflösung runterschalten.
Aber so beim Surfen...
habe ich erstmal keine Probleme festgestellt.
Somit hätte ich niemals gedacht, das hat wieder irgendwas mit Kondensatoren oder so zu
tun.
Es schien einfach auf einem ganz anderen Level, auf einem anderen Layer zu sein, das
Problem.
Aber auch da wieder...
Ich erstmal dachte ich sitze da aus, wahrscheinlich hat YouTube gerade ein Problem.
Oder Vodafone.
Wahrscheinlich eher Vodafone.
Ehrlich gesagt.
Also...
Ja.
Also dachte ich sitze da aus.
Einen Tag später immer noch.
Einen Tag später immer noch.
Okay, jetzt so langsam ist es sehr unwahrscheinlich, dass YouTube so lange Probleme hat,
aber selbst Vodafone kriegt das eigentlich schneller wieder in den Griff.
Also dachte ich mir, rebootest du mal die Fritzbox, aber nur soft.
Danach immer noch das Problem.
Ist nicht kein bisschen besser geworden.
Dann dachte ich mir, okay.
gehe ich in deinen Schrank.
Ich war abends mal wieder auf der Couch, es war gemütlich, war was frisch unterm Deckchen
und so weiter und ich guck irgendwelche YouTube Videos und war ein bisschen angenervt,
dass das nicht funktionierte und dann dachte ich mir, wenn du jetzt schon aufstehst, dann
nimmst du dir irgendwo aus dem Regal auch noch ein Jelly und steckst den da ein.
Und das hab ich gemacht.
Getrennt, Shelley eingebaut, waren noch irgendwo in Home Assistant integriert.
habe so ein paar Shelley, die haben ja auch, also nicht jeder Shelley diese Plug S, diese
kleinen Dinger.
Also die haben einen sehr schmalen Formfaktor, tragen wenig Dick auf, dementsprechend
verlierst du auch keinen Platz in der Steckdosenleiste.
Genau, weil da kannst du halt eventuell links oder rechts irgendwas anderes nicht
einstecken.
Die kleinen Plug S, die sind super schmal.
Die Plug S können aber auch nur 10 Ampere.
Deswegen habe ich ein paar von den normalen Plugs.
Ich habe mir jetzt einfach eingegriffen, ein normaler Plug, der war noch irgendwo so.
Ich nutze die dann als Messstation.
Wenn ich mal was habe, wo ich genau weiß, Wasserkocher oder Toaster.
Wenn du sowas mal messen willst, wo also höhere Ströme fließen könnten, dann nehme ich
halt die Dinger da her.
Aber ich hab schon lang nichts mehr gemessen, also dachte ich mir, komm, dann nimmst du
halt das Ding, baust das ein, es war noch integriert, ein Home Assistant, alles super.
Alles easy.
Genau.
Und dann war nämlich der Gedanke folgender.
Deswegen gibt es zwei Gründe, warum ich an dieses Thema gerade gedacht habe.
Zum einen die sterbenden Sonnaufs.
Das Sterben der Sonnaufs.
Ich warte mal, Sendungstitel.
Der zweite Grund war das, was du meintest mit ESPHome.
dass du in der...
war das die Heizung?
War das die Bettheizung?
Da fest einprogrammiert hast, dass sie sich nach einer gewissen Zeit wieder ausschaltet.
Ja, weil ich wollte mich halt an der Stelle, diesem Problem vorzubeugen, dass wenn man mal
wieder im Urlaub ist und sich das Ding einfach nur ausschaltet, dass dann vielleicht das
Einschaltsignal gerade nicht ankommt.
Das ist bei den Shellys auch nochmal ein bisschen kritischer als bei den Sonoff's, weil da
ist es halt eben...
nicht MQTT, dementsprechend kann es tatsächlich sein, dass mal ein Request verloren geht
oder aus irgendeinem Grund gerade nicht erarbeitet werden kann und dann hast du nicht mehr
den Vorteil von die Message ist retained im MQTT, dementsprechend wird es so eine Art,
sagen wir mal, Autohealing-Effekt haben.
Hast du halt bei Shelley nicht, ja?
Die haben doch ein...
Minenplan oder sowas kannst du da machen oder?
Das haben die, Aber noch viel geiler, das habe ich das letztes schon mal getestet oder
benutzt.
Für Andrea, die hatte irgendwann mal Sorge, dass sie eventuell ihr Glätteisen nicht
ausgesteckt hat.
Genau, ganz genau.
Und dann habe ich ihr gesagt, ja ich kann dir ja...
Sie nimmt das Ding, also das Ding ist halt eingepackt in irgendeine Rolle, dann wird das
halt ausgerollt, Kabel wird eingesteckt, es wird geglättet.
natürlich erst mal muss das Ding vorheizen, ein paar Minuten.
Potenziell könnte man es natürlich da schon vergessen und dann nicht mehr im Blick haben.
Aber ja, es heizt dann vor und dann kann man es nutzen und dann kann man es halt
ausstecken und abbauen oder so.
So und dann kam der Gedanke, ja dann kann ich dir einen Zwischenstecker geben,
irgendeinen...
oder Sonoff oder irgendwas.
Und dann sehe ich das Ding an Home Assistant und zum einen kannst du es dann auch drin
sehen, aber ich kann ja auch eine Automatisierung bauen, die es automatisch ausschaltet.
Und da zu dem Zeitpunkt habe ich schon recherchiert, die Shellys können auch automatisch
sich ausschalten, wenn sie, also du kannst konfigurieren und zwar sekundengenau, wie lange
sie an sein müssen, bis sie sich automatisch ausschalten.
Und was ich nicht in Erinnerung hatte ist, haben sie das denn auch genau andersrum?
Was natürlich cool wäre, weil der Use Case jetzt ist ja genau andersrum.
Ich will die Steckdose ausschalten via Automation in Home Assistant und würde dann gerne
irgendein Failsafe Mechanismus haben, das sie sich aber auch bitte wieder einschaltet.
Weil wenn ich unterwegs bin, komme ich sonst anders nicht mehr dazu.
Geil, ist sogar komplett on device alles.
Und ging's?
Nice.
dieses Feature genau in beide Richtungen und du kannst gleich konfigurieren, Sekunden, wie
lange, nach wie viel Zeit es sich entweder Automatisch wieder ausschaltet oder Automatisch
wieder einschaltet.
Find ich mega cooles Feature.
Sehr cool, das heißt du machst das einmal nur kurz in der App.
Ich meine nicht immer, dass du dann noch die Wendor App brauchst, aber hey, das machst du
einmal und Shelley ist ja ja auch...
du über ein Webinterface ganz ruhig einstellen
Ach, haben die nen Webserver?
Ich dachte du brauchst noch mal die blöde App dafür.
Gar nicht.
Du kannst das Ding komplett von on-boarden oder wie nennt sich das?
Nee, on-boarden ist das falsche Begriff.
Aber Dingensen.
Genau, provisionieren.
Also von Anfang bis Ende kannst du das Ding über Web nutzen.
quäle mich immer mit dieser kack App, die immer lädt und lädt und lädt und...
Okay.
macht einen WLAN-Server auf.
Dann kannst du dich da anmelden.
Ein WLAN macht der auf.
Du meldest dich im WLAN an.
Dann kannst du da irgendwie Punkt 1er-AP nehmen und dann bist du drauf.
Und dann kannst du da alles konfigurieren.
Das richtige WLAN.
Du Firmware-Updates.
Du kannst alles darüber machen.
Sogar MQTT-Konfiguration.
Und eben auch diese Timer-Geschichte.
Du kannst sehen, wie viel Strom gerade verbraucht wird.
Und wenn du das Ding dann in Home Assistant integrierst
in der Integration.
Also du siehst dann halt das Device und dann hast du in dem Device auch direkt Visit
Device, diesen LinkedIn Home Assistant da generiert und dann hüpfst du direkt drauf.
Kannst du auch mit Authentifikation, also auch absichern.
Very nice, wusste ich nicht.
Das muss ich mir merken.
Total gut.
Also ansie-
dass ich meine Bedheizung fixen ...
ich habe jetzt eine andere, ich habe eine ESP-Home-basierte Steckdose ...
aber die ist bisschen komplexer aufgebaut, weil die auch Stromzelle drin hat.
Und da wollte ich jetzt den Update-Mechanismus nicht vom Hersteller ...
von Atom halt ...
rausschmeißen und dann dachte ich, mach ich die Timer-Geschichte jetzt noch.
Ja.
Aber jetzt überlege ich gerade, soll ich da vielleicht doch noch einen Shelley
reinschmeißen?
Ja, und der kann ja auch Strom zählen.
Ja, das ist mir egal.
Strom...
Ich mach das...
Die Sonne war super easy.
20 Zeilen Jammen oder so, aber die FM ist ein bisschen mehr.
sind 200 oder so.
Ich hab Bock, das zu warten.
Ja das ist das schöne an den Shelly Geräten und deswegen, man kann halt die ganzen Power
User Use Cases abbilden, ohne dass du auf eine Custom Firmware wechselst.
Aber zur Not könntest du es halt auch immer noch.
Also es gibt ja auch freie Firmwares, die du auf das Shelly spielen kannst.
Wenn jetzt also Shelly irgendwie doch evil wird.
Ich hoffe ich habe nichts falsches jetzt, aber ich bin mir ziemlich sicher, ich schon mal
alternative Firmwares gesehen habe.
meine das war sogar auch das Motor oder das Motor Shelley kurz verifizieren
auf den Shelly, auf diesen Relays, habe ich das auch schon paar Mal gehört, da kannst du
das mal drauf packen.
Aber ich weiß nicht, ob das auch auf den Steckdosen geht.
Hmm?
oh
Aber es auch.
Ich weiß es nicht.
Ich dachte es zu wissen und ich glaube es zu wissen, aber jetzt wird es Okay, dann müsste
man nochmal recherchieren.
Aber ich meine, es geht.
Nur den Use Case, wie gesagt, ich brauch das noch nicht, weil das Ding halt offen genug
ist, dass du alles, was man damit machen will, willst auch machen kannst.
Okay, dann hacken wir das mal ab.
Hast noch Bock auf ein komplett random Thema?
Random oder Rantum?
Rantum.
Nee, bitte, gerne.
Okay, jetzt kommt die Sektion Komplett Random, 0 IT Related.
M
meine Freundin ist aus der Kirche ausgetreten oder wollte.
Ich war ja noch nie drin.
Und weißt du wie das abläuft?
Ich habe es vor einigen Jahren bei Andrea am Rande mitbekommen.
Es ist deutlich komplexer, als man es erwarten würde.
Okay, ich fand's so mega absurd.
Erstmal muss sie einen Termin machen.
Ich habe jetzt vergessen, wo sie hin musste.
Aber ist auch egal.
Jaja, aber...
Keine Ahnung, vergessen.
Sie musste...
Das kostet ja Geld.
Ein Kirchenaustritt kostet ja Geld.
Du musst Geld bezahlen, damit du kein Geld bezahlen mehr musst.
Wir diskutieren natürlich, ob das sinnvoll ist oder nicht.
Ich will jetzt einfach nur diesen Prozess als Kirchenaustritt, als Zeug bewerten.
Und...
Das heißt, die hat dann, ich glaube es waren 30 Euro.
Sie musste 30 Euro zahlen, damit sie diesen Termin machen konnte.
Fenn auf.
Verwertungsaufwand, das.
Eigentlich nicht, aber es hat ein Bullion im Endeffekt irgendwo, es steht, nee, ist nicht
mehr drin.
Aber was, whatever.
Und sie musste diese 30 Euro nicht zu dem Termin mitbringen.
Nein.
Diese 30 Euro waren dafür da,
dass sie sich einen Voucher kauft, den muss sie zum Termin mitbringen.
Und wenn der Voucher nicht dabei ist, dann verfällt er, glaube ich, auch.
Das heißt, die haben eine Währung eingeführt, aus der Kirche auszutreten, und zwar dieser
30-Euro-Wertgutschein.
Ich kann nicht klar.
mal.
Ignoriert ist das so ein bisschen wie im Straßenverkehrsamt.
Du machst deinen Antrag, dann kriegst du irgendeine Karte, gehst zum Automatenbezahlens,
gehst mit der Karte zurück.
Kann man das so vergleichen oder ist das nochmal absurder?
Sie meint, das war alles schnell und so.
Aber ich fand das so absurd, dass du einen Voucher haben musst, damit du da raustreten
kannst.
Ich verstehen, dass du nicht das Geld verwalten möchtest.
Aber ich fand das trotzdem irgendwie absurd.
Das heißt, sie hat Online-Termin gemacht?
Hat dann online auch den Voucher gekauft?
Yes.
Den du auch hättest.
Ich stand auch drauf, dass du den gedruckt mitbringen musst.
Wir sind in Deutschland.
Hat sie nicht gemacht.
Hat sie es drauf ankommen lassen.
Ich hab gesagt mutig.
Fand ich jetzt sehr mutig.
Gerade bei der Kirche.
Ja, aber hat dann geklappt.
Ich fand das einfach, ich weiß nicht, ich fand das so absurd.
Diese Digitalisierung hier, ne?
Ja ja.
Und ich erinnere mich, wir haben das damals mal in Köln probiert.
Und ich glaube, in Berlin war es auch mal eine Zeit lang so, als diese ganzen
Bischofsskandale waren, da hast du, glaube Termin zwei Jahre warten müssen.
Komplett absurd.
Da war der Die-Mann voll groß.
Bei Andrea war es jetzt auch, es ist nicht lange her, es war jetzt irgendwann in den
Corona-Jahren.
Da war anscheinend, also zum einen war auch da erstmal der nicht laligenste Gedanke, ach
guckt, man muss persönlich vorstellig werden.
Ja, es gibt auch keine Vollmacht dafür.
Ich hab nämlich gefragt, soll ich das nicht machen, weil sie war halt hoch.
War sie da schon hochschwank...
Nee, das Kind war schon da.
Ich dachte, ich kann da hinfahren, dann kann sie sich das Kind kümmern.
Nee, ist nicht erlaubt.
Ja, man fragt sich dann auch wofür der Termin ist.
bin mir nicht mehr sicher.
glaube, sie sagte irgendwas von, dass da nur noch mal persönlich abgefragt wird, ob du das
auch wirklich möchtest oder so.
ja.
zahlst 30 Euro online.
Du fährst dahin in deiner scheißfreie Zeit und dann fragt dich wer, willst du das wirklich
machen?
ich so, ne doch nicht.
Was ist denn mit den Leuten?
Dialogfenster.
So apply.
Confirm.
Nur ist es bad pattern, es ist einfach umgedreht, das grün und der rote Button...
hart
egal.
Wo wir bei Bürokratie sind, nächster Haken.
Okay.
Hast du schon mal, ich bin ja bei der Technika und nutze zwar schon länger diese
elektronische Patientenakte.
Hast du das auch bei dir mal eingerichtet?
Nein, also jein.
das ganze, ich nenne es mal ernst wurde, als es dann wirklich eingeführt wurde, wurde man
ja darüber informiert und man konnte im Vorfeld widersprechen, falls man das nicht möchte,
dass automatisch das für dich aktiviert wird und das war dann der Moment, wo ich für mich
eine längere Zeit lang überlegt habe, was möchte ich denn?
Möchte ich das oder möchte ich das nicht?
Und
relativ viel zu den Kritikpunkten gehört und manche davon konnte ich nicht ganz
nachvollziehen.
Vielleicht waren sie zeitlich nicht mehr up to date, weil es wurde zum Beispiel gesagt,
dass im Grunde jeder der, dem du dann diese, also jeder Arzt oder medizinische
Einrichtung, muss man ja dazu sagen, muss man ja differenzieren, und jedem, du dann die
Karte gibst, kann auf all deine Unterlagen zugreifen.
Das habe ich wiederholt gehört und gelesen.
Zu dem Zeitpunkt, wo ich mich informiert habe, meine Krankenkasse ist die Big Direct,
glaube ich, heißt sie.
Ja, bin da, ich bin weiter vererbt worden, wenn man so möchte.
Ich bin in irgendeiner BKK gestartet und dann wurde die übernommen, dann wurde die
übernommen, dann wurde da ach Actimonda heißt das Ding jetzt.
Genau, Actimonda.
Und so bin ich da irgendwie gelandet.
bei der Actimonda ist das so, dass du das tatsächlich konfigurieren kannst.
Aber es sind also zwei Gründe, weshalb ich das abgelehnt habe.
Zum einen, es ist nicht transparent genug für mich ersichtlich gewesen, wie genau ich es
konfigurieren kann.
Ist es ein Opt-in oder ist es ein Opt-out?
Und zwar meine ich jetzt bei jedem Dokument, was abgelegt wird.
Ich möchte halt einfach, ich möchte sagen können, per se soll bitte nichts für niemanden
zugänglich sein.
Und wenn ich dann zu irgendeinem Arzt gehe, sage ich, der darf darauf zugreifen, entweder
auf ein konkretes Dokument oder auf ein Dokument.
von einem anderen Arzt oder wie auch immer was dafür die, was weiß ich dafür Kategorien.
aber das hätte ich gerne.
So, jetzt war die Actimonda zumindest schon mal auf einem Punkt, wo grundsätzlich kann man
zumindest einzelnen Einrichtungen Zugriff untersagen.
Schon mal okay, fein.
Warum habe ich es dann am Ende doch nicht gemacht?
Sagen wir mal, das Vertrauen in die IT in deutschen Behörden.
Deswegen dachte ich mir,
Ich deaktive das jetzt erstmal.
Ich kann es ja später immer noch benutzen, falls ich möchte.
Ich glaube jetzt ist sowieso Pflicht.
Nach meinem Verständnis.
Glaube ich nicht.
Aber Glauben ist halt jetzt, man müsste recherchieren, aber ich bin mir ziemlich sicher.
ich hab das jetzt ein paar Jahre gemacht, die Techniker gesagt, hier passiert ein Akzel,
vor allem, wenn sag, ja, wenn es mir ein paar Sachen abnimmt mit Papierkram, meinetwegen.
War jetzt auch nicht so ein Megafan wegen Datenschutz und Co.
und die hatten ja auch ihre Problemchen.
Aber ich gesagt, komm, ich probier's mal aus.
Und ich meine, im Gesetz gelesen zu haben, dass es sowieso irgendwann verpflichtend wird.
Dass man nicht gar nicht rumkommt.
Was ich spannend finde, weil es gibt ja viele Leute, noch kein Smartphone haben.
Gerade so ältere.
Naja.
Ich hab dann das genutzt und meine Herren, ist das ein Krampf?
Du hast dann diese, in meinem Fall die Technica App, du möchtest auf den Save zugreifen,
dann musst du eine neue App installieren, die ITK-Save-App.
sich bei diesem Save zu installieren, musst du eine andere App installieren, die
ITK-Ident-App.
Denkst du, what the fuck, was ist das für eine App?
Concatenation.
Und mehrfach hab ich jetzt...
Ich hatte da ein PIN, Passwort, das alles anlegen muss.
Mehrfach hat mir die App schon gesagt, nee, du musst dich noch mal einlaggen.
Dann glaube ich, noch ein.
Nee, das geht nicht mehr.
Und dann musst du die wieder anschreiben.
Dann kriegst du automatisch, soweit es nicht mehr geht, Brief von denen für eine
Neuregistrierung.
Das habe glaube schon zwei- oder dreimal bekommen.
Ich habe wirklich die Faxen dicke mit dem Ding.
Vor kurzem war, glaube ich, ein Update oder eine Notification, dass das jetzt
mehr oder weniger offiziell ist, mehr so ein Testlauf oder sowas, das jetzt alle werden
machen müssen.
Ich glaube, das war so ein Testlauf, ich davor hatte, also völlig fein, wenn er backst du
nur sowas.
Und natürlich muss ich das alles wieder von vorne machen.
Ich habe so viele Apps wieder geöffnet von der Technika und installiert, die ich ...
ich weiß nicht wofür ich die brauche, ...
warum ich die brauche, ...
was für einen Nutzen die haben in diesen ganzen Prozedere.
Das müssen wir so wie bei Banken.
Du hast die Banking-App und dann die ...
Phototun-App oder die Zwei-Faktor-App ...
und die sprechen dann untereinander.
Irgendwie so haben die das geregelt, nehme ich mal an.
Aber wenn ich das nicht verstehe ...
...
und ich habe das gelesen
zu verstehen was zum Gehirn sollen normalen Leute mit mir machen?
Also das ist mir echt ein Rätsel und dann dachte ich cool als wir damals nach Australien
fliegen wollten vielleicht sind ja alle meine Impfsachen drin, weil das ist doch mal was
wo du so eine Erinnerung haben möchtest.
Ja du musst das alles manuell eintragen.
Und der übernimmt das nicht.
haben rappel gekriegt also hat dann doch nicht so viel geholfen
Ich habe kurz im Hintergrund recherchiert, also zusammenfassend, Leistungserbringer sind
jetzt verpflichtet, dem 1., also ab dem 1.
Oktober 2025, daran teilzunehmen.
Versicherte, für die es bleibt, ist freiwillig.
musst, aber es ist opt-out, das heißt, du musst aktiv widersprechen bei deiner
Krankenkasse.
Und das ist halt das, was ich damals gemacht habe, für mich persönlich.
Ich habe es nicht gemacht für meine Eltern, die sind beide Pflegegrad 3.
Und das war mein Gedanke dahinter.
Ich habe es ja für mich jetzt erstmal wegen Datenschutzbedenken nicht gemacht, die
anscheinend ja nicht ganz unberechtigt sind, wenn man so Vorträge von Computerclubs.
Aber bei meinen Eltern habe ich das mal bewusst aktiv gelassen, weil die haben beide
Medikamentenpläne, füllen.
Also mindestens mal locker eine halbe DIN A4-Seite.
Ja, da wird sich auch den aktuellen, haben wir nicht den vor drei Jahren, der ausgedruckt
irgendwo in der Schublade rumliegt.
Jetzt ist halt das Ding, ich weiß nicht, wie genau der Medikamentenplan, wie das Problem
gelöst ist, aber zumindest kann ich bis jetzt schon mal sagen, ich habe bisher noch keinen
Vorteil dadurch festgestellt.
Also immer noch, jedes Mal wenn irgendein Arztbesuch anstand, wenn es ein neuer Arzt ist,
du kriegst halt immer von vorne die Anamnese.
Du musst alles neu eingeben, du alle Daten eingeben, du musst alles in irgendein
Papierformular eintragen.
Also da ist noch nichts von zu spüren.
Ich weiß nicht, ob die vielleicht, ja.
Dann müsste man natürlich aber auch erstmal gucken, dass alle Unterlagen, die aktuell
gültig sind, auch rückwirkend erstmal hinterlegt werden, damit das den entsprechenden
Effekt hat.
Für meine Eltern wirklich halte ich das in der Theorie für total praktisch, weil sie so
viele Krankheiten und Medikamente haben, dass es gut für jeden Mediziner
wäre, darüber Bescheid zu wissen, dass wenn er halt irgendwas verschreibt, er auf
irgendwelche Wechselwirkungen prüfen müsste.
Ja, hat ja auch in der Theorie einen guten Nutzen.
Also die Idee ist ja gut, das macht ja Sinn.
Weil jetzt 38.000 Papiere zu haben, auf die nicht jeder Zugriff hat, macht ja auch keinen
Spaß und ist ja auch teilweise gefährlich.
Gerade bei Multimedikamenten.
Aber ja, ist...
Ich bin gespannt.
Vielleicht müsst ihr noch mal nächstes Jahr, Januar, Februar, reden, wenn du vielleicht
bisschen Erfahrung gesammelt hast, wenn die Einrichtungen da mitmachen.
Aber das hängt ja auch noch, nur weil die mitmachen müssen.
Das heißt ja noch lange nicht, dass alles gut funktioniert.
Das heißt halt noch nicht, dass wirklich diese Daten als primäre Datenbasis verwendet
wird, dass die Leute wirklich damit aktiv arbeiten.
Stichwort Qualitätsmanagement und das QM Handbuch, was in irgendeinem Schrank liegt.
Es muss halt auch benutzt werden.
Es muss aktiv gelebt werden.
Da bin ich auch sehr gespannt.
dann Datenschutzbedenken.
Da erwarte ich auf jeden Fall, dass ich irgendwie sehr feingranular das steuern kann, weil
nehmen wir mal
Es gibt halt einfach sensible medizinische Bereiche.
Ob das, ich nicht, Psychotherapeut ist oder ob das irgendwelche intimen Krankheiten sein
können.
Da will es halt nicht, dass der Auge...
Da muss nicht der Augenarzt drauf Zugriff haben oder vielleicht sogar deine
Physiotherapie.
Nur weil du da mal die Karte vorlegst und da erwarte ich persönlich einfach ein Opt-in.
Also so rum.
Und das kann ja persönlich auch an einem Terminal passieren, dass man die Karte irgendwo
reinsteckt und dann dem Patienten das Ding einmal umdreht und sagt, möchten Sie auf die
und die Daten Zugriff haben oder Zugriff geben?
Ja, nein.
Wobei das, weiß nicht, ob sicher ist.
Opt-in und Opt-out sinnvoller, weil du kriegst mit Opt-in keine Adaption hin.
einfach so.
Guck dir den Organspender ausweisern.
Die meisten Leute wissen ja nicht, dass die, wenn die nach Österreich fahren, die
automatische Organspender sind.
Weil da ist das Opt-out.
Während der Zeit da drin.
Aber was ich richtig finde, finde ich, was glaube so ist...
Wenn Daten angefragt werden, sollst du einfach nur einen Pop-Up bekommen und du kannst
entscheiden, ja, ja, ja, nein, nein, nein, klick.
Das wäre schon sinnvoll.
Nicht sofort alles.
Ja, fand ich nur lustig, mich nervt voll, wie unfassbar komplex dieser dieses Setup ist,
wie oft ich das schon einrichten musste.
Wobei ich mich dann auch mal gewundert habe, wenn ich das schon mehrfach einrichten
musste, warum waren dann einige Daten da?
Ja, ich blick da noch nicht so ganz durch.
Mal gucken, was so ab dem ersten Zehnten passiert, wenn das tatsächlich Pflicht ist, dass
die mitmachen müssen.
Was auch noch so bisschen da einhergeht, mitschwingt, wenn man so möchte, ist die
Tatsache, dass meine Frau Hebamme ist und im medizinischen Bereich tätig ist.
Wir haben einige Ärzte im Bekanntenkreis und Freudeskreis oder andere Hebammen oder andere
im medizinischen Umfeld.
Und sowohl aus der Seite als auch aus Patientenseite habe ich
schon so oft die Erfahrung gemacht.
der Datenschutz, der im medizinischen Bereich gelebt wird, ist schockierend teilweise.
ich ein Beispiel, ich habe es gerade noch aufgeschrieben.
Wir ja vor kurzem kleine Geburt.
ja, hattet ihr.
Wir haben ein Kind bekommen.
Wir haben explizit ein Zettel bekommen, wo drin steht, was wollt ihr mit dem...
Die machen ein Foto.
Kriegt auch eins geschenkt vom Krankenhaus.
Und da kannst du dann auswählen, ob du es für Social Media und Co verwenden möchtest.
Ich explizit Nein gesagt.
Und auch geschrieben.
Ich fand's fein, dass die ein Foto bei ihrer Wand veröffentlichen wollen, dann können die
sehen, cool, ne, diese Woche kam so und so zur Welt.
Find ich nicht verkehrt.
Das ist halt lokal.
Was haben wir nachher rausgefunden?
Eine Woche später, zufällig, hab ich meine Freundin auf die Webseite von einem Krankenhaus
gesehen, da ist auf einmal ein Foto von unserem Kind drauf, wo ich mir denke, mal,
klappt's noch?
Ich bin komplett ausgeflippt.
Ich hab dann sofort die Datenschutz-Seite und die Info-E-Mail, nee, die Datenschutz-E-Mail
und die Info-E-Mail angeschrieben, war am Sonntag oder so.
Ehe keiner drangegangen.
Und ...
eine böse E-Mail geschrieben.
und ein paar Tage später was weg.
Ohne Kommentar.
Ich müsste eigentlich mal auf Archive.org gehen und gucken, ob ich die alte Seite finde.
Eigentlich geht das gar nicht.
Also einfach von jemandem was zu veröffentlich, wo er noch gegen, also wo er noch
unterschrieben hat, dass er es nicht haben möchte.
Und es war reiner Zufall, dass wir das gefunden haben.
Denn ich möchte nicht, dass das ganze Internet voll mit Kinderfotos von unserem Kind das
gar nicht darüber entschieden hat, ob das das möchte oder nicht.
So sehe ich das zumindest.
Genau.
Wahrscheinlich war das, weil alle einfach unterschreiben, per Default, und dann dürfen die
das bei Instagram und Co benutzen.
Und die haben dann einfach so jemanden dahingesetzt, der das einfach hochgeladen hat.
Zack, zack, alles, Fotos durch.
Ohne dieses Formular tatsächlich durchzulesen, was wahrscheinlich auch monolener Prozess
ist.
Und dann kannst du ja...
Hattest du denn noch die Möglichkeit überhaupt zu widersprechen, überhaupt ein Foto
angefertigt
Ja klar.
Das haben wir aber angenommen dankenderweise.
Das fand ich okay.
Ich finde es auch okay, dass die Hebammenstation oder der Kreisleiter ein Foto von
bekommt, dann hängt das dann ein Monat und gut ist.
Habe ich kein Problem mit.
Aber dass das im Internet auf Social Media für Werbezwecke genutzt wird, da habe ich doch
dann ein Problem mit.
Das muss ja jeder für sich selber entscheiden, das ist völlig fein.
Einige Leute finden es nicht, finden es okay, einige nicht.
Oder manche sind in der Mitte, so wie ich.
Na gut, sollen wir die Klammern noch machen?
Oder die IT-Anekdoten?
Achso, ja erzähl mal.
Das ist Thema, du mitgewartet oder?
ist mir mal eingefallen, ähm, zwei lustige Anekdoten, ich in dem alten Job mal hatte.
Bei der einen war ich leider nicht dabei.
Das war vor meiner Zeit, aber wir hatten ein großes Büro in Köln mit, ich glaub, 200
Mitarbeitern plus minus.
150, 200 Leute.
Großraumbüro.
Und die Entwickler hatten ihr eigenes Büro und wir im, fürs gar mehr so ein Team, da war
es hieß, IT Service oder Ops oder Cloud Ops oder whatever.
Namen, wir hatten einen abgeschlossenen Raum, wo auch nur wir Zugriff dafür hatten oder
auch nur sein sollten wegen eigenem Netzwerk, also physisch, die hat man zahlt.
das waren, da war halt der 2nd Level Support, wir vom 3rd Level Support, also die dann
Infrastruktur machen und auch ein Herr, der 1st Level Support macht für Büro-IT, also
Office-IT, Drucker, Laptops, Distas.
Und die Leute sind ja bei uns dann...
weil wir die IT sind, auch ständig reingekommen, gefragt, hey, das ist down, hey, bei dem
klappt das nicht, alles cool, ne?
Hast du mit denen gesprochen?
Und hat es halt in kurzem Dienst weg, weil damals hab ich noch im Büro gearbeitet.
Und irgendwann kam eine, ich glaub, es war eine Frau, ich war ja selbst, wie gesagt, nicht
dabei, kam jemand rein ins Büro, hat die Tür aufgemacht, gesagt, Entschuldigung, ihr seid
doch die technisch versierten Leute, oder?
Und es drehen sich 20 Köpfe um, also plus minus, ne?
Und fragen, warten auf, was jetzt kommt.
Habt ihr Tape?
Und dann war...
Ja, das war...
Dann war Stille.
Die wollte Panzerwand.
Die wollte...
Okay.
Ja, die wollte Tape, weil wir die technisch versierten sind.
Tape hier auf unserer Sendungsplanliste gesehen und ich dachte es geht irgendwie wie
Backup Tape oder sowas oder Tape Backup.
Okay, Duck Tape.
Hatte die Firma auch damals noch.
Aber nee, ging anderes Tape.
War einfach nur Tape.
Die technisch versierten Leute.
Das war auch so ein Running Gag, wenn irgendjemand gesagt hat, er ist technisch versiert,
ja hat er auch Tape
Ja, die zweite war ähnlich, aber die Leute sind halt reingekommen, wenn man's down war.
Und ab und zu hat ja auch der Atlantik-Link mal ein Problemchen.
Github mal down, oder whatever.
Wenn AWS down ist, hat es sowieso als down gefühlt.
Das halbe Internet.
Und irgendwann haben einige Leute Dropbox benutzt mit den Kunden.
Ob das jetzt abgesprochen war, keine Ahnung.
Ich hab ja keine Service-IT gemacht.
nicht mein Bier.
Shadow-IT ist ja auch okay,
Und dann kam jemand rein und hat gesagt, Dropbox tut nicht.
Könnt ihr da was machen?
Da haben wir gesagt, klar.
Klar können wir da was machen.
Und dann sie gesagt, Dankeschön.
Dann ist sie gegangen.
Und wir einfach gewartet, bis AWS wieder online war.
Und dann haben wir gesagt, Dropbox geht wieder.
Wir wussten halt, dass es down war, aber wir haben halt gesehen, dass AWS eine kurze...
Ich weiß nicht, ob es AWS war oder der Tunnel, der Transatlantik-Link.
Da wir einfach dann...
Bescheid gesagt.
Ja tut wieder.
Danke.
Danke.
Okay, das ist Autsch.
Und die letzte fände ich mir gerade ein, weil die fand...
damit trainierst du deine Leute, dass sie zu dir kommen.
hätte keinen Zweck gehabt, damals zu sagen, dass wir da nichts machen.
führt nur zur Diskussion.
Wir hatten damals noch so, ähm, was war das?
Genau, das war so ein Conjob, der hat irgendwelche Sachen nachts gemacht und dann eine
E-Mail versendet.
Statistikrahmen, lief auch einige Stunden, also lief an gut den Datenmarkt durchgerödelt.
Und irgendwann haben wir einen Anruf bekommen, oder eine E-Mail, ich weiß es gar nicht
mehr.
Und einer unserer Kollegen ist komplett zusammengebrochen.
Da rief jemand an, ich glaube es war ein Anruf.
Da rief jemand an und wollte sich einfach nur bedanken.
Und zwar bei dem Herrn Kronn, der immer nachts so viel arbeitet.
Ist das der Kollege von Manuel?
Lustigerweise hieß der Kollege damals auch Manuel das angenommen hat, das Telefonat.
Herrlich.
Ja, die drei sind mir noch eingefallen von dem alten Laden, das fand ich einfach nur super
witzig damals.
Der Kron, der
warte ich für einen Moment gerade, du willst eine Geschichte von der Firma erzählen, bei
der wir jetzt beide zusammenarbeiten.
Als wir noch etwas kleiner waren, lief das so ab und man im Office war noch mehr, da lief
das im Grunde so ab.
Es gab halt das Telefon, das stand irgendwo in irgendeinem Büro und wenn es geklingelt
hat, weil also ein User eine Frage hatte, ein Kunde, dann, also irgendjemand, das war vor
deiner Zeit, ja.
Irgendjemand ist einfach hingegangen und das Telefon angenommen.
Das war auch sehr kollegial.
Da ist jeder mal rangegangen.
Vom Geschäftsführer bis hin zum, weiß ich nicht, selbst schon hier.
Selbst wenn du neu in einem Unternehmen bist, kannst du da mal rangehen.
Du musstest ja nicht immer komplett bearbeiten können, aber du kannst ja annehmen und
passt schon.
Fand ich eigentlich immer super.
Irgendwann ist ein Kollege...
Weil es halt so...
Großraumbüro ist jetzt der falsche Begriff, aber es waren halt so Shared Spaces oder
sowas, weil das halt alles so zusammenklebte.
Da kriegst es schon so im Hintergrund ein bisschen mit, wenn ein Telefonat nicht dem
Standard-Schema entspricht.
Und ich wurde schon so bisschen hell.
Ich hatte die Kopfhörer oben drauf, aber es kam irgendwie so genug durch, festzustellen,
das wird interessant.
Nachdem der Kollege dann aufgelegt hat, ist er dermaßen ins Lachen ausgebrochen.
Was ist passiert?
Also wir Unternehmen, Dollar-Unternehmen, sind ein Cloud-Infrastruktur-Assist-Service,
also Infrastruktur-Dienstleister.
Das heißt, virtuelles Rechenzentrum.
Auch Cloud, also auch gemanagte Platform-Services.
Sowas machen wir.
Und wenn man einen Anruf bekommt von irgendjemandem, dieser kein Kunde,
Okay.
Der hatte Probleme mit seinem, wenn ich mich recht erinnere, war es nämlich Dropbox.
Und Dropbox ist ja Cloud und dann hat er irgendwie gegoogelt Cloud Support ist bei uns auf
der Webseite gelandet und hat angerufen.
Das Schlimme ist ja, also nicht schlimm ist da gar nichts dran, das war einfach urkomisch,
einfach nur.
Aber das ist Ich glaube, das war auch wieder so ein Fall von, da kann man nichts machen.
Aber das ist unglaublich.
Das ist wirklich lustiger.
ganze Geschichte war dann.
Wenn du als Provider, also wenn du diesen User an der Strippe hast, du musst ja erstmal
verstehen, wo das Problem ist.
Du hast den Kontext nicht, dass es Dropbox gehen kann.
und bis du verstehst, dass es gar nicht um das Produkt der eigenen Firma geht, sondern um
irgendein Cloud, US, irgendwas, Online Cloud Drive geht, das ist ja schon mal eine Brücke,
die du schlagen musst.
ne?
Ja, war sehr geil.
Aber wie geil wäre das denn noch, wenn das hier so Standard war?
Ich hab meinen Passwort vergessen und die dann durch diesen Flow geführt hätte.
gehen sie jetzt hier...
Was machen sie denn für Schritte?
Ja, dann gehen sie jetzt hier auf die Seite und oben rechts auf Login.
Ja, ich hab da oben rechts kein Login.
Wo sind sie denn?
Schön.
Das muss wirklich nett sein.
Cool.
Reicht jetzt, Ja, das neue Rekord.
Ja, stimmt.
ein Thema, das machen wir nächstes Mal, Update und Upgrades.
Vielleicht lässt sich das ja mal da.
Überlege ich mal, oder auch die Zuhörer, was ihr alles schon geupdatet und geupgradet
habt.
Wie auch immer man die auseinandergrenzen muss.
Das kommt ja mal drauf an, wo, ne?
Software?
Oder an was denkst du?
Okay.
Lass mal mal so.
Lassen wir das einfach mal so stehen.
Cool.
Sehr gut, dann packen wir es mal.
Das spannend.
Genau, hat wieder Späßchen gemacht.
Ich hoffe euch auch.
Lasst uns gerne irgendwo ein Kommentar da, also entweder per E-Mail an
podcast.smarttöte.de oder auch einfach bei dem Podcatcher eurer Wahl einen Kommentar.
Wir würden uns da sehr darüber freuen.
Und ansonsten würde ich sagen, bis zum nächsten Mal.
Ciao!
Ciao, ciao!