Andrej Friesen (00:01)
Moin Leute, willkommen zum SmartHood Podcast. Der Podcast über Smart Homes, Health Posting und anderer Technikram, der mich und den Thomas interessiert. Moin Thomas.
Thomas Wiebe (00:13)
ganz genau. Moin
Andrej!
Andrej Friesen (00:17)
der Vollständigkeit halber. Heute ist der dritte erste. 2026. Ab heute frohes Neues an alle Zuhörer. Und heute wollten wir mal das Thema ansprechen, was Thomas letztes Mal verdödelte, weil er sich verquatscht hat. Und Metriken und paar kleine Sachen im Vorhinein. Daher lass uns einfach mal direkt loslegen. Ich glaube du willst anfangen mit deinem
Thomas Wiebe (00:24)
Prost neues Jahr!
Andrej Friesen (00:44)
Was auch immer das für Themen sind, das für mich nur Buchstabenfolgen.
Thomas Wiebe (00:48)
Ja,
für mich auch noch und eigentlich wollte ich es wieder schieben. Womit ging es eigentlich? Also hier steht auf meiner Liste, Cap, Dune etc. Wofür steht das? Watchtower ist abgekündigt. Und für diejenigen, die Watchtower zu Hause im Docker Setup nutzen, die Containeraktualität sicherzustellen und vielleicht sogar Container direkt zu aktualisieren, das kann das Ding halt machen, wenn man ihn dem Docker Socket gibt.
Andrej Friesen (01:04)
B
Thomas Wiebe (01:17)
muss man sowieso Dann ja genau so das habe ich persönlich auf einigen rechnern im einsatz das klingt so als hättest du das auch
Andrej Friesen (01:26)
Es gibt ja Watchdauer von Containerrrr
Thomas Wiebe (01:31)
Mhm.
Okay?
Ja, der tut aber, der ist deprecated, oder? Das ist das Ding. Zum Beispiel auf der Guitarpage. Das ist archiviert, 17. Dezember 25.
Andrej Friesen (01:43)
Wo steht das?
Was für einen Fork hast du? Ich nutze den von Nicolas Fedor.
Thomas Wiebe (01:56)
Container
also Warte mal Watchtower Nikolas Fedor sagst du? Fedor? Okay. Okay. Ja das ist ja das ist eine Alternative ich weiß nicht wann der geforkt wurde also der das war jetzt in meinem Self-hosting Newstream
Andrej Friesen (02:06)
Ja, Fidor.
Weil der hat noch vor zwei Wochen Release bekommen.
Thomas Wiebe (02:22)
an diversen Stellen das Watchtower deprecated wurde. Ich glaube, du hast recht, das war schon vorher sehr inaktiv, oder?
Andrej Friesen (02:29)
Das ist schon zwei Jahre kein Abteilstück bekommen das Originalprojekt oder so oder länger und der aktuelle Fork hat 1100 2CMDs mehr als der Original. Und das ist der den ich gefunden habe über die GitHub Insights. Da kann man ja reinklicken und dann kannst du dir die Forks anschauen. Dann gibt es hier so Forkliste und den habe ich genommen weil der am aktivsten war.
Thomas Wiebe (02:32)
Ja, das... Okay.
Okay.
Okay. Wahrscheinlich werde ich das auch tun, tatsächlich.
Andrej Friesen (02:56)
Sollen wir mal erklären, was er macht, wenn wir hier drüben aus der Dopa reden?
Thomas Wiebe (03:00)
Jaja, genau. Ich glaube, das habe ich so im Groben. aber, genau. du hast einen Docker-Setup, hast da Container drin und dann gibt es vielleicht ein neues Release von einem der Container. Dann kann Watchtower das automatisch erkennen. Es kann den bestehenden Container stoppen und neuen... und löschen effektiv. Also der Container selber wird gelöscht und es wird ein neuer erstellt auf Basis der neuen Image-Version. Und ganz elementar ist an der Stelle...
das Tagging oder die Versionierung von den Docker-Images, wie das der Autor macht, der Autor des Images, und wie du das dann angibst. Also Beispiel üblicherweise nehmen wir mal Postgres. Ich glaube, wenn ich das richtig in Erinnerung habe, hat Postgres ja keine semantische Versionierung, sondern die haben halt Major, Minor, oder?
Andrej Friesen (03:51)
Ja, 19.2, wobei 16.0 irgendwas. Ja, wie auch immer.
Thomas Wiebe (03:56)
Wobei ein besseres Beispiel wäre wahrscheinlich semantische Versionierung. hast du drei Ebenen. Also nehmen wir einfach mal an, du hättest die 13.2.1 und dann kommt die 13.2.2 raus. Wenn du die Image Version, das Image Tag direkt angibst, 13.2.1, kann Watchtower nichts tun. Weil die
Andrej Friesen (04:17)
Doch
wenn die den Tag überschreiben.
Thomas Wiebe (04:21)
Ja, aber das ist ja schon eine spezifische Version. Also kann natürlich auch passieren.
Andrej Friesen (04:24)
Nein, nein,
wenn die den Bild, also das Image dieses Texts neu bauen.
ist natürlich hirnrissig.
Thomas Wiebe (04:30)
Genau, darauf wollte ich auch hinaus tatsächlich, aber das ist
halt bei einer Patch-Version sehr unwahrscheinlich. Das kommt vor, es gibt tatsächlich, habe ich schon mal gesehen, dass manche das tun, weil die Betriebssystem-Versionen, quasi wenn du das basiert auf einem Debian machst oder einem Alpine, die können natürlich aktualisiert werden und dann macht das vielleicht sogar Sinn. Genau, aber wo man es so richtig merkt ist, sagen wir mal, es gibt ein neues Patch-Release, aus der 13.2.1 wird die 13.2.2.
Und wenn du dann als Tag angegeben hast 13.2, dann würdest du automatisch die 13.2.2 kriegen. So.
Andrej Friesen (05:08)
Ja, das patch. Und wenn du ein
höher gehst, wenn du nur 13 sagst, kriegst du auch alle Features. Äh, doch Features.
Thomas Wiebe (05:12)
Genau. Wenn
du latest sagst, kriegst du alles. das hängt natürlich immer davon ab, weil das ist auch da, wie der Wilder Westen. Das hängt immer davon ab, wie macht das denn der Autor der Images. Das ist eine Konvention, aber zwingt dich niemand zu sagen, ich biete eine Version für jedes Minor Release oder für jedes Major an. Das kann man machen.
Andrej Friesen (05:37)
Ja und nicht jedes Projekt hat einen übergreifenden Tag der 2.0 ist oder so. Was ein bisschen nervig ist für dich.
Thomas Wiebe (05:44)
Ja, ich finde das auch sehr nervig, wenn die es nicht haben. Das nimmt dir so ein bisschen halt das Patchmanagement ab. Du kannst dann selber, würde ich entscheiden, bleibe ich auf dem Minor, weil ich will wissen, wenn im Schritt zum nächsten Minor irgendwelche größeren Änderungen drin sind. Seien das einfach nur neue Features oder vielleicht sogar irgendwie Breaking, wobei das ja eher auf Major passieren sollte, auf Major-Ebene.
Andrej Friesen (06:08)
in der TLV.
Thomas Wiebe (06:10)
Ja, darüber...
Andrej Friesen (06:13)
Ich bin
gewechselt auf den Fork vor ein paar Wochen, weil es lief. Und irgendwann lief es nicht mehr und zwar da wo das Traffic Docker Issue stattgefunden ist. Der Watchtower hatte dann auch die alte App. Dann wechsle ich eben, habe ich gemacht. Dann habe ich den Watchtower auch auf Latest gelassen. Vor einigen Tagen konnte ich dann keine E-Mails mehr verschicken.
Thomas Wiebe (06:17)
Mhm.
Ja, stimmt.
Andrej Friesen (06:42)
weil ich nutze eine E-Mail-Notification in Watchtower mit meinem Google Mail SMTP, der mir dann einfach jedes Mal schickt, hey folgende Container habe ich gefunden und abgedatet. Ich mache das täglich bei mir auf dem Server von Montag bis Donnerstag. Feiertabends und dann möchte ich das nicht. Falls das kaputt geht. Und ja, das Projekt hatte einen kleinen Breaking-Challenge und zwar, wenn du das Depends-on-Flag gesetzt hast von Containern in Compose, also deine Applikation Depends-on-Datenbank oder so, das kann ja nicht.
Und das konnte er nie, aber hat darüber nie gemeckert. Jetzt hat er für jeden Attempt, der das versucht hat, mir eine E-Mail geschickt. Das waren halt 500 E-Mails in einer Stunde. Und dann Gmail gesagt, du nicht mehr. Das hat mich grade-limited. Und dann konnte ich erst mal 48 Stunden oder 42, nee, wer ist das? 24 Stunden, meine Güte, deutsche Zahlen, konnte ich dann nicht mehr E-Mails senden. Das war nett.
Thomas Wiebe (07:33)
⁓
Okay, das heißt, er hat dich tatsächlich... Ja. Und er konnte dann dieses eine Image nicht... Also er hat quasi versucht, etwas zu aktualisieren. Das ist wegen dem Depends on Fehl geschlagen. Hat jedes Mal, wenn er es versucht hat, eine E-Mail generiert. Und... naja, okay, cool.
Andrej Friesen (07:42)
Gedeidos mit E-Mail.
Ja.
Dann habe ich die Version zurückgedatet. Jetzt funktioniert's. Ich hab grad keinen Bock das zu lösen.
Thomas Wiebe (08:01)
Okay.
Ich hatte da ein paar andere Namen auf die Liste gepackt, wie Capdeon und so was, weil ich da über Projekte, irgendwelche Open-Source-Projekte, die Images bereitstellen, darauf hingewiesen wurde. Da war er nämlich an irgendeiner Stelle, frage mich jetzt gar nicht mehr was. Stand hier von wegen, überwach doch, wenn du aktuell bleiben willst, mit Watchtower deine Installation, aber Watchtower ist jetzt deprecated, das heißt, du kannst einen der dutzenden Forks benutzen, oder nutz doch die Gelegenheit und guck dir die alternativen Projekte an.
Und dann wurde eins genannt, ich glaube das war Dion. Ja, das passt auch vom Namen her. Das habe ich mir dann auf dem Papier mal angeschaut, bin damit aber gar nicht glücklich geworden, weil das interessiert sich halt tatsächlich oder das konzentriert sich gar nicht auf das updaten, sondern nur auf das notifien. Also ich nehme mal an, Dion könnte stehen für Docker Image Update Notification, deswegen meine ich vom Namen her.
Andrej Friesen (08:56)
Warum?
Thomas Wiebe (09:02)
ja, steht hier auf der Website. Image Update Notifier. Close enough. Ja, genau. Warum?
Andrej Friesen (09:09)
Also es gibt, mir ist noch, ich kann auch Wood, W-U-D, aber das macht auch viel, aber das ist so Clicky Booty, das brauch ich nicht. Ich will doch nur, dass er automatisch selber macht und mich nicht nervt.
weiß nicht.
Thomas Wiebe (09:26)
Man macht das Ganze ja am Ende, damit eben Updates möglichst schmerzfrei sind und keine große Hürde mehr und lieber das was kaputt geht, als dass man was nicht aktualisiert und deswegen in Probleme läuft. Und deswegen ist mir persönlich auch der Ansatz von Watchtower lieber, update mal. Wobei man das konfigurieren kann. Du kannst das auch über Labels konfigurieren. Du kannst im ersten Mal sagen per Default, aktualisiere einfach alles was du findest. quasi geh davon aus, dass du
alles, also default policy, update die Container oder du sagst default policy nicht updaten und dann kannst du es pro Container definieren.
Andrej Friesen (10:04)
Du kannst auch ein Label vergeben, dass nur die Container geabzelt werden sollen, folgendes Label haben. Wie Watcher or True, was auch immer. Ist ganz nett. Ein paar E-Mail Notifications, also ein paar andere Notifications ist dem mit dahinter.
Thomas Wiebe (10:11)
Genau.
Ich habe mal Pushover benutzt, das hat auch getan. Wobei ich mich erinnere, war da was mit Schauter. Da gab es auch ein Projekt, das verwandt ist, weil Schauter... ein paar Erste hinter.
nicht mehr sicher. das Ding ist, ich habe schon Ewigkeiten keine Notification mehr bekommen. Wahrscheinlich ist irgendwas kaputt, aber es startet. Also dieses Problem mit der Docker-Version, das hatte ich ja damals auch spontan gelöst, indem ich die Docker-Mindestversion in Docker-D erstmal runtergesetzt hatte wegen Traffic. Als Traffic das dann gefixt hat, habe ich es wieder hochgesetzt und festgestellt, es gibt immer noch andere Container, die damit fehlen und dann habe ich es wieder runtergesetzt und seitdem ist es erstmal wieder unten.
Andrej Friesen (10:37)
Ich war jetzt kaputt.
Thomas Wiebe (11:03)
Okay, danke für den Tipp mit dem ganz konkreten, mit dem Nick-Fedo, weil...
Andrej Friesen (11:10)
muss man nicht nur ein neues System sich anarbeiten, finde ich immer praktischer. Vor das läuft richtig gut. Und die anderen, das WhatsApp-Docker, das kann super, super viel. Das hat dann so Trigger und dann hast du da MQTT dahinter, wenn du willst und was weiß ich nicht. Und das ist einfach zu viel für den Use-Case. Cup kenne ich jetzt nicht. Kann man trotzdem mal reinschmeißen für diejenigen, sich interessieren. Wenn man gerade noch in der Führungsphase ist und nicht weiß, wie man nehmen soll, da kann man sich ja ein paar angucken und dann nimmt man das aus seinem Am besten.
Thomas Wiebe (11:48)
Hm. Ach guck mal, schreibt sogar in der Introduction, Cap is a lightweight alternative to WhatsApp, Docker, Written in Rust. Also WhatsApp, Docker. Das ist ja WUT wahrscheinlich, was du erwähnt hast.
Andrej Friesen (12:04)
Jaja,
das ist ein bisschen heavy. ich schon reingepackt in die Short Notes. Und die Un, das kenn ich nicht, das hast du irgendwie nie gehört.
Thomas Wiebe (12:16)
Na gut. meine Motivation war eigentlich mal sich die Alternativen anzuschauen, aber ich weiß nicht, ob das so ist. Vielleicht gucke ich mir mal Cap an. Ansonsten nehme ich einfach eine Watchtower Alternative, damit das Problem gelöst ist.
Andrej Friesen (12:18)
Ach so, der Notifier.
Das gute ist, ist komplett kompatibel mit der config, keine breaking changes, außer das depends on. Also das kannst du einfach nur den image part ersetzen und zack funktioniert das wieder.
Thomas Wiebe (12:44)
Nutzt du das persönlich, depends on, wenn du selber einen Compose-File schreibst?
Andrej Friesen (12:50)
Joa, schon, weil es gibt manche Applikationen, ein bisschen doof sind und kein Retry haben. Also, wenn du dann die Datenbank hochfährst und die Applikation, und die Applikation ein bisschen dämlich gebaut ist, und das meine ich wirklich dämlich, weil die dann einmal die Datenbank fragt, die ist noch nicht da, weil es dauert halt länger, bis so eine richtig große Datenbank hochgefahren ist und sagt, ja, finde ich nicht, tschüss. Und statt einen Retry einzubauen.
Und das nervt mich. Und dann hab ich diese Depends-On-Sachen da drin. Aber muss ich wohl jetzt raushauen, weil bringt nix.
Thomas Wiebe (13:28)
Mich nervt der Ansatz von den Applikationen. glaube, das hatten wir letztes Mal, Dass ich das sehr... Also, dass ich gar kein Freund davon bin, dass man Applikationen failen lässt, nur weil irgendwas gerade fehlt. Sondern stattdessen muss man halt einfach retryen.
Andrej Friesen (13:44)
Man kann ja auch
irgendwann wählen. Wählen nach einer Stunde. Aber man kann ja auch dann... Wie heißt das? Wie nennt man das, wenn man das so stackert? Re-twice. Also das so dann irgendwie erst nach 5 Sekunden, dann nach 15, dann nach 30, ne, whatever. Da gibt's ja dann viele Möglichkeiten, das zu erledigen. Aber ja.
Thomas Wiebe (13:48)
Ja.
Backoff, so
ein Backoff implementieren. Genau. Das Problem ist halt, dass das Depends on von Compose für diejenigen, die es vielleicht noch nicht verwendet haben, das ist halt wirklich Compose, das ist nicht Docker. Will heißen, eventuell sagst du, die meisten Leute machen einfach Docker Compose ab, minus D, damit das quasi im Hintergrund läuft, würdest du dann deinen Server einfach neu starten, dann, Docker selber weiß nichts von einem Depends. Das heißt, nach einem Neustart startet er halt einfach alle Container.
Andrej Friesen (14:08)
Danke, Back Off. Ja, das war's.
Thomas Wiebe (14:32)
deren Restart Policy das so entsprechend besagt in irgendeiner Reihenfolge. Darauf kannst du dich halt nicht verlassen. Wenn du dich darauf verlassen möchtest, dann müsstest du... Also, ich mir jetzt gerade mal, ich hab's selber noch nie gemacht, aber du kannst ja Docker Composer auch im Vordergrund betreiben, indem du halt das Minus-D weglässt. Und dann könntest du natürlich sagen, die Restart Policy sieht es eben nicht vor, dass der Container automatisch neu gestartet wird, stattdessen...
Andrej Friesen (14:38)
Nope.
Thomas Wiebe (15:00)
machst du vielleicht ne Systemd-Unit, die den Docker Compose Prozess immer startet. Aber das ist so viel Aufwand, das will man eigentlich nicht. Stattdessen will man eigentlich, dass die Applikationen resilient sind und starten und warten, bis die Dependencies da sind. Oder dann mal mindestens durch die Restart Policy sich das Ganze wieder entspannt. Was ist denn deine Restart Policy of Choice?
Andrej Friesen (15:24)
Ne, ne, warte, entweder
always oder unless stopped. das hat mich schon ein paar Mal geärgert. hatte den Service nur ausprobiert, mal eingerichtet, auch auf der Domain, auf meinem VPS. Und dann habe ich den gestoppt und dann wundere ich mich ein paar Monate später, warum läuft die Kiste noch? Ich habe das doch ausgemacht. Wenn du always machst und dein System rebooted.
Nach einem Update, ne, dann kommt das Ding halt hoch, ne und ich denke, nein, ich wollte Unless stopped haben eigentlich. Aber manchmal vergesse ich das zu updaten, wenn ich das Compose bei mir irgendwo rüberkopiere, Ich sag, und irgendwo... Ich glaub ich hatte mal, ich weiß nicht, irgendein Tool probiert und das hat auch nicht funktioniert, das hat... Das Unless stopped hat bei mir nicht funktioniert, das Ding kam immer wieder. Ich musste die Kiste, also ich musste den Ort irgendwann löschen.
Vielleicht war da auch ein kleiner Bug im Docker-Deam drin, was man ja weiß.
Thomas Wiebe (16:20)
Ich glaube, unless stopped wäre wohl auch der richtige Ansatz. Ich selber nutze meistens aber auch always. Es gibt ja dann auch noch was sehr verbreitetes, on failure, aber da muss man dann schon wieder aufpassen. On failure greift, wenn ich mich recht erinnere, nicht nach einem Reboot.
Andrej Friesen (16:38)
Das weiß ich jetzt nicht. Aber anders stoppt es halt gut, solange ich nicht explizit sage, dass es gestoppt ist, soll es zu laufen. So, das finde ich fair.
Haken und Klipp markieren.
Thomas Wiebe (16:50)
Schön schön!
Andrej Friesen (17:00)
Soll ich mal meine zwei Sachen klein machen? Okay. Völlig random. Ich hab ja... Ich lebte ja wie in den 90ern, vor ein paar Wochen noch. Und zwar immer wenn ich meinen Rechner anmachen wollte, musste ich so 10 bis 20 Minuten warten bis meine Monitore funktioniert haben. Weil die so Streifen hatten und ich dann nichts mehr erkennen konnte. Das ist egal ob ich jetzt einen Laptop benutze oder meinen Desktop PC.
Und es ist auch egal welches Kabel, also ich habe so viele Dinge ausprobiert, das waren einfach so Samsung-Monitore. Die ich mir vor ewigen Jahren gekauft habe, auch nicht so ewig, 7, 8 vielleicht, oder so gekauft habe. Und die hatten das Problem direkt nach 2, 3 Jahren, aber es war am Anfang nur so ein paar Sekunden, dann eine Minute, irgendwann mal 20 Minuten. Das heißt, musste, wenn ich einen Rechner wollte, musste ich den anmachen und warten. Und auch ganz wichtig, der Bildschirm darf nicht ausgehen dabei. Also ich darf keinen...
muss entweder ein Screensaver sein oder was auch
Thomas Wiebe (17:59)
Also die müssen wirklich warm werden, ja? Die Dinger. Ist das das Ding?
Andrej Friesen (18:02)
Ich
raff's nicht ganz. im Sommer war's auch warm genug hier oben auf dem Dachboden, die hatten trotzdem das Problem. Kann ich dir nicht mehr antworten, was es war. Naja, ich hab jetzt neue Monitore und bin happy, ich kann einfach anmachen und die gehen. Das ist für mich gerade... Ich feier's gerade total. Hab auch nichts teures gekauft. Bin auch nicht ganz 100 % zufrieden mit den...
Thomas Wiebe (18:08)
⁓ okay.
Wahnsinn.
Andrej Friesen (18:31)
Aber was ich dann rausgefunden habe, was ich ganz witzig fand, was ich gar nicht wusste im Vorhinein, es gibt im Monitor, da kriegst du so dieses OSD, dieses On-Screen Display Menu, klickst dich da mal durch, machst die Sachen an, aus, was du haben willst. Und dann sehe ich eine Option, die heißt DDC-CI. Und diese OSDs sind ja so hilfreich, da steht da so MSRT. On oder Off, und ich so, was ist das denn? Wieso steht das da nicht?
Ja, und dann gehe ich ins Internet, gucke mir das kurz an, was ist das, und dann sehe ich, okay, das eine ist für Stocken, weniger Latenzen, ja, whatever, und dann das eine, ja gut, HDR kennt man vielleicht, direkt ausgemacht, funktioniert nicht, und dann sehe ich DDC CI. Ich weiß gar nicht mehr wofür das steht, aber damit kannst du mit Tools die Displayhelligkeit und andere Dinge steuern. Fand ich richtig cool.
Thomas Wiebe (19:29)
Mhm.
Andrej Friesen (19:29)
Habe ich das
mal auf Windows ausprobiert. Auf Windows gibt es ein Tool welches... Ja ich muss das nachreichlich auf den Namen vergessen. Aber da kannst du tatsächlich auch Kontrast einstellen. Da kannst du die Farben einstellen. Da kannst du die Displayhelligkeit einstellen. Super cool! Wusste ich gar nicht, dass das geht. Direkt aus dem Menü. Und unter Linux habe ich auch ein Tool gefunden welches das kann. Das kann aber nur die Helligkeit. Luminens heißt das. Und im Mac gibt es das auch. Da gibt es glaube ich Better Display Controller oder sowas. Und ich war...
Thomas Wiebe (19:55)
Mhm.
Andrej Friesen (19:57)
Völlig, nee bei Mac heißt das Better Display genau das kann richtig viel. Hab ich mal gehört. Und also falls ihr mal einen Monitor habt und mal gucken wollt, ob ihr so ein DDCCI, also einen Controller Mechanismus habt, womit ihr per Software die Dinger steuern könnt, gerne mal ausprobieren. Ich finde das total praktisch, weil je nach Sonneneinstrahlung in meinem Raum möchte ich die mal heller und weniger hell haben und ich brauche nachts nicht die Radio...
Ich brauch keine Röntgenstrahlung von den Dingern, so heavy die manchmal werden.
Thomas Wiebe (20:30)
Ja, ich bin gerade auch total irritiert, muss ich sagen. Ich weiß, ich habe mit DDC irgendwann mal vor 15 Jahren was gemacht, unter Linux noch. Hab das komplett aus den Augen verloren und ja, man kennt das ja. Ich hab also, weiß nicht, wie machst du das beim Laptop? Hast du da irgendwie deine Display-Helligkeit dynamisch angepasst oder fix?
Andrej Friesen (20:31)
vor allem wenn du...
Nee, das funktioniert nie. mach das immer aus.
mach das selber, wie ich will. Weil sonst, der Laptop ist bei mir offen links. Auch der Macbook kriegt das nicht hin. Dann geht er die ganze Zeit, dunkel, hell, dunkel, hell. Irgendwas nervt mich hier. Dann krieg ich die ganze Zeit irgendwie so dem Augenwinkel so ein heller, dunkler Effekt und guck dann da hin und denk so, was ist denn jetzt da? Nix.
Thomas Wiebe (21:10)
oder dein Akkuverbrauch
steigt ins Unermessliche, weil du halt gerade ein bisschen Sonne im Hintergrund hast. Und... ja, ich auch. Ich nutze aber abends diese, wie auch immer Apple das jetzt nennt, dieses Nightshift oder sowas, Verrötlichen des Displays.
Andrej Friesen (21:14)
Ja, ich mach das einfach manuell.
Das ist so Blödsinn.
Thomas Wiebe (21:28)
Ich finde es angenehmer für die Augen. Ich merke ja jetzt mit den Augen mit Mitte 40 schon deutlich. bis 40 war alles super. Aber ab 40 ging es bei mir los und ich merke schon, dass Lichteempfindlichkeit zunimmt, was mich sehr traurig macht.
Andrej Friesen (21:31)
Ja, kann,
Die Helligkeit
würde ich auf jeden Fall zustimmen, aber diese ganzen Blaulichtgeschichten, das wurde ja alles debunkt. ist ja alles Quatsch. Vor ein, zwei Jahren. Das kann ich... Das... Ja. Hab ich auch im Kindl. Ja nutze ich es auch. Oder nicht im Kindl, sondern in meinem Kobo.
Thomas Wiebe (21:52)
Das kann sein. es einfach nur angenehmer. Ich mache auch das Licht runter und rötlicher, also orange-licher, wärmer.
Andrej Friesen (22:05)
Das soll ich nur teilen, dass die DC, weil ich das cool fand, kann man sich diverse Applets, Tools, Widgets, wie auch immer sie alle heißen, in sein beliebigstes Betriebssystem reinziehen und dann kann man es kontrollieren.
Thomas Wiebe (22:18)
Ich wollte direkt mal gucken, ob es bei mir eingeschaltet ist. man sieht, wie oft man an den Monitor geht. Also bei mir ist das nicht. Ich habe irgendwann von einem Jahr oder so einen großen Monitor, also 32 Zoll. Für mich ist das jetzt gerade auf jeden Fall schon mal sehr groß, weil vorher waren es, weiß ich nicht, 27 glaube ich oder 24? 24 meine ich. Und der schwebt jetzt vor mir. Das ist so ein Jammer. ich bin auch zufrieden damit. ist jetzt so toll, dass er nicht, aber es ist okay.
So und jedenfalls steht da vorne beschriftet, welche Knöpfe wo sind und was sie machen. Ich war gerade am suchen, wo denn die Knöpfe sind, weil die sind... Es ist nicht so, als könntest du da draufdrücken auf die Schrift. Es ist auch nicht so, als wenn das da drunter wäre. Du musst mit dem Finger anscheinend von hinten hinter die Kante kommen. Also vorne auf der Kante steht drauf Menü. Da musst du da drunter nach hinten wieder hoch und dann wieder zu dir. brauchst du also den Hakenfinger.
Andrej Friesen (22:56)
Mhm.
Ist doch relativ normal.
Thomas Wiebe (23:17)
Ja? Ne. Also meine
Andrej Friesen (23:18)
Doch.
Thomas Wiebe (23:19)
anderen Monitore haben den Knopf einfach unten.
Andrej Friesen (23:22)
Ja, wäre praktisch, ne? Aber am besten finde ich ja immer noch diese... Wie heißen die? Diese Nippel? Diese 4-Wege-Nippel, das hatte mein alter Monitor. Also, kannst einfach reindrücken, hoch runter, links, rechts. Und das ist am einfachsten. Und ich musste auch aufpassen, weil ich ja 2 Monitoren begreift habe, dass diese Einstellungsdinger, diese Knöpfe, nicht rechts am Rand sind. Oder links. Weil sonst komme ich ja nicht dran bei einem Monitor.
Thomas Wiebe (23:23)
Ja.
Ja, das ist auch gut.
Andrej Friesen (23:51)
Das ist ein bisschen doof. Da denken man einige Hersteller nicht nach. Also könnte man bisschen nachbessern. Naja.
Thomas Wiebe (23:56)
Ja und so sehr ich gerade jetzt über mich so lustig über diese Knopfposition gemacht habe, ich habe festgestellt, dass ich jetzt mal drauf gedrückt habe, der Vorteil ist, wenn dein Monitor tatsächlich an einem Monitorarm hängt, weil du den Knopf zu dir drücken musst, kannst du mit einem anderen Finger den Monitor dabei fixieren. Während wenn du den von unten drücken müsstest, würdest du halt einfach den Monitor drehen.
Andrej Friesen (24:18)
Okay, stimmt.
Thomas Wiebe (24:22)
Also vielleicht was einfacher. Naja. Okay, cool. Muss ich mir auch nochmal anschauen.
Andrej Friesen (24:26)
Ich verlinke mal alle Tools, die ich dazu gefunden habe. Better Display Luminance und Display Buddy auf Windows. Ich glaube, das habe ich genutzt. Wer Bock hat, kann ja mal ausprobieren. Ich finde es praktisch. Muss man nicht immer so viel rumklicken auf diesem Menüdinger, weil da die Helligkeit ändert, ist einfach nur nervig. Klick, klick, klick, klick, klick, klick, klick, anstatt einfach mit einem Slider mit der Maus rüber zu ziehen.
Thomas Wiebe (24:50)
Mhm.
Andrej Friesen (24:52)
Genau. Dann ein völlig random Thema. Ich fand's cool, weil ich drüber gestoppt bin. Es gibt einen Kalendergenerator. Ich schmeiße das auch mal in die Links natürlich. Und zwar ist das ein kleines Gitterpräpum, nur ein kleines JavaScriptscript im Endeffekt, welches einem erlaubt, ein Kalender zu generieren. Das tut das, was es sagt. Ohne Abhängigkeit, nix. Kann man auch auschecken oder auch online benutzen.
Und hinten dran kann man dann per URL-Parameter definieren, wie dieser Kalender aussehen soll. Die haben auch auf der GitHub-Seite eine Übersicht. Da gibt es auch ein paar fertige, zum Beispiel ein ganzes Jahreskalender für Deutsch. Januar bis Dezember. Du kannst auch sagen, ich hätte gerne nur ein halbes Jahr. Und dann kannst du so ein Ding generieren, einfach drucken. Ich nutze die ganz gerne, mal Sachen zu tracken, was ich so gemacht habe, oder was ich machen möchte.
Thomas Wiebe (25:49)
Jetzt kann ich dir folgen.
Andrej Friesen (25:50)
Ist einfach ein DIN A4 oder was auch immer du für einen Drucker hast und du drückst hier dieses Ding aus.
Thomas Wiebe (25:53)
Ja.
Ich hab's in den Notizen
gelesen, Kalendergenerator. Und ich dachte mir, was willst du denn generieren? Also ich mein... Ja, genau. Ich dachte, wir reden hier vom Kalender, also hier ICS, ICAL, was auch immer, Okay, wir reden von physisch existierendem Papier. Kannst du drucken. Alles klar.
Andrej Friesen (26:02)
Termine, weil ich zu wenig habe.
Nee, nee, richtig ordentlich. Papierkalendern.
Ja, ich habe mir jetzt einen gemacht für Sport und Tracktas einfach, dass ich das visuell habe. Ja, gibt es halt. Kann man sich mal klicken und wenn man Lust hat, ausdrucken. Fand ich praktisch. Ich habe das schon ein paar Mal gesucht, so was. Dann habe ich immer den Google-Kalender genommen und das war aber nicht so cool zum Drucken. Den kannst du dann auch so einstellen, dass zum Beispiel die Tage, also jetzt sagen wir alle Sonn- und Samstagestage sind auf einer Höhe. Das heißt...
Thomas Wiebe (26:19)
Ja, das ist nett.
Andrej Friesen (26:45)
weil jeder Monat fängt ja auf einem unterschiedlichen ... Wochentag an und dann verschiebt er das so. Kannst du also ein paar Sachen einstellen, wie es dir gefällt.
Und jetzt das letzte. Haken dran.
Dann können wir zu deinem großen Thema gehen. zwar, ich habe was gelernt. Ich habe Vector aufgesetzt, das ist Tool, welches Metriken und... Ich glaube auch Loks, weiß ich gar nicht, Metriken und so essen kann. Input. Und dann spuckt es diese Metriken in einem bestimmten Format, wenn man möchte, zu einer... zu einem Sink heißt es bei denen, glaube ich.
Sei es Loki oder Co. Es gibt ganz viele Tools da, was das angeht. ⁓ Ich habe da viel rumgespielt, weil ich das Vector Tool einfach noch nicht kannte und musste das immer reloaden. Und mir war nicht bewusst, dass man auch einen Docker Kill machen kann. sonst früher bin ich immer in den Container gegangen, habe dann ein Kill Signal mit dem Hub gemacht, damit er die Config-Datei neu lädt und man kann aber einfach einen Docker Kill minus Missing gleich Hub
So, schnell genießt mit Mute. Wusste ich gar nicht, aber ist cool, weil manche Tools machen das ja nicht automatisch und dann kann man da so ein Skill-Signal in den Container reinsetzen. Fand ich super praktisch, kann ich nicht. War das dir schon bekannt?
Thomas Wiebe (28:04)
Und das
Ja,
ich hab's auch schon mal genutzt. Ich weiß nicht mehr für was. Ich glaube es war Prometheus oder so was, wo ich dann Config-Dateien rein mounte. Dementsprechend kann ich die jederzeit verändern lokal und ich muss keinen Container neu bauen und dann muss ich einfach nur das Hubsignal schicken mit Lad mal neu. Brauchst du einen Container nicht jedes Mal neu starten.
Andrej Friesen (28:27)
Mhm.
Ja, weil der Startprozess kann natürlich auch länger dauern, das Promises braucht auch ein bisschen. Und ja, fand ich cool. Und ich hab probiert meinen Syslog da mit aufzusetzen. Funktioniert so halb, aber ich glaube da gehen wir ja gleich ins Thema mit rein.
Thomas Wiebe (28:56)
Ja, so halb. Ich dachte mir tatsächlich... Ich mache jetzt mal hier so einen Klick. So ein Hacktion. Für diese Woche dachte ich mir, lass uns mal auf das Thema Metriken eingehen. Wobei, ist Metriken für den gemeinen Smart Home User? Dem wird das vielleicht gar nicht so per se was sagen. Also Metriken ist ja sehr generisch, aber was ist der Kontext? Mir persönlich geht es primär...
Andrej Friesen (28:58)
Okay, dann ...
Thomas Wiebe (29:26)
Nee, noch mal einen Schritt zurück. Das kann in zwei Richtungen gehen, tatsächlich. Wenn du rein das Smart Home betrachtest, sagen wir mal Home Assistant ganz konkret, dann kann das sehr relevant sein, wenn du den Status von Entitäten langfristig behalten möchtest. Nicht nur kurzfristig. Also es gibt ja die Recorder-Komponente in Home Assistant, mit der man die den State speichert. Das kann halt der gemessene State von Sensoren sein. Das kann aber auch, zum Beispiel, wenn du ein
Ich es funktioniert auch dadurch. Also Sternchen dran. Wenn du zum Beispiel einen Timer definierst und sagst, persistiere den Timer, sodass der nach einem Neustart von Home Assistant wieder sich recovert und den alten Zustand bekommt und nicht einfach nur unknown oder gestoppt ist, dann musst du bei einem Timer ein Häckchen setzen und ich glaube das läuft auch über die Recorder-Komponente, die diese Information mitspeichert. Kann also verwendet werden für gemessene Werte, kann aber genauso gut verwendet werden für
Persistieren von Informationen über den Neustart von Home Assistant hinaus. der Stelle kurzes großes Dankeschön an Home Assistant, weil das gab es halt nicht ewig schon und der Effekt war dann halt wenn du iterierst, wenn du irgendwas an deinem Smart Home machst und du musstest mal neu starten, auch das gab es früher öfters, weil es weniger Reload Funktionalität gab, dann hast du halt jedes mal sowas verloren. Alles wo irgendwo ein Timer lief ist... ...weg. Und dann hast du so Effekte wie...
Warum hat sich das jetzt nicht wieder ausgeschaltet, was sich irgendwie eingeschaltet hat und so weiter. cool. Recorder-Komponente. die speichert das in die Datenbank, die du verwendest, sei das ein SQLite oder eine Postgres oder ein RiotDB oder so. die möchte man aber üblicherweise eher klein halten. Auch wegen der Backups zum Beispiel, die man ausführt vor einem, vielleicht wenn du das machst vor einem Update von einer neuen Home Assistant Core Version oder so was.
Du einen Backup noch davor. Wenn die Komponente klein ist, umso besser. Genau. So.
der eine aspekt der andere aspekt auch im smart home könnte sein vielleicht willst du ein bisschen mehr visualisieren also es gibt ja diverse karten mit denen man irgendwelche grafen anzeigen kann aber die sind halt ja recht starr würde ich mal sagen die müssen nicht unbedingt unattraktiv sein aber sie haben so ihre darstellung du kannst schlecht rein zoomen oder gar nicht
Werte übereinanderlegen, dynamisch das vielleicht auch entscheiden, dass man den Wert rausnehmen, den Wert reinnehmen, eine andere Entität reinnehmen und so was. Für sowas gibt es einfach Tools, die besser geeignet sind. Und da ist ganz bekannt Grafana als Open Source Tool.
Andrej Friesen (32:16)
Damit
möchte ich auch sagen, wesentlich besser geeignet. Also, Romasysteme Grafen des Kilofats. Das ist ... nee.
Thomas Wiebe (32:20)
Uja.
Das kannst du dann mal machen, du irgendwie, weiß ich nicht, einen ganz unwichtigen Graphen hast, wo es auf die Details nicht so ankommt, nur so einen groben Verlauf. Erst Eindruck, aber sobald es dann halt als Eingemachte geht, brauchst du eigentlich einen megafahrenen Dashboard.
Andrej Friesen (32:41)
Und das ist jetzt auch kein Bashing auf Home Assistant. finde, Tools sollten das tun, was sie tun. Und Home Assistant ist ein Smart Home System. Das heißt, es aggregiert Zustände von verschiedenen Systemen. Sei es Philips, Tesla, dein Android-Handy, was auch immer. Und du kannst diese Stats miteinander interagieren lassen über Automation. Es ist keine Dashboard-Software. Es ist kein NAS. Es ist kein Hosting-Ding.
Nutzt es das wofür es gut ist?
Thomas Wiebe (33:13)
Punkt.
Andrej Friesen (33:17)
Du erfahrener ist halt der aktuelle, schon seit Ewigkeiten der Industriestandard für Visualisierung. Gerade in der IT oder vor allem in der IT. Es gibt hier auch noch andere Visualisierung wie Tablon Co. Das ist dann Business Analytics. Das ist anderes.
Thomas Wiebe (33:23)
und offen für
Ja, der Vorteil von Grafana ist auch, dass es sehr universell ist. Du hast Data Sources, du definieren kannst, also Datenquellen und das kann alles Mögliche sein. Das kann eine ganz normale Postgres sein, wo du SQL-Queries reinhaust. Das kann eine Time Series Database sein. Ich glaube, können auch irgendwelche Ressourcen wie Dateien oder sowas sein, also potentiell. Ja.
Andrej Friesen (33:51)
Google Sheets, SQL-Datenbank lokal auf dem Server,
eine Textdatei, es kann wirklich alles sein. Die haben richtig viele Data Sources.
Thomas Wiebe (34:00)
bin erst kürzlich darüber gestolpert, dass das mal so komplett in einem anderen Kontext verwendet wird, weil wir kennen das natürlich als Tool für Visualisierung im IT-Umfeld. Aber die Stadt Aachen hat vor kurzem ein Mobilitäts-Dashboard gebaut, wo relativ viel Inhalt drin ist. Also da geht es halt ⁓ Anreisemöglichkeiten mit Bus und Bahn, Auto, Reisebus, Rad und so weiter.
Parkhäuser alles mögliche Baustellen Ja das ist mir dann aufgefallen dass das Grafana ist tatsächlich aber die haben das so stark gefilmt dass das auch kaum auffällig Dass es kaum auffällt also ich pack es mal in die Notiz
Andrej Friesen (34:31)
Das ist Grafana.
Das wusste ich nicht.
Thomas Wiebe (34:51)
Also auch sehr cool, freie Ladestation prozent,
Andrej Friesen (34:56)
Ich schicke jetzt mal einen Link in unsere Linksammlung. Und du klickst da jetzt drauf und sagst mir was du denkst. Auch Grafana. Also.
Thomas Wiebe (34:59)
Mhm.
Okay.
Ich sehe schon im World... What?
Okay, was steht hier?
Andrej Friesen (35:18)
Also der Thomas guckt gerade auf ein Grafana Dashboard von
Taylor Swift. Da gibt es auch einen passenden Blogartikel zu, der im Oktober veröffentlicht wurde. Da hat jemand ein Taylor Swift Grafana Dashboard gebaut. Mit Filmkarriere, Fun Facts, wie viel Studioalbum sie aufgenommen hat, welches Songs sind Nummer 1. Also du kannst wirklich alles mitnehmen.
Thomas Wiebe (35:47)
Äh, Wahnsinn. Ja... Ich bin...
Andrej Friesen (35:50)
Dann kann man auch da
reinklicken, Musical Characteristics and Song Analysis und dann siehst du halt so einen Verlauf über Enhanceability, Energy, was? Also das ist komplett krass.
Thomas Wiebe (36:02)
Also
zum 3. Januar 2026 sagt das Dashboard, Cruel Summer sei der most popular Song. Ich kann es nicht beurteilen. Ich bin nicht so vertraut mit Taylor Swift.
Andrej Friesen (36:14)
Cool finde ich die Eras Tour Analyses. Wie viele Konzerte, wo die waren. du so eine Map. da sieht man halt was geht. Du kannst halt Pile Charts machen, nur Zahlen, Karten. Du kannst auch so Heatmaps basteln. Da habe ich auch schon ein paar mal genutzt. Total genial. Also wer Dashboards bauen will, lasst das sein in Home Assistant.
Thomas Wiebe (36:21)
Gut.
Ja, ich frag mich auch gerade nehme mal an, dass man da sich bestimmt auch sehr gut an Informationen aus der Wikimedia Foundation. Wie heißt das nochmal? Wikidata? Ja, verwenden kann. Okay, cool. Nun ja, die Klammern. Ich kann schon gar nicht mehr erzählen, wie viele Klammern wir aufgemacht haben, nur das Intro zu machen. Das ist Home, Smart Home, also visualisieren. Coole Sache.
Andrej Friesen (36:53)
Ja, geben data.
Thomas Wiebe (37:10)
So, Data Source gibt es aber eben. Also Home Assistant ist keine gute Data Source an der Stelle, weil wie gesagt, ist ja sehr eingeschränkt vom eigenen Data Storage. anderes Thema ist, vielleicht hast du was komplett anderes im Smart Home. Ach, Smart Home, im Home Lab. Also einfach nur irgendwelche Server, irgendwelche Ubuntu Kisten oder was weiß ich. Dann kann man da was drauf laufen lassen, wie in Prometheus zum Beispiel oder so Prometheus.
sogenannte Exporter, das heißt die Geometriken ins Netz und da sind einfach gemessene Werte. Was ist deine aktuelle CPU-Verbrauch? Was ist dein RAM-Verbrauch? Wie sieht es mit den IOPS aus? Wie viele IO-Dingens hast du pro Sekunde? All das. Wenn du sowas sammeln möchtest, ⁓ es auswerten zu können, einfach Visibility zu haben, also was passiert gerade auf deinen Servern? Warum ist gerade etwas langsam? Dann brauchst du
ein System, wo du genau diese Datenpunkte, diese Metriken speichern kannst. Und das ist definitiv mal gar kein Home Assistant. Dafür ist es absolut gar nicht geeignet. Und da kommen wir dann an den Punkt, was ich irgendwie heute mal besprechen wollte, nämlich Stichwort, Metriken, Stichwort Langzeit State Storage für Home Assistant konkret.
Und womit macht man das? Und üblicherweise bietet es sich an, das mit sogenannten Time-Series-Databases zu machen. Time-Series-Database ist im Grunde ein NoSQL-Database, also keine relationalen Datenbanken, sondern du definierst einfach... Du hast eine sehr feste Struktur, du sagst, es gibt irgendwie eine Uhrzeit, es gibt...
die Art von was ist diese Metrik, was ist der Datensatz, ich habe, also das Measurement möchten wir uns vielleicht mal nennen. Gibt es vielleicht noch irgendwelche Tags, die man losgelöst vergeben kann und einen Wert. Und dieser Wert ist dann halt üblicherweise einfach irgendeine Art von Zahl, Vlease, Zahl. Kann aber teilweise auch ein String sein.
Andrej Friesen (39:17)
Counter sein also.
Ja, aber nicht in Promisius.
Thomas Wiebe (39:24)
Ja, genau. Das ist sehr unterschiedlich bei den Datenbanken. Das ist jetzt erstmal sehr grob formuliert. Wir können noch in die Details reingehen, wenn wir uns die einzelnen Time Series Databases anschauen. Hast du bei dir was im Einsatz?
Andrej Friesen (39:39)
Naja, ich hab seit Ewigkeiten Promis auslaufen und einen Flux noch. Aber den Flux möchte ich auch langsam mal weg.
Ich habe aktuell, oder ich habe schon seit Ewigkeiten, ein Influks laufen, wo Home Assistant einfach seine Daten reinschiebt. Falls ich mal im Nachhinein nachgucken möchte über einen längeren Zeitraum, was wie wo, wann, war. Gerade Temperatur und Feuchtigkeit sind für mich wichtig, denn dieses Haus, wir mieten, ist eine Katastrophe von Erheizung her. Die Hälfte der Erheizung funktioniert hier nicht, weil wir haben Fußbodenheizung und falls dann irgendwie mal kommen sollte, hier schimmelt dies das, sage ich, nee nee.
Hier sind meine Daten. Also, weiß nicht, ob das vor Gerichtstand halten würde, aber das ist so die Argumentationsbasis, ich haben möchte.
Thomas Wiebe (40:23)
Mhm. Okay, bei mir sieht es ähnlich aus. Ich habe auch mit Influx angefangen. Das läuft jetzt seit vielen, vielen Jahren schon. Und dann kam irgendwann noch ein Prometheus dazu. Man muss dazu sagen, die Systeme verfolgen unterschiedliche Ansätze. Also es gibt halt das Pull-Verfahren und es gibt das Push-Verfahren. InfluxDB macht das Push-Verfahren, das heißt...
Du hast irgendwo deine, wie auch immer du es nennst, Agenten oder ne? Also irgendwo läuft eine Komponente und die möchte irgendwas reporten. dann muss diese Komponente aktiv die Metriken an deine Influx schicken. Das kann entweder die Komponente selber sein oder du setzt halt auf dem System etwas ein, wie zum Beispiel ein, wie ist das Ding? Telegraph. Telefraf.
Andrej Friesen (40:57)
und kleint.
Telegraf. Telefraf. Das ist interner
Witz, ich mal bei uns in der Firma den Telegraf ge- maintained hab. Den wir im Custom geboten und irgendwie hatte ich den Telegraf genannt. Das F und G sind ja auch sehr nebeneinander. Der gute Telegraf. Und dann kam nur der T-Rex mit diesem Unterbiss. Aufs Tiefen.
Thomas Wiebe (41:36)
Ja, und ich lag auf dem vor Lachen.
Genau, also der Telefraf, muss dann halt irgendwo oder irgendwas wie genau das, das läuft dann halt auf den Systemen drauf, du Metriken erfassen möchtest und das muss aktiv gepusht werden. Man muss aber ja auch immer berücksichtigen, so ein Server kann ja mal down sein, temporär. Das heißt, was machst du dann? Der Klein muss damit umgehen können, also Telegraf oder was auch immer. Und du müsstest ihm also sagen,
Entweder ja dann vergiss es halt, dann sind die Daten weg oder vielleicht soll er sie dann doch buffern, entweder dann im Speicher oder vielleicht auch noch auf Festplatte. Ist relativ viel Logik in den einzelnen Clients. Kann sinnvoll sein, aber im Cloud Umfeld, wo man sehr viel in so Kettel denkt, quasi du hast halt Systeme, die du nicht im Einzelnen pflegen möchtest, sondern wenn irgendwas nicht mehr ganz läuft, schmeißt es weg und baust es neu auf.
Andrej Friesen (42:35)
V vs Pets.
Thomas Wiebe (42:44)
kann man halt sehr gut mit Containertechnologien zum Beispiel machen, Kubernetes und so weiter. Und in so einem Umfeld ist dann Prometheus entstanden. Und Prometheus hat den genauen umgekehrten Ansatz gewählt, nämlich Pull. Das heißt, man muss irgendwie Prometheus selber sagen, welche Ziele soll es pullen, also von wo soll es Daten ziehen und auch
im Detail, was braucht es dazu? Also es braucht halt irgendwelche Adressen, vielleicht braucht es auch noch irgendwelche Authentifikationsdaten, sowas wie Basic Authentication. Das muss man alles dem Prometheus irgendwie sagen können. Und dazu gibt es dann halt so Systeme wie Service Discovery. Also man sagt dann Prometheus, guck mal hier. So und da steht das dann alles drin. Das heißt, die Systeme, die man dann vielleicht dynamisch in der Cloud irgendwie ständig startet und stoppt, die registrieren sich irgendwo zentral und Prometheus kann aus dieser
Zentrale dann die Informationen rausziehen, die es braucht zum zu monitoren. Und dann geht es halt hin und zieht aktiv die Daten. Und das heißt, da haben wir dann den Pull. Und was das Ganze so anders macht, ist zum einen hast du halt nicht das Problem mit Prometheus kann überlastet werden, indem halt viele Systeme gleichzeitig Daten reinpushen. Das heißt, es wird fremd gesteuert. Also InfluxDB ist quasi durch den durch den Push fremd gesteuert und das kann
natürlich unter unter umständen wenn gerade viel last ist wenn zum beispiel in flux der zeit lang nicht mehr erreichbar war und die ganzen systeme dann alles was sie so gebuffert haben pushen wollen hast du halt so ein lastpeak ja genau also es kommt
Andrej Friesen (44:20)
Ja, das war mal lustig.
Netzwerk
mal für ne Finish und dann... kotzen alle Literal-Lieder rein und der kommt gar nicht mehr klar.
Thomas Wiebe (44:34)
Und dann kommt das System halt eventuell nicht mal mehr richtig hoch. Oder stürzt halt das sofort wieder ab. Oder friert halt so stark ein, dass vielleicht ein Half-Check wiederum fehlsteckt, was dann den Influx wieder neu startet. dieses Push kann zu Problemen führen.
Andrej Friesen (44:48)
Hat aber auch einen riesen Vorteil, den du über Pull nicht abbilden kannst. Und das ist, wenn du auf keinen Fall Daten verlieren darfst. Weil Pull hat kein Buffering. Per Definition kannst du nicht buffern. Du kriegst, wenn du fragst, einfach nur den Wert, es aktuell gibt. Keine Zwischenwerte. Wenn du wirklich viele Zwischenwerte brauchst, ist das vielleicht ein besseres System bei Push.
Thomas Wiebe (44:58)
Ja.
Andrej Friesen (45:14)
Wobei da gibt es auch glaube einen Push Gateway mittlerweile. Ich weiß ja nicht wie es mit historischen Daten ist bei Promisius. Da ist in meinen Augen von Architektur Influx natürlich schon ein bisschen einfacher zu handeln. Nehmen wir mal jetzt an, du brauchst High Frequency Trading bei so Banken Kram. Gut, da wird es vielleicht auch nicht Influx nehmen, weiß ich jetzt nicht. Das werde ich auch andere Daten machen, aber Promisius ist auf gar keinen Fall ein guter Kandidat.
Thomas Wiebe (45:24)
Hm.
Ja oder dein Smart Home. Wenn du das wirklich für einen langen Zeit-State-Storage verwenden möchtest und dich interessiert hat, auch wenn ein Sensor mal auf off ging und fünf Sekunden später wieder auf on ging, siehst du das eventuell bei Pomisius gar nicht, weil du eventuell nur an den 15 Sekunden oder 30 Sekunden den aktuellen Status abholen Das hat immer nur einen Snapshot. Du hast keine wirkliche Änderungshistorie. Und das ist bei Influx eben anders, weil da wird einfach alles reingepusht. Jeder Kleine ist natürlich selber dafür verantwortlich, was er pusht.
Andrej Friesen (45:51)
Intervall 5.
Thomas Wiebe (46:07)
Aber im Normalfall sollte einfach, also bei Home Assistant ist es zumindest so, da gibt es eine Influx DB Integration und die schickt halt einfach jede Änderung an den Server. Man kann auch buffern, das eben mal nicht geklappt hat. Also unterschiedliche Ansätze zwischen Influx und Prometheus und das sind auch so die ganz großen Kandidaten, die so die letzten Jahre immer wieder anzutreffen waren. So.
Wie bin ich jetzt nochmal da drauf gekommen? Also ich habe auch einen Influx laufen, Version 1, ewig alt, nicht in Home Assistant selber, sondern mein Home Assistant lief eine lange Zeit lang auf dem Blue mit einem EMMC Storage. Da will man nicht, dass die ganze Zeit irgendwelche Werte auf die Karte geschrieben werden, sondern eben ganz normal auf einem Server. Und dann habe ich auch noch Prometheus laufen. Und genau, das war so meine
Ausgangssituation. Und dann hatte ich ein Projekt, wo es darum ging, Werte wegzuspeichern, die müssen zuverlässig weggeschrieben werden können und die müssen vor allem langzeitaufbewahrt werden. Mindestens mal Ausreißer, im Idealfall sind nicht so super viele Werte, können die auch einfach alle weggeschrieben werden und zwar so zehn Jahre Vorhaltezeit. Da kam dann das Thema wieder auf, so von wegen, okay, was für Lösungen habe ich denn zur Auswahl? Prometheus fällt weg.
allein schon wegen Pull und Genauigkeit und weil Prometheus auch gar nicht ausgelegt ist für Langzeitstorage. Also Prometheus ist eigentlich ausgelegt für so operatives Monitoring. Da kommt es auch her. Es bringt halt auch andere Komponenten mit, wie zum Beispiel ein Alertmanager, wo du Regeln definieren kannst und die Regeln definierst in Prometheus. Der Alertmanager kümmert sich nur ums Alerten. Das heißt, das ist eigentlich ein ganz konkreter Fokus.
Und man sollte vielleicht ein paar Wochen Informationen vorhalten in einem Prometheus und wenn du mehr brauchst, dann pusht du die in irgendein System, was Langzeitstorage macht. Da gibt's verschiedene. Thanos zum Beispiel. Oder Mimia. Thanos. Genau. Aber die haben auch alle eine gewisse Komplexität, die sie so mit sich bringen. Darf man also auch nicht unterschätzen. Und vor allem...
Andrej Friesen (48:20)
Hanos!
Thomas Wiebe (48:33)
bedeutet das für dich, wenn du mehrere dieser Systeme hast, je nachdem wie die Daten weitergeleitet werden und so weiter, was nimmst du als Datenquelle für deine Dashboards zum Beispiel? Das ist noch ein Faktor. und bei... Also Proletheus war raus und Influx war eigentlich immer noch, sagen wir mal, von der Architektur her ein heißer Kandidat. Aber Influx hat das Problem, dass es...
Mittlerweile drei Major Versions gibt und die so ein bisschen in die Peitenfalle gelaufen sind, man so möchte, die haben größere Breaking Changes reingebracht. Will heißen Version 1. Das ist auch immer noch die Version, die in dem Home Assistant Add-on verfügbar ist von Frank. Wird immer noch Version 1 benutzt und zwar, glaube, die 1.8.
Andrej Friesen (49:30)
Addon? Das ist nativ.
Thomas Wiebe (49:33)
Nee, nee, das Addon, also die Datenbank. Wenn du die in Home Assistant betreiben möchtest, geht halt über den Addon. HAOS hat das. Dann kannst du das, aber das ist halt immer noch die alte Version. Die ist, das ist auch so bisschen repräsentativ dafür, die ist noch immer sehr verbreitet. Aber wir sind halt bei Version 3 jetzt. So das Problem, was entstanden ist in der 1 war eigentlich die
Andrej Friesen (49:36)
⁓ okay.
Jaja, wahnsinnig verbreitet.
Thomas Wiebe (50:03)
Abfragesprache also wie liest du die daten aus in die query language die war Ja Und genau in flux ql die ist so sequel mäßig sagen wir mal so die ist nicht ist kein nativ ist kein vollwertiges sequel aber du kannst halt so was sie select measurement from Wo er Gruppieren ging auch so hat sich sehr
Andrej Friesen (50:10)
InfluxQL.
Thomas Wiebe (50:31)
für Schön lesbar. Also für Leute, zumindest mal eine Datenbank benutzen, eine SQL-Datenbank, kann man das sehr gut lesen. Und dann haben sie angefangen und haben eine neue Sprache entwickelt, die heißt Flux. Und die ist verdammt komplex geworden. Und für mich bis heute alles andere als lesbar.
Andrej Friesen (50:33)
Ein bisschen Rechnen ging auch. Ein bisschen Mathe.
Ja. Und dann haben die in dem Zweierrelease gesagt, Flux ist die Zukunft. Und alle so, ⁓ nee, gut, dann machen wir das halt. Wir auch, alles umgestellt. Dann haben die gesagt, am Ende vom Zweierrelease, nee doch nicht!
Thomas Wiebe (51:08)
Mhm.
Leute finden das nicht gut?
Andrej Friesen (51:15)
Und dann haben die gesagt, ja, Flux ist jetzt ein Community-Projekt. Kann die Community machen, wir machen jetzt nur noch InfoSQL. Das heißt, ihr könnt auch direkt sagen, dass wir das nicht mehr wollen. Anstatt zu sagen, die Community fliegt das, weil... Und in drei, was ja kein richtiges Open-Source-Projekt mehr ist, gibt's auch eine neue Sprache jetzt, ich wieder.
Thomas Wiebe (51:41)
Ja, zwei. Also es gibt wieder InfluxQL, wenn ich das richtig verstanden habe, und es gibt ein richtiges Sequel. Also anscheinend ein vollwertiges, ja. der Flux hatte wohl Vorteile. Es war halt schlecht lesbar, aber du konntest dann richtige Processing, auch Kaskaden bauen, ne? Also quasi, konntest erstmal irgendeine Art von, ich weiß nicht, wie man das nennt, Flux-Query ausführen und dann mit dem Ergebnis davon im, also im selben großen Query konntest du dann wieder mit den Ergebnissen, aber das kann man auch im Grunde mit Sequel machen.
Andrej Friesen (51:46)
Und SQL. Ja, genau.
Ja, ja.
Thomas Wiebe (52:10)
indem du halt so Subquailies und so ausführst, das geht auch. Bisschen eingeschränkter wahrscheinlich. Aber mit der Influx-Qualität ging es wohl nicht.
Andrej Friesen (52:18)
Aber es war auch bisschen doof, weil Flax konnte auch nicht alles abbilden, was Influx QL hatte. Deswegen musste es zu dann überlegen, wie pass ich denn jetzt meine Dashboards wieder ⁓ Also das war schon ein riesen Aufwand.
Thomas Wiebe (52:26)
Es war auf jeden Fall viel Arbeit.
Den haben wir auch auf Arbeit gehabt, sozusagen. haben wirklich... Damals im Bergwerk, da haben wir das alles umgebaut. Das hat einiges an Zeit gekostet, weil es auch abrechnungsrelevante Daten waren. musste man natürlich sehr vorsichtig da sein. dann waren wir froh und dachten, jetzt sind wir zukunftssicher auf der Version 2 mit Flux und dann kam irgendwann Version 3 und stehst du wieder da.
Andrej Friesen (52:33)
Das war mal Loche.
Thomas Wiebe (52:57)
voll gut. Genau, von der 3 gibt es mehrere Ausführungen. Sehr interessant zum einen, mal Version 1 und 2 waren in Go geschrieben. Version 3 ist komplett reingeniert, ist in Rust geschrieben, setzt auf Apache Arrow und Apache Parkhead oder Parkhead. Wie heißt das? Parkhead.
Das eine ist wohl irgendwie das Processing oder in-memory irgendwas gedünnt, sondern das andere ist die, also Parket ist dann die Speicherung von den Daten, Also Langzeitspeicherung. Also komplett neu geschrieben und auch so ein bisschen Fokusshift, muss man sagen. Das heißt, in drei ist es jetzt so, es gibt mehrere Versionen, es gibt halt die kommerziellen und dann gibt es immer noch eine Open Source Variante, eine Core Variante.
Andrej Friesen (53:26)
Mhm.
Thomas Wiebe (53:47)
Aber diese Core-Variante, die ist jetzt halt auch so auf Echtzeitdaten optimiert. Also so ein bisschen wie bei Prometheus im operativen Monitoring. Da geht es nicht mehr so Langzeitstorage. Und genau. Und es gibt auch noch von der kommerziellen Variante ein Free Tier. du also Privatanwender bist, kannst du die auch benutzen. Aber ich weiß nicht, wie es dir geht. Mich turnt sowas immer total ab. Also als Privatanwender darf ich das kostenlos benutzen. Aber was ist denn, wenn ich dann doch mal
Andrej Friesen (54:11)
komplett.
Thomas Wiebe (54:16)
Das im 3D Druck zum Beispiel. Ja, das auch. Das kommt auch noch dazu.
Andrej Friesen (54:19)
WMWare, höre dir Tapsen. Also
ich meine, das gleiche ist ja passiert, wie viele Leute haben umsonst oder kostenlos, nicht umsonst, WMWare v.a. v4 benutzt, so. Dann hast du es zu Hause. Das ist auch total strategisch genial. Du nutzt es im Home Lab, die Leute schulen sich damit im Endeffekt, haben dadurch Knowledge aufgebaut und können dann im Job einen v4 Cluster verwalten. Aber irgendwann sagt dir WMWare, ja, nee, dürfte nicht mehr, gibt keine Home Lab Version mehr. Zack, buff.
So und anschließt sie da. Sei jetzt mal dahingestellt, ob das eine schlaue Entscheidung von der Businessstrategie ist von deren Seite aus. Ich sag nein, aber egal. Aber wenn du dich auf sowas verlässt, dann bist du verlassen, wenn die keinen Bock mehr haben.
Thomas Wiebe (54:48)
Mmh.
Ja, also aus Herstellersicht macht das doch eigentlich total Sinn. Würde ich auch, bin ich total bei dir, das anzubieten, dass man privat kostenlos machen kann, aber auch dauerhaft, naja, privat, dir geht auch kein Revenue verloren, weil privat wird sich's keiner leisten. Zahlt niemand den Groschen dafür. Ja, dann ja, das ist ja die Alternative, aber...
Andrej Friesen (55:19)
ein ganzen Groschen wäre.
Der Groschen ist sehr, sehr
groß.
Thomas Wiebe (55:28)
Mir fällt da gerade die
Alternative ein oder der andere Kontext 3D Druck und wenn man selber Modelle designt, dann ist ja eine super bekannte und beliebte Lösung Autodesk Fusion 365. Das ist auch im privaten Bereich kostenlos und da gibt es... Ja, das ist total... Also du hast dann irgendeinen Client, den du bei dir installierst, aber das ist ja... Das ist Cloud und das fühlt sich ehrlich gesagt so snappy an wie ein Browser mit einer komplexen Applikation drin. Also ich finde es auch nicht.
Andrej Friesen (55:43)
Aber nur Cloud,
Medium. Ich glaube, du trittst auch rechte ab.
Thomas Wiebe (55:57)
Schöne Muse.
Ich meine auch Du kannst es dann auch wohl kommerziell also zum einen ist es halt aber erstmal eine wenn ich das richtig in Erinnerung habe da muss ich aber wirklich ein großes halb wissen Du musst erst mal eine Genehmigung holen dass du es nutzen darfst also muss quasi beantragen dass du privat anwender bist und dann kriegst du die aber die ist auch zeitlich begrenzt damit sie halt jederzeit ein rückzieher machen können und wenn du dann anfangen möchtest das ding irgendwie
Andrej Friesen (56:25)
Mhm, mhm.
Thomas Wiebe (56:29)
doch kommerziell einzusetzen, weil du vielleicht doch mal ein Modell verkaufen möchtest, dann gibt's dann halt irgendwelche Schwähwerte und wenn du drüber bist, dann zerkast du den normalen Preis. Und den normalen Preis, den kriegste dann wiederum nicht finanziert, wenn du es nicht hauptberuflich machst. Oder?
Andrej Friesen (56:45)
Und der Witz ist, weil ja alles Cloud ist und die die SCLs sehen oder die ganzen Dateien, können die das tatsächlich auch kontrollieren. Wenn das jetzt lokal auf seinem Rechner wäre und keine Metadaten so verfügbar, ja, woher ist das? Aber das ist ja richtig krass, finde ich. Die können das ja einfach checken.
Thomas Wiebe (57:04)
Ja, somit sagt ihr bei der Recherche, ist Influx DB3 jetzt tauglich für so Langzeitstorage? Kam das Ergebnis mehr so raus? Ja, also die Core-Version, die ist halt eigentlich nicht drauf ausgelegt. Ist halt eigentlich auf Echtzeitdaten ausgelegt und die andere Version, ja, es bringt auf jeden Fall Komplexität mit, weil Version 1 und 2, das war halt so eine einzige Komponente. Ein Prozess, den startest du und dann läuft das Ding mit allem, was es halt braucht. Und bei 3 hat sich das wohl geändert.
Bei 3 war dann der Tipp ja, nutze den Free Tier. nee, kommt für mich persönlich einfach nicht in Frage. Somit war das schwierig, weil man hat auf der einen Seite die Time Series Database für den ganzen Bums, also wie man es speichert. Auf der anderen Seite hast du natürlich auch die Komponente, wenn ich das für Home Assistant nutzen möchte. Und dann in meinem Projekt war das eben der Fall. Dann muss ich ja auch erstmal einen Mechanismus haben, der die Daten von Home Assistant in die Datenbank pusht.
Andrej Friesen (57:59)
Klüverschift.
Thomas Wiebe (58:01)
Und es gibt einen Ativen Support für die Influx DB. Also da gibt es eine Komponente für. Die hat den Legacy-Status, aber der Legacy-Status, der beschreibt halt, der ist relativ vage definiert. Also das kann bedeuten, dass das Ding nur per Jaml zu konfigurieren ist. Okay, das ist ja fein für vieles. Es kann aber auch bedeuten, dass die nicht mehr aktiv maintained wird. Muss man sich also quasi, wenn man das Legacy-Label sieht, muss man sich das etwas näher anschauen.
So, in Prometheus gibt es auch eine Integration, offiziell von Home Assistant kommt, aber da bleibt ja das Pull-Problem bestehen. Deswegen war das ja schon mal raus. Stehst du also da? Ich bin dann noch... Ich bin dann im nächsten Schritt auf TimeScaleDB gestoßen. Das ist eine komplett alternative Time-Series-Database, die ist auf Postgres gebaut.
Andrej Friesen (58:45)
mit der Hose in der Hand.
Thomas Wiebe (59:01)
Mal was anderes also auf eigentlich einer relationalen datenbank genau aus dem plugin ja das heißt du installierst ein postgres installierst tailscale db drauf oder ich glaube es gibt also einfach ein image damit habe ich es jetzt gemacht das gibt halt ein image Und da kommt auch noch irgendwie das vector mit rein Warum auch immer kann ich jetzt gar nicht beurteilen und da gab es ein home assistant integration in hacks zu zwar nicht offiziell aber
Andrej Friesen (59:03)
Klacken.
Thomas Wiebe (59:29)
Zumindest lange lange Zeit existierend, große Userbase namens LTSS, Long Term State Storage. Also ganz konkret auch genau der Use Case, genau der den ich auch hatte. Und dann gucke ich so und merke, hm, deprecated seit zwei Wochen. Shit. Jaja, genau, nicht in zwei Wochen.
Andrej Friesen (59:48)
Nee, ne? Aber Gott sei Dank seit zwei Wochen. Nicht, es dann gemacht ist und dann
in zwei Wochen.
Thomas Wiebe (59:55)
Ja, das war... Also, ich hatte mir vor allem... Ich bin darüber gestolpert vor zwei Monaten oder so. Da war es noch nicht der Prickate. Hab mir dann Timescale angeschaut, die Datenbank, die Unterschiede zu Inflokes. Also, funktioniert ansonsten ähnlich, ist auch Push-Verfahren. Also, Daten müssen reingepusht werden. An Speicher, die nur eben anders...
QueryLanguage ist zwar auch SQL, aber auch komplett anders, weil da ist halt alles, was irgendwie mit Aggregation oder so zu tun hat. Also alles, was Timescale spezifisch ist, wie Wende mal folgende Funktion an, das ist halt auch wirklich eine Funktion in Postgres. Syntaktisch also anders. Oder du möchtest irgendwas komprimieren. Das komprimiert halt nicht automatisch, sondern das komprimiert dann onDemand. Du setzt Policies und sagst so was wie nach sieben Tagen bitte komprimieren.
dann hat er so einen internen Timer und macht das. Das heißt aber, sobald es komprimiert ist, kannst du nicht mehr die Daten, kannst du sie nicht mehr verändern. Solange es nicht komprimiert ist, ist das kein Problem. Das musst du also dann für dich abwägen, wie du das handhabst. Beim Query wiederum, wenn du halt Daten abfragst, kann er das aber dynamisch raussuchen. Also er nimmt halt die rohen Werte von nicht komprimierten und den komprimierten und so weiter. Also das ist alles super. So, Unterbau, wie gesagt, Postgres ist halt einfach
hat den Ruf zumindest als die stabilste Open Source Datenbank und auch sehr universell, weil auch die unterstützt tatsächlich selbst, obwohl sie relational bei Design ist, unterstützt sie halt NoSQL durch Aufsätze und ja alles war interessant. Ich hatte mich so drauf eingestellt das zu nutzen und dann sehe ich halt LTSS deprecated. Am Ende auch
Man muss dazu sagen, Timescale ist interessant, wenn man sich so Performance-Daten anschaut, was ist der RAM-Verbrauch, was ist der Speicherverbrauch auf der Platte, was kann das Ding an Performance leisten, ist es schon sehr anders zu Influx und auch zu Prometheus. Ja, die hat einen ziemlich großen Overhead, wenn es darum geht, Daten zu schreiben.
Andrej Friesen (1:02:04)
Ja gut, ist ja immer noch eine relationale Datenbank drunter. Darf man nicht vergessen.
Thomas Wiebe (1:02:13)
Dementsprechend ist das Schreiben zum Beispiel viel langsamer, aber am Ende deutlich stabiler. Also das war so insgesamt der Eindruck, den ich gewonnen habe. Alles ist langsamer und teurer, aber stabiler, also quasi konstanter. Also auch unter Last hält er dann immer noch diese Werte. Ich erinnere mich ehrlich gesagt jetzt nicht an Details, wie es jetzt genau bei CPU, bei RAM und bei Speicher war, aber das war so der Eindruck, der geblieben ist. Teilweise deutlich
teurer also zum beispiel ich glaube die braucht irgendwie zehnmal so viel storage alles jetzt großes halbwissen ich hab es mir nicht nicht gemerkt wäre aber in dem scale für ein homelab und für das projekt wäre das aber noch immer ok gewesen mir ging es da mehr so ⁓ soll halt zehn jahre verfügbar sein und ich will dann noch rankommen
Im Idealfall will ich halt nicht das Risiko haben, dass wieder wie bei Influx und Breaking Change kommt und ich muss alles umstellen auf eine neue Sprache und das wäre viel schlimmer gewesen als...
Andrej Friesen (1:03:16)
Hast du nicht
mal einen Tipp genommen mit exportieren den Kram einfach als CSV und fertig?
Thomas Wiebe (1:03:20)
Das kommt vielleicht noch, mal gucken. Aber es geht halt auch ⁓ also zum Archivieren wäre das eine Option. Aber es geht halt auch immer noch, wir brauchen immer noch Grafana und eine Time Series Database, ⁓ Dinge zu visualisieren. Es kommt drauf an, wie viel Speicher es braucht. Klar, bei Langzeit Storage hast du auf jeden Fall den Faktor, möchtest du...
Andrej Friesen (1:03:34)
nicht für zehn Jahre, oder?
Thomas Wiebe (1:03:48)
Also diese Wiederherstellbarkeit, das ist ja auch immer bei Backups ein Thema. hast eine Backup-Software und du möchtest halt auch sicherstellen, dass das in zehn Jahren noch restoren kannst, wenn du etwas für Langzeitarchivierung brauchst. Und da gibt es natürlich die alten, stabilen Formate wie ein gutes Altestar-Archiv. Das hat sich bewährt, das wird auch in zehn Jahren noch funktionieren. Und bei modernen Kram ist es schwieriger.
Andrej Friesen (1:04:09)
Text halt.
Was du uns da reinpackst, wenn das auch ein proprietarisches Format ist, kann es auch viel Spaß.
Thomas Wiebe (1:04:17)
Ja, so CSV-Exporte kommen vielleicht tatsächlich noch zum Einsatz. Bin da noch... Das wäre noch eine Option, genau, dass man das nicht täglich macht, sondern einmal im Jahr und dann irgendwo in S3 speichert oder sonst was oder sich per E-Mail schicken lässt oder was auch immer, ne? Wäre eine Option.
Andrej Friesen (1:04:22)
zumindest mal so jahresbasiert
Ja, wenn das dann Paxlern
ist, wiegt das ja auch gar nichts. ist ja ein paar Megabyte dann.
Thomas Wiebe (1:04:38)
Das ist übrigens auch ein großer Unterschied, ein gutes Stichwort. Packen, Kompression hatte ich ja schon gerade kurz erwähnt. Time-series-Databases können einfach sehr viel effizienter sein, weil die Algorithmen auch verwenden, wirklich... Wenn du nicht jedes Mal, also jeden... Sagen wir mal, du nimmst alle 15 Sekunden Messwert, wenn er natürlich jedes Mal komplett anders ist als der vorherige und als alle anderen bevor, dann ist mit komprimieren nicht viel zu...
zu holen, ist es Kompression wie bei einem Gehzip oder sowas.
Andrej Friesen (1:05:08)
bei deren Dateiformat, ja, bei Text immer noch.
Thomas Wiebe (1:05:11)
über Text, ja genau. Aber die Times-Views-Databases, sind halt darauf ausgelegt, dass du halt, sagen wir mal, du nimmst irgendwelche Messwerte von deiner Heizung als Beispiel, was du halt hattest. Die ändern sich ja nicht maßgeblich zwischen den einzelnen Messwerten, 15 Sekunden oder Minute. Da ändert sich halt ein bisschen was, da ändert sich der Nachkommabereich zum Beispiel. Und so was können die...
Andrej Friesen (1:05:30)
Das kommt darauf an,
wie viele Nachkommastellen du hast. Weil je genauer du misst, desto größer ist der Diff. Und wenn du einen Diff hast, kannst du es nicht als den gleichen Wert abspeichern.
Thomas Wiebe (1:05:40)
aber die sind darauf ausgelegt, tatsächlich den DIV effizienter zu speichern, als wenn du es einfach jedes Mal den ganzen Wert speichern würdest.
Andrej Friesen (1:05:47)
Smart! Achso, ja stimmt. Ja, ist viel einfacher, den Diff immer vom letzten Wert zu speichern.
Thomas Wiebe (1:05:53)
Ja, frag mich nicht, wie sie es machen, ist so tief wollte ich da gar nicht eintauchen, aber das ist wohl eine der großen Stärken. Ich habe mir dann quasi einfach mal so grob ausrechnen lassen, auch mit der Hilfe von Gemini und so, zu gucken, wenn ich das jetzt als CSV speichern würde für 10 Jahre, was wird mich das in etwa an Datenvolumen kosten, wenn ich das in Influx speichern würde und so weiter. Und dann...
Andrej Friesen (1:06:15)
Hast
du das mit Gemini gerechnet?
Thomas Wiebe (1:06:18)
mal schätzen lassen. ist dann ganz gut so im, ja guck mal, das ist ein Datenwert von dem und dem Typen, der braucht halt pro Wert in etwa so und so viel Bit und daraus ergibt sich bei der Frequenz das und das, so als Basis. Das war schon ganz gut.
Andrej Friesen (1:06:31)
Das würde ich in Excel noch
oder Google Steets noch mal nachprüfen. Weil in meinen Augen können die nicht rechnen. Rein von der Logik her.
Thomas Wiebe (1:06:36)
Ja, können die auch nicht. Aber als Anhörung.
reden uns hier jetzt nicht von 10 gegen 12 Megabyte, sondern wir reden halt von 20 Gigabyte oder eins oder fünf. Das hat schon gereicht.
Andrej Friesen (1:06:47)
Ja,
aber rein von der Logik her kann ja ein LLM gar nicht rechnen, weil er ja nur mit Zahlen interagieren kann, die er schon mal gesehen hat im Internet. Also wenn deine Kombinationen nicht passen, weil er ja nur eine statistische Voraussage, der rechnet ja nicht. Außer die haben extra ein Rechending eingebaut, das weiß ich jetzt gerade nicht. Kann sein, dass sich das geändert hat über die Zeit.
Thomas Wiebe (1:07:08)
Es klang
plausibel genug für mich.
Andrej Friesen (1:07:12)
Das hätte ich nicht geglaubt, hätte ich direkt nachgerechnet in Excel.
Thomas Wiebe (1:07:14)
Ja, ich habe im Taschenrechner nochmal überschlagen, das schon, aber nur überschlagen. Also ich wollte jetzt auch keine genauen Werte. Mir ging es halt darum, was macht... Also wir reden hier von wahrscheinlich irgendwie so 10 Sensoren oder so, ja? Zeitraum 10 Jahre und vielleicht minütliche Intervalle oder so, in etwa. Das passt schon. Ich habe ein Gefühl dafür bekommen, was in etwa an Datenvolumen auf mich zukommen würde. Genau.
Andrej Friesen (1:07:27)
Hm.
Okay.
Thomas Wiebe (1:07:44)
So, Timescale DB. War also heiß im Rennen. Bis es dann raus war. Genau. dann gab's ne... Es gab zum Glück, als das angekündigt wurde, dass das eingestellt wird, gab's direkt jemanden, hat eine neue Integration, aber auch Third Party natürlich geschrieben namens Scribe. Auch sehr interessant. Die ist wohl auch im Kern, also ganz sichergestellt, dass das auch alles Async ist. Also dass nichts durch den...
Andrej Friesen (1:07:49)
Raus!
Thomas Wiebe (1:08:12)
SYNC der States in die Time Scale DB, dass da nichts blockiert in Home Assistant. Es wurde so vorgehoben, dass man sich fragt, ob es bei LTSS vielleicht passiert ist. Kann ich nicht sagen. Aber das Projekt war dann auch entsprechend so zwei, drei Wochen alt. Also es war wirklich, passte zur Deprecation von LTSS. Und da weiß man natürlich dann nicht, ob du darauf schon was aufbauen möchtest, was produktiv laufen soll.
ohne zu viel Produktivität. Das war testet, das schon fein. Das hat schon gute Voraussetzungen mitgebracht, außer dass es eben sehr sehr jung war. So, dann war ich so ein bisschen auf dem Trichter, wahrscheinlich wird es an Timescale DB. Bin dann aber noch was komplett anderes gestolpert. Eins hat mich gestört an Timescale DB, weil ich ja gerne auch die Komplexität des Setups...
reinhalten möchte, habe ich mir die Frage gestellt, okay, timescale.de kann ich jetzt also Informationen reinpushen? In meinem jetzigen, also jetzt bei meinem privaten Setup, da nutze ich ja auch Influx und Prometheus und Influx für den ganzen Home Assistant Kram nur noch, alles andere ist auf Prometheus umgestellt. Also alles andere ist halt an der Stelle Metriken von irgendwelchen Servern, also Node Exporter und Co. Genau.
Dann kam der Gedanke auf, kriege ich denn irgendwie diese ganzen Exporter, die es ja schon gibt, für Prometheus? Und Prometheus hat sich ja zu einem Standard entwickelt, man so möchte, de facto und teilweise ja auch offiziell, weil das Format, was Prometheus verwendet, hat man ursprünglich als Prometheus-Metriken bezeichnet. Mittlerweile wird es halt als Open-Metrics-Format auch bezeichnet und es ist halt ein Projekt geworden, genau, das liegt auch bei der CNCF und so weiter. Also es gibt da halt...
Andrej Friesen (1:10:02)
Ja, ist ein Standard geworden.
Thomas Wiebe (1:10:09)
Das hat halt Zukunft und es ist vielseitig anzufinden. Und was ich vorhin nicht erwähnte, einer der Vorteile ist halt auch, gerade auch mit dem Pullverfahren, effektiv kann nahezu jede Komponente, die du irgendwo laufen lässt, auf einmal Metriken bereitstellen, weil die alle nicht den Push implementieren müssen mit der gesamten Komplexität, sondern die müssen einfach nur einen Endpunkt bereitstellen, wo Metriken rauspurzeln, wie zum Beispiel Request pro Sekunde bei einem Proxy oder 200er-Requests.
der letzten x oder aktuell unter 500er Request. All diese Informationen, kann und das machen auch ganz viele Komponenten, stellen diese bereit und wenn du die dann in Prometheus explizit anforderst, dann hast du die halt in deinem zentralen Monitoring System drin. Das ist cool.
So, und das war der Gedanke, kann ich das nicht auch? Also, gibt es da was, wie ich diese Metriken...
wie ich die in TimescaleDB reinkriege. Und da gab es mal ein Projekt, das haben sie PromScale genannt. Das war aber schon mehr als das. Das war nicht nur irgendeine Art von Adapter oder so oder Ingest oder wie man das nennen möchte. Das war tatsächlich schon so eine Art Nachbau von Prometheus auf Basis von TimescaleDB.
Andrej Friesen (1:11:25)
ist aber archiviert.
Thomas Wiebe (1:11:28)
Ja, genau. Man hat sich entschlossen, dass das nicht der Fokus des Unternehmens ist und ja, damit war Timescale DB auf jeden Fall wieder ziemlich uninteressant, weil ich wusste halt, ich habe immer noch ein Prometheus und beim Prometheus gilt halt auch, es ist eigentlich ja kein Langzeitstorage. Also man sollte es vielleicht für ein paar Wochen nutzen. Ich habe es bei mir momentan auf ein halbes Jahr konfiguriert.
Andrej Friesen (1:11:51)
Das Problem ist halt der Index für den RAM. Oder der RAM für den Index, andersrum. Weil du wirst halt dann wahnsinnig viel RAM brauchen, alle die Jahre einen RAM halten zu müssen. Das ist natürlich dann schwierig.
Thomas Wiebe (1:12:08)
hängt halt immer davon ab wie die Datenbank funktioniert. Es gibt ja die Werte an sich und es gibt die Tags. Vielleicht gucken wir uns einfach mal kurz an, wie ist denn eigentlich so eine Metrik in Prometheus aufgebaut? Wenn du nämlich so einen Metrics Endpoint hast von denen, du kannst einfach per Browser ansurfen, dann kriegst du einfach Text Output und in jeder Zeile ist eine Metrik definiert. Die hat einen Namen,
Also und der ist generisch, also quasi was ist der Wert, den ich hier anzeige? Was ist das für ein Wert? Also sagen wir mal, du hättest jetzt
nehmen wir mal Home Assistant und du willst Sensoren vom Typen Binary Sensor exportieren. Dann könntest du so eine Metrik haben, ist jetzt fiktiv, ich habe es nicht nachgeschaut, es wirklich ist, aber sagen wir mal, die wäre so was wie State Boolean. So, das wäre dann der Name der Metrik, State Boolean.
Andrej Friesen (1:13:13)
Meine Katzenmatte.
Meine Katzenmatte hat entweder Katze drauf oder Katze ist nicht drauf.
Thomas Wiebe (1:13:19)
Ich finde die immer noch klasse.
Andrej Friesen (1:13:23)
Das heißt, dann hast du das als Label,
Thomas Wiebe (1:13:28)
Ja genau, Label. Also die Metrik selber heißt halt einfach nur State Boolean zum Beispiel und kann Wert haben, 0 oder 1. 1 ist on, 2 ist off. 1 ist on, 0 ist off. Genau. So dann gibt es sogenannte Labels, wo du dann den Wert näher beschreibst. Also für die Metrik State Boolean gibt es dann zum Beispiel das Label Entity ID und das könnte dann halt so was sein wie Binary Sensor
Andrej Friesen (1:13:39)
Yep.
Thomas Wiebe (1:13:59)
Katze.
Andrej Friesen (1:14:02)
Das kannst du dann Name haben. Ja, Name macht eigentlich am meisten Sinn. Vielleicht noch ein Raum, weiß nicht ob die Daten exportiert werden. Area, Room, Labels, die Homesystem Labels, Any Labels von Homesystem ist drin.
Thomas Wiebe (1:14:10)
Hm.
könntest du auch. Und da kommen wir so langsam zum Problem. Die Labels sind teuer. Genau. Stichwort Kardinalität. Weil alles was in den Labels drin steht, kann man mal vereinfacht sagen. Der Kardinal. Genau. Also da geht es dann halt darum, wenn du so ein Label hast, dann wird das üblicherweise eben auch indiziert. Das heißt, du kannst danach ganz gezielt suchen. Wenn du zum Beispiel
Andrej Friesen (1:14:19)
Ja, Kardinalität.
Und das klar zu machen, das ist nicht katholisch. Sorry.
Thomas Wiebe (1:14:43)
Werte die anzeigen möchtest könntest du sagen gib mir mal ein state boolean wo zum beispiel das label raum Oder etage auf zwei steht so das ist im kontext von home assistant wahrscheinlich auch alles relativ einfach händelbar weil der die menge an labels nicht so groß ist aber jetzt gehen wir mal wiederum davon aus du hast vielleicht eine cloud architektur wo du irgendwie 100 container gleichzeitig betreibst aber die werden vielleicht alle
paar Minuten redeployed. Das heißt, jedes Mal ändert sich die ID des Containers. Das heißt, du hast pro Zeitpunkt, wo du guckst, du vielleicht nur 100 Labels. Also ein Label mit 100 Werten. Aber betrachtet auf einen Tag oder auf eine Woche oder auf einen Monat, hast du dann viel, viel mehr Labels. dann ist die Frage, wie wird dieser Index gespeichert? Also die ersten Versionen von Influx hatten
Wie die Storage Engine? TSM, glaube ich. Da war dieser Index komplett im RAM. Der hat ihn halt in den RAM komplett reingeladen. Und dementsprechend, wenn die Kardinalität hochgeht, du also viele verschiedene Labels hast, ähm, ja, dann hast du eventuell Instabilitäten, weil du nicht genug RAM hast.
Andrej Friesen (1:15:58)
explodiert das exponentiell.
Vor allem dann, wenn das Label in dem Kontext von Homesystem, das Label ist dann der Raum. Gut, du hast halt fünf Räume, das ändert sich jetzt nicht großartig. Aber wenn du eine UUID zum Beispiel in ein Label reinspeicherst, ui, dann geht's ab. Dann wird's richtig lustig, weil dann hast du für jede UUID ein Index und das macht halt gar keinen Sinn und macht halt den Flux kaputt.
Thomas Wiebe (1:16:31)
Das hat man manchmal nicht im Blick. Als Entwickler, wenn du sowas baust, musst du das berücksichtigen, dass du gewisse Werte einfach nicht in Labels packen solltest, weil sie sich einfach jedes Mal ändern. Das schlimmste Fall wäre, du sowas wie den Zeitstempel in Label schreiben würdest. Macht keinen Sinn, weil wir haben ja den Zeitstempel sowieso schon im Datensatz drin. Aber wenn du das tun würdest, wäre ja wirklich jeder einzelne Eintrag anders als der vorherige. Und das würde die Kardinalität explodieren lassen.
Ein Influx hat da später darauf reagiert. Noch in der Version 1 haben sie dann TSE eingeführt und die konnte dann die Daten auch auf Platte speichern. Also der Index musste nicht mehr komplett im RAM liegen. Es musste aber immer noch relativ viel, zu gewissen Zeiten zumindest, RAM liegen, so dass der RAM-Verbrauch immer noch recht groß ist und man kann schon immer noch sagen, Influx DB Version 1 hat das Problem.
dass ihr nicht so gut mit Kardinalitäten klarkommt. Und Prometheus ehrlich gesagt auch. Kommt auch nicht gut mit Kardinalitäten klar. So, jetzt kommen wir so langsam an den Punkt, wo ich dann auch war und dachte, also alles kurz zusammengefasst, Influx DB, ich könnte wieder Version 1 nutzen. Sie gilt ja immer noch als stabil, aber sie ist halt eigentlich total veraltet. Nutzen aber...
Andrej Friesen (1:17:37)
Ja, die haben das gleiche Problem.
Thomas Wiebe (1:17:57)
Haufen von Leuten nutzt eben noch Version 1, sowohl im beruflichen Umfeld als auch im Home Assistant Umfeld, weil das ist halt immer noch das Addon.
Andrej Friesen (1:18:00)
Tön.
und business
technisch wird Grafana, Grafana wird InfluX, die Firma wird nicht mehr daran arbeiten.
Thomas Wiebe (1:18:09)
Ja, genau. Interessanterweise, es gibt noch ein paar neue Minoreleases. Ich war noch auf 1.8. Viele, viele Jahre lang habe ich festgestellt, es gibt zumindest schon 1.11. Aber das hat halt keine Zukunft. Das läuft vielleicht die nächsten Jahre noch. Aber wenn ich hier einen Scope von 10 Jahren habe, ich will da halt im Idealfall nicht oft dran. Kurze Versionsupdates, ja. Aber bitte nicht irgendwas deprecaten und ich muss dann Daten migrieren. Da hätte ich keinen Bock drauf. Das ist InfluX ist eigentlich zumindest für das Projekt raus. Privat hätte ich es weiter laufen lassen.
Andrej Friesen (1:18:10)
Punkt.
Thomas Wiebe (1:18:39)
Prometheus kam ja gar nicht in Frage wegen der Architektur. TimescaleDB, ja, die Datenbanken an sich kaum in Frage, aber Scribe als Integration birgt halt ein gewisses Risiko. Da muss ich zumindest die ersten Monate ein genaues Augenmerk drauf werfen, dass das alles passt. Und dann...
Bin ich noch über was komplett anderes gestolpert, das heißt Victoria Matrix. Und für mich persönlich gerade ein sehr interessanter Kandidat sowohl für Smart Home als auch für das Home Lab an sich. Also auch ehrlich gesagt auch im Unternehmensumfeld. Was ist jetzt Victoria Matrix? Auch irgendeine Firma, auch da wie immer.
Das gibt es als kommerzielles Produkt. Kannste kaufen, kannst du klustern und so weiter. Wobei Custard gibt, glaube ich, auch schon in der offenen Variante. Und es gibt eine Open Source Version davon. Die ist free forever. Was auch immer das heißt.
Andrej Friesen (1:19:48)
Sternchen.
ha, große Sternchen dran.
Thomas Wiebe (1:19:52)
Genau. Was macht es so interessant? Da muss ich jetzt auch wieder ein Sternchen dran setzen. Also es gibt diverse Messungen, Benchmarks, Speicherverbrauch, Plattenverbrauch und so weiter, die besagen, dass Victoria Matrix das Problem von Kardinalität deutlich besser im Griff hat. Also wir reden zum einen von dem Platzverbrauch, also es ist deutlich komprimierter.
als mit Prometheus oder Influx. Viel komprimierter als Timescale, also wie gesagt, ist nicht Timescales Stärke. Aber auch Stabilität von RAM-Verbrauch, Umgang mit hohen Kardinalitäten, das sind alles so Bereiche, Victoria Matrix scheint, wenn man so möchte. Das heißt, potenziell brauche ich hier
für Victoria Matrix brauche ich komplexen Storage. Ich muss jetzt nicht irgendwas mit S3 suchen oder so, was ich im Home Lab eher ungern mache, sondern ich kann einen singulären Container starten. Das ist natürlich so einfach wie mit den alten Influx Versionen. Da läuft halt ein Prozess, ein Container und da ist dann der Matrix Server drin und der performt.
Andrej Friesen (1:21:16)
kein Microservices.
Thomas Wiebe (1:21:18)
Ja, genau.
Andrej Friesen (1:21:18)
Danke. Einfach Danke.
Thomas Wiebe (1:21:21)
kannst es klastern, wenn du es brauchst. Es ist horizontal klasterbar, aber da reden... Also ehrlich gesagt...
Andrej Friesen (1:21:28)
Das heißt ja nicht, dass Microsoft es ist.
Thomas Wiebe (1:21:29)
Ne, ne, ne, absolut. Und wir hatten im beruflichen Umfeld ja wirklich das Problem, dass eine Influx DB Version 1 irgendwo in Performance-Probleme gekommen ist, dass man anfangen musste, entweder zu klustern oder eben zu partitionieren. Also gewisse Daten gehen halt in die Instanz, gewisse Daten in die andere Instanz. Das wurde also vom Volumen herlernt, allein schon problematisch bei der Influx. Aber wir reden hier vom Home Lab. Also meine Influx Version 1 performt im Home Lab immer noch.
Da hab ich null Probleme mit. Was macht Victoria Matrix für mich so interessant? Ich muss es jetzt mal abkürzen. Ich nenn's einfach mal Victoria Welt. Lang oder VM. Richtig. Richtig, Komm mal nächstes Mal dann zu. Genau. Genau. Matrix bietet dir... Die machen genau das, was Timescale nicht wollte.
Andrej Friesen (1:22:12)
Ne, es gibt natürlich auch Victoria Locks und Victoria Traces. Guck ich gerade.
Thomas Wiebe (1:22:28)
wo die keinen Bock drauf hatten. Die bieten dir erstmal nämlich an, es gibt etablierte Standards und wir integrieren uns einfach mal. Das heißt, du hast verschiedene Möglichkeiten Daten einzuwerfen, sag ich mal. Also die haben verschiedene Insert-Endpunkte und die sind teilweise, die unterstützen zum Beispiel in FluxDB Version 1 Metriken, die unterstützen aber auch
glaube es war Graphite. Graphite war bei mir komplett raus von Anfang an muss ich sagen. Das ist von Grafana zwar und es ist bestimmt kein schlechtes Produkt, aber es ist halt in Python geschrieben und ich will den Overhead an der Stelle eigentlich nicht haben ehrlich gesagt. Also allein schon auf dem Speicherverbrauch.
Und es gab auch noch eine andere Datenbank, wie ist die? Open? Ja danke. Das war das Thema Smokebang. Das skaliert auch gut, aber das basiert halt darauf, viele Daten wegzuwerfen wegen Aggregieren.
Andrej Friesen (1:23:25)
das Urgestein.
Thomas Wiebe (1:23:35)
Genau, dann gab es noch Open TSDB und das Ding war in Java geschrieben. war... Ich weiß, das ist jetzt ein bisschen... Aber man hat ja so seine Favoriten und das sind alles keine Sprachen, für Ressourcen schonen, dafür bekannt sind, Ressourcen schonen zu sein. Und ich wollte eine schlanke Variante haben, im Idealfall. Also auch sowohl für privat als auch für das Projekt. Genau, also Victoria Matrix, ich kann da Influx reinfeuern. Das heißt, meine Home Assistant-Integration funktioniert immer noch.
Andrej Friesen (1:23:41)
Dann wirst du auch ein Problem bekommen.
Thomas Wiebe (1:24:06)
also die die von Home Assistant offiziell auch noch gepflegt wird. Ich kann das also mehr oder weniger Plug and Play reinsetzen. Und Prometheus wird auch unterstützt. Das heißt es basiert zwar nicht auf Prometheus, also technisch ist das nicht, ist das kein, Prometheus ist kein Unterbau, aber es unterstützt das Scraping von Prometheus oder Open Metrics Endpoints. Das heißt ich habe quasi zwei Lösungen in einem mehr oder weniger.
Andrej Friesen (1:24:10)
Mhm.
Thomas Wiebe (1:24:36)
Also ich kann mein InfluxDB deprecate und ich kann mein Prometheus deprecate. Und da Prometheus eben die Lösung ist, die bei vielen Projekten verwendet wird, auch Metriken bereitzustellen, habe ich damit deutlich mehr, was ich ich scrapen kann, also Informationen, die ich abgreifen kann. Das ist schon mal cool, finde ich.
Man muss bei influx sagen, es speichert die Daten etwas anders als influx das selber macht. influx hat halt irgendwie das Konzept von es gibt halt ein measurement und dann gibt es halt noch diese labels und dann halt den wert so und das ist flach in Victoria Matrix das heißt man hat dann plötzlich Metriken drin die heißen sowas wie state unterstrich state oder state unterstrich value
Das ist aber für mich persönlich ehrlich gesagt gar nicht schlimm. Ist halt einfach nur anders gespeichert. So wie kriege ich das jetzt alles dann halt auch benutzt? Also abgefragt? Da wird... Da musste ich leider alle meine Dashboards umbauen. Das war dann doch der der große Nachteil, man so möchte. Aber da...
Andrej Friesen (1:25:53)
Also Daten pushen ist im Endeffekt, kannst du alles so lassen, du möchtest. Aber Query ist dann andere eigene Language.
Thomas Wiebe (1:26:00)
Query ist eine Language, heißt MatrixQL und die ist sehr kompatibel zu Prometheus. würde 100 % würde ich nicht sagen, auch wenn ich das schon mal irgendwo gelesen habe, aber ich habe irgendwelche Beispiele im Netz gefunden, wenn ich nach irgendwas geschaut habe, wie würde ich das jetzt in Prometheus machen. Da gab es dann Hinweise, in Victoria kannst du es übrigens auch so und so machen. Somit wäre ich da jetzt mal vorsichtig mit der Aussage, funktioniert alles.
100 % kompatibel, aber ich check das jetzt gerade nochmal. Es gibt ja so ein ganz beliebtes Grafana Dashboard, das heißt irgendwie Node, also für Node Exporter grundsätzlich, weil Node Exporter ist ja die Komponente, die so Systemdaten bereitstellt, Speicher, CPU etc. Sehr viel. Und die funktioniert bei mir nach wie vor. quasi die Metriken sind jetzt halt in Victoria, nicht mehr in Prometheus. Und das Dashboard redet mit PromQL, der Prometheus Query Language.
gegen den Victoria. Also ist kompatibel genug für die meisten Anwendungsfälle denke ich, für wahrscheinlich dazu alle.
Das ist ganz cool. Also Prometheus Query Language ist ja nicht wirklich... die ist ja nicht... Sie kann effektiv halt auch alles abbilden, was du vorher mit der Influx-QL machen konntest. Es ist halt nur anders. Und dementsprechend bedeutete das halt leider viele Dashboards neu bauen. Aber wie das ja so ist, man kann dem ja auch immer mal was Positives abgewinnen. Und nutzt die Gelegenheit vielleicht auch mal Dashboards so bisschen aufzuräumen. Ja.
Andrej Friesen (1:27:38)
oder wegzuschmeißen.
Thomas Wiebe (1:27:41)
Ja, ich hab vieles.
Andrej Friesen (1:27:42)
Weil viele
sind auch Quark.
Thomas Wiebe (1:27:45)
habe ich auch bei der Gelegenheit an einigen Stellen gemacht. Genau, das ist cool. wenn es Prometheus geht, ist so bisschen die Empfehlung. Victoria ist ein sehr guter Langzeitstorage für Prometheus. Also du kannst es halt als Alternative zu Thunness oder Mimia verwenden. Ich persönlich nutze es aber komplett als Prometheus Ersatz, weil ich sehe keinen Nachteil da drin.
Es ist vielleicht, weil es halt nicht Prometheus als Unterbau hat, wenn in Prometheus jetzt irgendwelche, sagen wir mal, neuen Features reinkommen würden, könnte das natürlich eine Zeit lang dauern, bis das in Victoria auch drin ist. Ich habe aber die letzten Jahre in Prometheus jetzt nicht wirklich festgestellt, dass sich da so viel getan hat und somit habe ich da kein schlechtes Gefühl.
Andrej Friesen (1:28:32)
Nee, die sind ja auch sehr konservativ.
Die bauen ja intern eher ⁓ als über ihre Public APIs, sei es durch Funktionen
Thomas Wiebe (1:28:42)
Genau, so das Ding läuft jetzt seit mittlerweile glaube ich zwei Wochen rund bei mir, also ist alles noch sehr frisch. Wenn wir zum Thema Logs kommen, das wollten wir ja mal ansprechen, Logging, ähnliche Komplexität wie jetzt mit den Metriken hier gerade. gucken, bin mal gespannt, ob das nicht für einen Großteil unserer Zuhörerschaft nicht schon zu tief war.
Vielleicht können wir gleich nochmal ein Recap machen oder sowas, was das halt für Smartphone bedeutet und dann wir ein eigenes Kapitel dafür, ich weiß es nicht. Aber, ähm, genau. Das damit... Es ist ein cooler Stack. Es unterstützt vor allem auch Alerting. Das ist halt etwas, was man... Also InfluxDB hat kein Alerting, glaube ich. Also Version 1, wüsste ich nicht. Man konnte halt mit Grafane auf jeden Fall alerten. Das geht. War aber nicht so super toll.
Andrej Friesen (1:29:25)
Wie machen die das?
Thomas Wiebe (1:29:37)
Damals, vor Jahren, muss ich sagen, Prometheus hat ja diese Rule-Engine eingebaut und schickt dann, wenn was matcht, das als Alert an Alert Manager, was wiederum auch vom Prometheus-Team kommt. Also es ist eine separate Komponente, die kommt aber vom selben Team und dementsprechend ist die Integration halt quasi nativ. Und ja.
Andrej Friesen (1:29:58)
Dann schickst du
von dort aus überall hin. E-Mails, Slack, whatever.
Thomas Wiebe (1:30:02)
Ja, genau. Das eignet sich also so für Aggregieren zum Beispiel oder Anreichern von Informationen und all das Thema.
Andrej Friesen (1:30:09)
Ich glaube, das
viel zu viel für so kleinen.
Das ist eher für so, hey, folgender Alert hat folgende... Alle Disk Alerts gehen an Storage Team, alle Netzwerk Alerts gehen ans Netzwerk Team. Da kann man halt auch so Routing machen, das brauchst ja gar nicht zu Hause, das ist ja Quatsch. Und was mich auch am meisten nervt, das bei diesem Ding ist, du musst hier halt alle definieren, es gibt nicht so ein predefined ruleset, wo du sagst, jo, das ist geil. Das wird... Du musst halt in jeden Fehler einmal reinlaufen in die Theorie, zu wissen, ⁓ Mist, dafür sollte ich mir Alert schreiben.
Und das finde ich ist nicht Sinn der Sache im Smart Home oder im Home Lab, weil das einfach viel zu viel Zeit ist und da finde ich ist das gar keine gute Lösung. So generell.
Thomas Wiebe (1:30:52)
Deswegen bist du ja
auch so ein großer Fan von Netdata.
Andrej Friesen (1:30:55)
Ja, mir wäre es egal, welches Tool es wäre, aber wenn es so ein vordefiniertes Set gäbe, dann wäre das smart. Man muss sich nicht in den Gedanken, wie viele verdammt viele Sys-Admin und SREs und was weiß ich, wie sie alle heißen heutzutage, gibt es, die das schon gemacht haben. Und warum muss sich jetzt jeder, der damit anfängt, damit man so, ja ich muss auch einen Disk-Alert schreiben. Das ist das Erste, was alle immer machen.
Und ich finde, das sollte abgehakt sein.
Thomas Wiebe (1:31:26)
Das ist ja der Punkt, wir beim letzten Mal schon hatten. Oder davor, was auch immer. Es gibt für Prometheus zumindest schon mal so eine Rulesammlung im Netz.
Andrej Friesen (1:31:35)
Ja,
da musst du erst mal wissen, musst du die reinkopieren, das muss von vorne mit reinkommen.
Thomas Wiebe (1:31:41)
Ja ja.
Das ist alles natürlich nicht... Also wir reden hier ja eigentlich von Lösungen, die für irgendwelche Ops-Leute, Dev Ops, Server-Leute sind. Wir reden hier nicht von Homelab-Lösungen. Da muss man auch ganz klar sagen, Victoria Matrix, aber das war auch Influx DB nicht und auch kein Prometheus, ist eigentlich nicht darauf ausgelegt. Da kommen wir dann zumindest, wenn wir jetzt in Richtung Monitoring gucken würden, gucken wir halt eher in Richtung Uptime-Kuma. Aber das ist ja auch... Das bringt dir ja auch...
Andrej Friesen (1:31:50)
Voll Enterprise.
Nene.
Thomas Wiebe (1:32:11)
nicht irgendwelche Alerts schon mit, da ist keine Autodiscovery drin oder so. Vielleicht ist das noch eine Lücke. Also Netdata kann das machen, aber Netdata gefällt mir persönlich vom Aufbau nicht. Ist halt auch kommerziell und irgendwie ein bisschen an die Cloud gedengelt und zieht auch einiges an Ressourcen und ich finde das Interface nicht schön. Ja nutze ich auch. Aber da war noch was. Aber da gab es doch was mit Anzahl an Hosts limitiert, oder?
Andrej Friesen (1:32:30)
kannst das auch komplett ohne Cloud nutzen. Ja, siehste, was ist das für ein Argument?
Das weiß ich nicht.
Thomas Wiebe (1:32:41)
3 Hosts oder sowas habe ich in Erinnerung, ich weiß es nicht mehr. Okay, ich mag es nicht, vielleicht deswegen. Nicht weil es schlecht ist. Ich nutze es nur nicht gerne. Ich nutze es aber ja, weil ich habe ja damals schon ausgesagt, es rettet einmal hin und hinter mal den Hintern. Also es läuft, aber es ist nicht meine bevorzugte Monitoring-Lösung. Erst recht nicht, wenn ich irgendwie Insights will, so gucken will, was war, auf welchem Host wann, dann nutze ich dieses Interface persönlich einfach nie.
Andrej Friesen (1:32:44)
Nee, ich hab da mehr drin.
Ich glaube, da wird es auch nichts geben. warum gibt es diese ganzen Dashboard und Metrics, Speichergeschichten? Das halt ein Businessmodell. Und der Privatkunde, wie du schon sagtest, wird das nicht zahlen. Punkt aus. Und deswegen braucht da auch keiner Software für entwickeln. Das würde funktionieren im Sinne von, wenn da so eine Open-Home Foundation steht und sagt, wir fixen das erstmal für Home Assistant US. Wenn die sagen, machen wir jetzt mal so ein Alert Set oder was auch immer.
Ich nehme mal an, dass da zum Beispiel auch speichervoll bei denen automatisch reinkommt. Bin ich noch nie reingelaufen, weil die EMC ist groß genug. Aber ich nehme mal an, dass die das dann auch reporten. Bin mir aber nicht sicher, ganz ehrlich.
Thomas Wiebe (1:33:52)
Hm.
Andrej Friesen (1:33:54)
Also da wird nichts kommen, glaube ich nicht.
Außer die Community macht es halt, wenn die Bock drauf haben. Aber jetzt so ein großes Projekt, vergleichbar mit Grafana oder mit Influx und Co. Auf keinen Fall.
Thomas Wiebe (1:34:08)
Da bleibt auf jeden Fall noch eine Lücke. Oder ihr nutzt halt, ja. Also Netdata macht schon vieles, glaube ich, leider richtig. Bleibt halt einfach nur dabei, ich nutze es nicht gerne. Man erkennt ja auch selbst, dass Docker-Container irgendwie unhealthy sind oder sowas. äh, alertet das. Es alertet dann teilweise zu viel, als zu wenig. Ähm, da geht...
Andrej Friesen (1:34:29)
Ja, der Nachteil
ist, du kannst den nicht ausschalten, weil das halt die Free Version ist.
Ich kriege auch mal ins Deutsch Alert, Prozent, und das ist halt doof bei Terabytes. Und du kannst ja nicht ausmachen, weil dafür musst du bezahlen. Und siehst du, dafür bin ich halt auch nicht bereit aktuell, weil es mich nicht so nervt.
Thomas Wiebe (1:34:45)
Das ist auch
closed oder? Oder ist das Ding open? Source.
Andrej Friesen (1:34:50)
Nett, der ist Open Source. Das ist genauso wie Victoria Matrix. Es ist ein Open Source Projekt. Die haben Cloud Offering. Das war's.
der Client und alles ist Open Source. Die Daten landen gar nicht bei denen. Die sind ja nur auf dem Host. Die sind ja lokal gespeichert. Und du guckst die nur durch das ... Interface aggregiert an. kannst halt mehr ... ... anstatt auf jeden Host zu klicken, ... kannst du halt in der Cloud-Version ... ... oder nicht in der Cloud-Version, sondern in dem ... Cloud-Interface ... ... kannst du dann einfach dir alle Hosts anklicken ... anstatt dann immer auf jeder IP zu gehen. Was du auch machen könntest. Was du ja machst.
Thomas Wiebe (1:35:32)
Ja, vielleicht sollte ich es mir noch mal nie anschauen. Ich weiß nicht mehr, was da alles an Faktoren waren, die mich irgendwie so bisschen abgeturnt haben. Aber da war leider ein bisschen was.
Ich habe es auch nur auf einem System laufen, tatsächlich, da läuft halt viel drauf und das ist kritisch. Na gut, also Alerting geht auch. Man muss aber dazu sagen, und auch das ist kompatibel, kannst, also Victoria Matrix wieder, das ist kompatibel, du kannst den Alert Manager benutzen, dieselbe Komponente wie bei Prometheus, die Alerts dann zu routen. Du musst also nur quasi diese Rule Engine reimplementieren oder das müssen die machen und
Andrej Friesen (1:36:12)
⁓ ja.
Thomas Wiebe (1:36:13)
Die haben das zumindest, und das finde ich aber vollkommen legitim, das haben sie nicht in den selben Container integriert oder in selben Prozess. Das heißt, du startest einen zweiten Container, heißt VM Alert und dem kannst du dieselbe Prometheus-Yaml reinhauen, die du auch schon bei Prometheus verwendet hast, diese Rules-Yaml, unterstützt das Ganze als Punkt D. Das heißt, du bekommst ein Verzeichnis, da legst du einfach alles rein und sagst dem Ding halt, guck in das Verzeichnis, da ist die Konfiguration drin und wo ist dein Alert-Manager und dann funktioniert das.
Andrej Friesen (1:36:24)
Mhm.
Thomas Wiebe (1:36:43)
genauso wie bei Prometheus. Also wenn du von Prometheus kommst, ist die Migration sehr einfach. Wenn du von Influx kommst, hast du natürlich das Problem mit alle Queries musst du neu bauen und so. Das ist dann schon so. Genau. Ding ist... Also bis jetzt bin ich total begeistert, weil es halt auch super flott ist. Also Queries sind halt auch sehr schnell. Wie gesagt, die Argumentation, aber die ist dann teilweise schon einige Jahre alt und ein...
Andrej Friesen (1:36:44)
Okay.
Thomas Wiebe (1:37:12)
teilweise auch von den Autoren selber, dass sie halt so viel sparsamer sind als alle Konkurrenten. Ich habe mal so grob hochgerechnet, wie viel Daten habe ich wie lange schon in Prometheus drin, wie viel habe ich dann in dieser kurzen Zeit in mein Victoria reingepackt und bin so grob drauf gekommen. Ja, es scheint wirklich weniger Speicher zu verbrauchen, Plattenplatz.
Andrej Friesen (1:37:16)
Haha.
Thomas Wiebe (1:37:42)
Aber was da jetzt der genaue Faktor ist, dafür sind die Daten leider nicht vergleichbar genug. Ich müsste dafür eigentlich wirklich mal einen Export ziehen, Daten wieder importieren, direkten Vergleich machen. Das habe ich nicht getan, war nicht mein Fokus. Ehrlich gesagt, selbst wenn es so viel Platz braucht wie ein Prometheus, käme ich damit immer noch gut klar. Ich hatte da gemessen auf ein halbes Jahr Retention aktuell 7 GB. Ja und...
Andrej Friesen (1:38:09)
Och, das geht.
Thomas Wiebe (1:38:12)
Ich mein selbst wenn du großzügig bist.
Andrej Friesen (1:38:12)
Das heißt 14, machen wir
15 im Jahr, mal 10 sind 150 Gig.
Thomas Wiebe (1:38:19)
Und das ist mein Use Case zu Hause, da ist halt viel mehr drin als für das Projekt. Für das Projekt wird es viel, viel, viel weniger. Das heißt, wir reden beim Projekt wahrscheinlich über 10 Jahre von nichtmals 5 GB Daten, vielleicht maximal 10. Das ist alles kein Problem, ist kein Scale, wo du irgendwelche Probleme hast. Und im privaten Umfeld kannst du dir ja überlegen, wie lange du Daten vorhalten möchtest. Ein wichtiges... Ne? Das stimmt.
Andrej Friesen (1:38:41)
Zehn Jahre ist glaube ich ein bisschen übertrieben. So Jahr oder
zwei kann man machen, aber zehn ist schon...
Thomas Wiebe (1:38:48)
Ich finde auch ein Jahr mindestens so, weil mich interessieren, gerade wenn es Temperaturverläufe geht. Wie viel, ich mache da so Informationen rein, wie die Heizkörper, auf welche Temperatur die heizen, wie stark das Ventil aufgeht, wie die wirkliche Isstemperatur in den Räumen ist. Das gucke ich auch gerne mal so ein Jahr zurück, zu gucken, wie war es im vorherigen Winter zum Beispiel. Also ein, zwei, drei Jahre reicht mir dann aber auch vollkommen. Länge haben die keinen Wert.
Andrej Friesen (1:39:12)
kann auch ganz interessant sein,
wenn du die Außentemperatur mitloggst und die Internemperatur einen Vergleich zu ziehen. Dämmung zum Beispiel. Das geht natürlich. Das ist natürlich ein langwieriges Projekt, weil man muss immer sehr lange warten. Und man darf die Temperatur-Sensor in der Zeit auch nicht umbenennen. Das ist auch ein bisschen ätzend. Da muss man ein bisschen aufpassen.
Thomas Wiebe (1:39:35)
Das ist auch gerade ein guter Reminder. Ich habe einen Sensor, heißt irgendwie Außentemperatur. Ich weiß aber gerade gar nicht mehr, wie der befüllt wird. Ob der von der Integration... das ist Templatesensor. Den habe ich nämlich damals schon so gebaut, dass ich den einfach das Backend umstellen kann, damit...
Andrej Friesen (1:39:51)
⁓
das ist so smart! Warum ich nicht das gemacht habe, Andrej? ⁓ ich muss die ständig umbenennen. Und dann mache ich das im MusicBeatle im QTT. Und dann sage ich, update auch Home Assistant-Entitäten, dann ist natürlich weg die Daten. Template-Sensor macht Sinn, meine Herren.
Thomas Wiebe (1:39:56)
Bäh.
Ja.
Ich habe nämlich gerade meinen Wetterdatenlieferanten nach deinem Tipp mit dem DVD kürzlich gewechselt und habe irgendwie Meteodaten vorher gehabt und die sind aber auch so semi-akkurat gewesen. Jetzt teste ich mal DVD und dann kann ich halt einfach den Wettersensor umswitchen im Template.
Andrej Friesen (1:40:26)
mal mal ein Marker
setzen, weil ich was verrücktes gehört letztens. Und zwar, ich weiß nicht, ob es noch in Deutschland so ist, aber in den USA scheint es zu sein, dass die haben halt auch so ein National Weather Institute oder sowas. Also die Daten kommen halt von der Messstation. Und wenn du den Wetterbericht von denen hörst, nehmen wir mal an, dass es 10 Prozent Regenwahrscheinlichkeit hat, dann sagen die 10 Prozent Regenwahrscheinlichkeit. Aber wenn du den lokalen News Sender hast,
Thomas Wiebe (1:40:30)
Mhm.
Andrej Friesen (1:40:54)
lokalen Fernsehsender, was auch immer, dann sagen sie 30%.
Weil bei denen das wohl so war. Zumindest, ich weiß nicht ob es sich verifiziert. Wenn es geregnet hat, einer 10 % Wahrscheinlichkeit, waren die Leute auf den Fernsehsender sauer. Und mochten den Wettermann nicht. Deswegen haben die dann 30 % gesagt. Wenn die dann zum Strand gehen wollen, bei 10%, da kann ja gar nicht regnen. Und bei 30 % war ja ein Drittel Wahrscheinlichkeit, deswegen ist ja nicht schlimm. Das heißt,
Thomas Wiebe (1:41:29)
funktioniert
das nicht. Mit der Wahrscheinlichkeit.
Andrej Friesen (1:41:31)
Das ist crazy, ne?
Und das wird mich auch nicht wundern, wenn hier das auch andere Apps machen, denen die einfach ein bisschen sicher gehen und einen kleinen Puffer drauf packen. Damit diese perceived... Weil Statistik ist ja für die meisten Leute super, super schwer zu verstehen. Weil die meisten Leute wissen ja auch gar nicht, was diese 10 % heißen. Weißt du, was das aussagt? 10 % Regenwahrscheinlichkeit?
Thomas Wiebe (1:41:55)
Ich hoffe ich krieg's wieder auf die Kette, ich hab's kürzlich noch mal irgendwo gehört.
Auf eine gewisse Fläche. Ich weiß nicht mehr, was die Fläche ist. Nee? Okay, erzähl' mal.
Andrej Friesen (1:42:07)
ne
Das heißt, in den letzten Jahren gab es bei diesen Bedingungen, die wir jetzt haben, aktuell vorhergesagt, eine Wahrscheinlichkeit von 10 Prozent, dass es regnet.
Das heißt nicht, es zu 10 % ... die letzten ... ... das sind die Daten, wir vom letzten Mal haben. Und die haben wir jetzt genommen. Haben die Numbers gecrunched.
10 % wird es heute rechnen anhand der vergangenen Vergleich. Nö, das weiß man nicht. Es würde irgendwo in diesem Quadranten, der berechnet wurde, halt rechnen. Wo? Weiß man nicht.
Thomas Wiebe (1:42:43)
Aber eben auch nicht auf der gesamten Fläche. Also das ist halt... ja.
Okay, ja.
Genau. Ein Thema ist vielleicht noch interessant. Das Thema Downsampling. Man will vielleicht momentan feingranulare Daten haben, alle 15 Sekunden oder was auch immer oder jeder Sensor-Change. Aber irgendwann interessieren einen vielleicht nur noch so grobe Trends oder Minutenwerte, 5-Minuten-Werte, Viertelstunden-Werte oder sowas. Grundsätzlich, also Stichwort Downsampling.
InfluXeins konnte das irgendwie auch nicht automatisch. Das fühlte sich so bisschen an wie in der Datenbank, wo du im Select-Statement etwas angibst, wie eine Datenbank aussieht, aber das war im Grunde die Retention Policy. Das heißt, du konntest dann effektiv sagen, wenn du downsamplen möchtest, musst du das zum einen handisch machen und zum anderen ist dann quasi deine Datenquelle etwas anders. Das heißt, dein Query muss angepasst werden, dass es die richtigen Daten abfragt.
macht es halt ein bisschen schwierig. Also wie würde ich mir persönlich das wünschen? Ich mache halt einen Query und alle Daten, die älter als X Wochen sind, sind plötzlich nicht mehr so fein aufgelöst. So, ich würde das aber gerne natürlich transparent haben. Äh, nee nicht transparent, falsche Wort. Weiß ich nicht, seamless. Also ich will halt nicht explizit steuern, dass die Daten, die älter sind als X, hole ich von da und die aktuellen Daten hole ich von hier. sollte mit Java einfach funktionieren und irgendwann ist es ungenauer.
So Influx 1 konnte es halt nicht. Influx 3 kann wohl in der kommerziellen Version Downsampling. Timescale konnte auch etwas, aber frag mich nicht mehr nach den Details. Und Victoria kann es auch nicht, zumindest nicht in der freien Version. Also ist leider kein Feature, was jetzt mit daherkommt. Für diejenigen zieh ich das.
Andrej Friesen (1:44:52)
Moment mal, auf der Seite stand aber,
dass Victoria Matrix Community Edition die gleichen Features hat wie die normale. Dann heißt es, entweder kannst du das gar nicht oder du hast dich vertan.
includes all Victoria Metric Features, die Free Community Version.
Thomas Wiebe (1:45:11)
Dann kann es wahrscheinlich einfach gar nicht, aber...
Andrej Friesen (1:45:17)
...probably.
Thomas Wiebe (1:45:20)
Ja.
Naja, ist für mich persönlich jetzt auch nicht das wichtigste, weil wie gesagt zwei, drei Jahre vorhalten ist interessant. Alles darüber hinaus. Man kann natürlich sich eine zweite Victoria Matrix Instance aufsetzen, die für Langzeit Storage ist, die dann natürlich da muss das Befüttern halt selber bauen. Also wie die Daten da reinkommen und dass sie in einem aggregierten Zustand da reinkommen.
Wo ist denn die Tür? Alles klar.
Andrej Friesen (1:45:52)
Yes, ein Augenblick.
So, wieder da. Wir nur der gute alte Postbote.
Thomas Wiebe (1:46:00)
Okay,
ich habe da nochmal die Zeit genutzt und recherchiert. Es ist schon tatsächlich so, dass es ein Enterprise Teacher ist.
Andrej Friesen (1:46:12)
Ich hab's
auch gerade gesehen. Boah, jetzt klingelt der schon wieder. Ich kaputt.
Thomas Wiebe (1:46:15)
Hahaha!
Andrej Friesen (1:46:19)
So.
Thomas Wiebe (1:46:20)
Okay.
Andrej Friesen (1:46:22)
Postzentrale
hat aufgemacht.
Thomas Wiebe (1:46:26)
Gleich kommen die Leute Pakete abholen.
Ja, also ist ein Enterprise-Feature. Ist auch nicht das einzige Enterprise-Feature. Ich weiß nicht, was das mit der Information ist, dass das eine Featureparität hat. Aber dem scheint nicht so zu sein.
Andrej Friesen (1:46:41)
Vielleicht meinen die die Community
Edition versus der LTS.
Thomas Wiebe (1:46:45)
Das kann natürlich sein, dass es einfach... Was gibt es denn für Versionen? Es gibt den Free Community. ja, dann Silver, Gold und Platinum. Tears. Aber es schon interessant. Weil Silver hat auch wirklich Business Days and Hour Support und 8-Hour Response Time. Das ist es aber. Also mit Silver hast du wirklich nichts gewonnen. Gold, 24-7 Support, 8-Hour Response Time.
Architekturale Geil, Best Practices, hast du auch noch nichts gewonnen. Also es gibt dann wirklich nur noch die Platinum-Version und da hast du dann plötzlich sowas wie Monitoring of Monitoring, Want the Audit and Analytics. Also ich nehme mal an. So sieht es zumindest auf den ersten Blick aus. Also es gibt Unterschiede auf jeden Fall. Gut, ich weiß nicht wie relevant das, muss jeder für sich selber entscheiden.
In meinem konkreten Fall hatte ich glaube ich letztes Mal erwähnt, dass ich angefangen habe die Pegelstände bei mir in Home Assistant zu erfassen und das würde mich tatsächlich auch längerfristig interessieren, weil bei dem Pegelstandlieferant, also Pegelfluß, Pegel, ist es so, dass ich halt nur ein Jahr zurück gucken kann und das fände ich schon spannend, das auch längerfristig zu archivieren, aber man muss aber dazu sagen, so eine Victoria Matrix Instance, die ist relativ einfach aufgesetzt, sie braucht sehr wenig Ressourcen im einfachsten Fall, also...
kann ja mal gucken, jetzt gerade so... Wie viel Daten ich drin hab. Also gerade braucht das Ding 265 MB RAM. Das Victoria Locks, da kommen wir beim nächsten Mal ja zu 190 MB. Und den ganzen Kleinkramen wie den WM Alert, der 12 MB und Alert Manager von Prometheus 16 usw. Das ist also easy. Und was hab ich an Daten drin?
Andrej Friesen (1:48:30)
Nö.
Thomas Wiebe (1:48:40)
Victoria Matrix, gerade 256 Megabyte.
Andrej Friesen (1:48:44)
Nicht so viel.
Thomas Wiebe (1:48:46)
Und bei den Logs gerade 80 MB. Und da können wir mal zum Vergleich nehmen. Prometheus 7,3 GB Daten. Läuft nicht mehr. Habe ich gestoppt. Shit. Wäre schön gewesen. Aber ich habe das so in Erinnerung wie 8900 MB RAM. Wegen halt Retention von einem halben Jahr und weil er damit eben nicht so gut klarkommt.
Andrej Friesen (1:48:59)
Null! Null! Hätte ja wer Promises bleiben müssen.
Thomas Wiebe (1:49:12)
Eine der Vorteile oder Stärken von Victoria soll wohl auch sein, wenn du regelmäßig Labels rotierst, weil du zum Beispiel so einen Churn hast. Gewisse Dinge werden einfach ausgetauscht, Container kommen nie wieder. Dieses Label hört irgendwann auf da zu sein in dieser Form. Dann kann Victoria Matrix das gut wegoptimieren und fängt dann irgendwo einfach einen neuen Index an, statt den Wert Ewigkeit als eine Art Geisterwert immer noch im Index mitzuführen.
Ich die Zeit zeigen, wie gut sich das schlägt. Ich habe jetzt halt nur keinen Vergleichswert mehr, weil ich den ganzen alten Kram abgeschaltet habe. Aus Begeisterung heraus, wenn man so möchte.
Andrej Friesen (1:49:53)
Die rosarote Brille ist noch drauf.
Thomas Wiebe (1:49:56)
Genau, ich bin in letzter Zeit sehr abschussfreudig, wenn irgendwas einen guten Eindruck macht. Zack, das alte, alten Zopf abschneiden. Es genug, genug Altlasten da. Ja, was gibt es sonst noch zu dem Thema vielleicht zu sagen? Gibt es auch noch was? Also Retention kann man halt konfigurieren, aber wie gesagt nur global auch, also global für alle Metriken. Man gibt das einfach als Kommandozeilenfleck an, wie lange man Daten vorhalten möchte. Und das ist auch
Andrej Friesen (1:50:03)
Welch?
Thomas Wiebe (1:50:26)
Stichwort auch da wieder bei der enterprise kann man doch mehrere retention periods definieren hier würdest du wahrscheinlich einfach hingehen wenn du wirklich daten hast dann wird sie mehrere instanzen laufen lassen und Ja die dann explizit wahrscheinlich abfragen
Genau, mal schauen. Ich bin bis jetzt begeistert, weil es hat vor allem ...
Es hat sich halt als universelles System gezeigt oder es eignet sich als universelles System. Ich kann es halt sowohl für Dinge nutzen, die ich normalerweise nur in Flux nutzen könnte. Und ja, das läuft zwar noch, aber es ist halt eben veraltet und wird es auch nicht mehr ewig geben. Und auf der anderen Seite kriege ich aber, weil eben so eine große Vielzahl an technischen Komponenten heutzutage dieses Open-Matrix-Format unterstützt, kannst du da potentiell alles rein reinschmeißen. Unter anderem auch, wenn wir dann noch darauf eingehen wollen.
auch nicht können wir uns auch für nächstes mal freuten unify metriken also
Ich hatte letztes Mal, glaube ich, die Stabilität betrifft gesagt, ich hatte eine Woche lang keinen Crash mehr. Noch am selben Tag ist das Ding wieder hart gecrashed. Also irgendwas ist mit meiner Instanz kommt halt vor allem dann, wenn ich durchs Interface klicke, dann schmiert diese diese Network Komponente ab, dann muss ich die wieder neu starten, dann läuft es auch schon wieder, aber das ist schon nervig, muss ich sagen.
Andrej Friesen (1:51:56)
Hätte man
das normale und nicht das Fiber geholt.
Thomas Wiebe (1:52:00)
Genau, hätte ich bloß das Gerät mit weniger Power genommen. Wer weiß.
Andrej Friesen (1:52:05)
Ja
gut, aber da scheint ja Buggy zu sein, meins läuft. Das eins, für mich nicht läuft, ist der Switch.
Thomas Wiebe (1:52:08)
Das
macht aber alles den Eindruck von Softwareproblem. Ich hab nur noch nichts gesehen. Ich hab aber dann mit dem Debugging anfangen wollen und so bin ich wiederum wieder in das Thema Logging eingestiegen. Und das können wir ja für nächstes Mal halten. Du hattest ja schon erwähnt, es gibt Syslog. Aber mein Syslog Setup funktionierte zwar, aber hatte halt irgendwie nur R-Syslog und das hat alles in ein Verzeichnis reingepumpt. Und dann wird es halt, wenn du mal Tage zurückgucken willst, wird es schwierig, weil die Logs wurden nicht gut.
Andrej Friesen (1:52:13)
Ja.
Thomas Wiebe (1:52:38)
Aber doch Lock Rotate hat sie komprimiert, dann musste auf einmal wieder in gezippte Dateien reinschauen und dann dachte ich mir, boah jetzt wird es Zeit und eben über Victoria Matrix bin ich halt auch für Locks gestoßen und ja.
Andrej Friesen (1:52:41)
Ja.
Thomas Wiebe (1:52:52)
Mal gucken. Genau.
Andrej Friesen (1:52:52)
Können wir nächstes Mal machen.
Thomas Wiebe (1:52:56)
Ja, Unify-Metriken vielleicht noch. Ich hoffe ganz kurz. Ich mach mal noch einen Marker. Es gibt halt so eine Komponente, heißt Unpolar. Da kann man dann sein Gateway reinschmeißen als Target sozusagen. Also von da bitte ziehen. Das Gateway hat ja Zugriff auf alle Metriken von allen Unify-Geräten. Das heißt, es kann dir dann quasi alle Metriken bereitstellen. Das kommt auch mit eigenen Dashboards.
Andrej Friesen (1:53:23)
die API stabil ist.
Thomas Wiebe (1:53:25)
Ja, genau, weil das betrifft halt auch die API. Das letzte Mal, das Interface bei mir gecrashed ist, Interface in Anführungsstrichen, weil es halt eben diese Network-App-Geschichte ist, habe ich das mitgekriegt durch ein Prometheus-Alert. Also, Victoria-Metrics-Alert, weil der eben gesagt hat, dass das Target weg ist. Genau, Anpoller unterstützt nämlich, also kann quasi alle Informationen holen und von deinem Gateway und unterstützt dann im Hintergrund
Entweder InfluxDB oder Prometheus. Kannst dir selber aussuchen, wie du das pushen möchtest. Ich hab da jetzt bis jetzt einfach mal Prometheus gewählt. Und nutzt das. Hast du schon? Also du hast Unpoly auch im Einsatz, oder?
Andrej Friesen (1:54:11)
Ja, ich hab's installiert. dann kann man ja... Da gibt's ja so 3, 4, 5 Dashboards, die man sich ziehen kann. Gibt ja bei Grafana die... So eine... So eine ID. Die kannst du dann einfach Dashboard import und dann klickst du dir die ID da rein oder kopierst die da rein und dann hast du das Dashboard da, wie es ist. Und das lass ich jetzt erstmal laufen. Aber ich hab da noch nicht großartig reingeguckt. Weil bisher reichten mir auch die Dinge in...
im Dashboard und das einzige Problem was ich lösen möchte ist wahrscheinlich ein Kabelproblem und ich warte einfach immer noch auf diesen blöden Netz. Nein, natürlich nicht. Es geht mir auch so auf den Keks gerade. Und natürlich auch ohne Sendungsnummer verschickt. Ich glaube ich darf da demnächst anrufen und sagen, hier Leute, das kam nicht an. ist jetzt auch schon zwei Wochen her.
Thomas Wiebe (1:54:45)
Also den Tester?
Aber 100 MBit stabil.
Andrej Friesen (1:55:05)
Ja, ja, seitdem ich 100 MBit eingestellt habe auf dem Büro-Switch, habe ich auch gar keine Latenzprobleme mehr.
verstehe ich halt auch nicht. Gut, das kann jetzt auch korrigieren mit Weihnachten. würde mal, vielleicht kann ich jetzt gleich nach dem Parkas mal auf 1 GB wieder umstellen, mal gucken, ob ich dann wieder Latenzprobleme bekomme. Weil jetzt ist ja die Urlaubszeit im Endeffekt vorbei. Vielleicht nach das Wochenende, aber...
Thomas Wiebe (1:55:25)
Das wäre interessant.
Du
hast auch dann einen direkten Vergleich, ne? Wenn das dann sofort wieder anfängt.
Andrej Friesen (1:55:32)
Ja und
seitdem ich das gemacht habe, halt nicht ein Problem aufgetreten. Das finde ich bisschen weird.
Thomas Wiebe (1:55:41)
Mmh.
Andrej Friesen (1:55:42)
Das
ist gar nichts. Zirrro. Das einzige was ich immer hatte ist ein Internet-Disconnect von drei Sekunden. Nachts. Wahrscheinlich der obligatorische Disconnect vom Provider.
Thomas Wiebe (1:55:53)
Okay.
WoE-Verbenummer drin.
Andrej Friesen (1:56:03)
Da fand ich krass, dass er in 3 Sekunden eine PPO-Verbindung erkannt hat. Also es ist definitiv nicht das Dreatech, welches Probleme gemacht hat, ich ursprünglich gedacht hatte. Ich bin jetzt ja komplett weg von der Fritz. Das ist stabil, solange der Switch auf dem 100 Mbit läuft. Der Link.
Thomas Wiebe (1:56:11)
Der Unify.
bin ich gespannt, was du's nächstes Mal berichtest.
Andrej Friesen (1:56:28)
Ich wechsle gleich mal, gucken. Wenn es dann wieder flaky wird, dann wissen wir ja, irgendwo ist was weird.
Thomas Wiebe (1:56:35)
Ja, mir fällt gerade ein, wenn ich zurück nochmal an Anpoller denke, ich hab sogar drei Systeme abgelöst ehrlich gesagt. Ich hatte nämlich noch für genau einen Use Case zu Hause Zappix laufen.
Andrej Friesen (1:56:49)
⁓ Gott, das alte Ding.
Thomas Wiebe (1:56:51)
Ja, nämlich die Metriken per SNMP einzusammeln von den ganzen Netzwerkgeräten, Metcotic, Router und APs. Und die dann dem Grafana auch wiederum beizustellen. sind wir wieder, nämlich Grafana unterstützt halt verschiedene Data Sources und Subbix ist da auch dabei. Und damit hatte ich mein eigenes Network Dashboard gebaut. so mit den Informationen, die mich halt eben ganz gezielt interessieren, weil die anderen
Andrej Friesen (1:56:54)
⁓ okay.
Alles.
Thomas Wiebe (1:57:18)
die generischen, unter anderem auch die von Anpolla, die können interessant sein, wenn du nach was gezieltem suchst, aber so als Überblick für alles, habe ich lieber einfach mal so einen großen Grafen, was ist denn gerade meine Warnauslastung und was ist vielleicht so CPU-Auslastung von Router, so ein paar kleine Informationen und dann halt so die relevanten Netzwerkssegmente oder Devices oder APs und das war einfach ein Dashboard, das hat eben Zabix abgefragt.
Jetzt habe ich das umgebaut auf Prometheus, also wie wie heißt das Matrix QL und mit den Daten, jetzt in Prometheus drin sind, die von dem Anpoller kommen. Einfach mal alles neu gemacht, aber selbes Prinzip bei der Gelegenheit, nochmal versucht ein bisschen zu modernisieren. An sich ganz cool, also keine Nachteile festgestellt zu dem alten. Einziges Problem ist, ich habe komische Artefakte wieder mit Unify. Also...
Oder an Poller, das kann ich an der Stelle nicht sagen. Also was mir aufgefallen ist, ich sehe dann manchmal so Sachen wie auf dem Warnport 190 MBit, 10 Minuten lang, Viertelstunde lang. Dann möchte ich untersuchen, woher kommt denn der Traffic oder wo geht er halt hin. Also es ist 100 MBit im Downstream. Da muss er ja irgendwo im Netz auch landen. Und dann der einzige Graph, der irgendwie halbwegs passend aussieht, ist dann der von einem Access Point. Und der ist aber nicht 100 % passend, weil der...
Irgendwie was von 800 mbit oder 900 mbit anzeigt und ich denke, das passt nicht. Und dann fällt halt auf, dass aber viele Messwerte in dieser Time Series, also über zehn Minuten hinweg, haben exakt den gleichen Wert vom Durchsatz. Also da stimmt irgendwas nicht mit diesem Messwert. Und das hatte ich jetzt schon ein paar mal und deswegen frage ich mich, ist es Anpollers Schuld oder ist es
Andrej Friesen (1:59:08)
alte Wert wird einfach...
Thomas Wiebe (1:59:16)
ist es halt wieder mal das Unify, weil die Insights in Unify, auch die vom eigenen Interface, die ich so gesehen hab, das ist alles Kraut und Rüben. Das ist mehr so eine Annäherungsfrage, nichts verlässlich. Und das kannte ich von Mikrotik gar nicht. Also mit den SNMP-Werten von Mikrotik war das 100 % alles nachvollziehbar. Und da möchte ich eigentlich ganz gerne wieder hin. Deswegen jetzt mal der Ansatz. Also es gab noch einen dritten verschiedenen Wert, wenn ich mir dann nämlich den Anpoller das Dashboard anschaue von den APs.
Andrej Friesen (1:59:16)
die RP.
Thomas Wiebe (1:59:46)
Da sehe ich halt auch dann die Clients, was die verbrauchen. Da gab es genau ein Device, was auch wieder vom Grafen her super dazu passte, aber das hatte wieder einen anderen Messwert und da reden wir dann von 50 MBit. Das heißt Warn sagt 190, der AP sagt der Client verbraucht effektiv 50 und der Switchport zum AP sagt 900.
Andrej Friesen (2:00:04)
Wo Rest?
Ok, alles durcheinander.
Thomas Wiebe (2:00:09)
Also
der Verlauf war immer passend, aber die Werte waren komplett daneben. Ich hab das alles mal gecheckt mit Bits versus Bites und sowas, weil die die Werte teilweise in einem anderen Format vorlegen, aber das passt alles und ja, also nicht so happy. Deswegen gucke ich mir jetzt mal den SNMP-Exporter an, zumindest mal Vergleichswerte zu sammeln, zu gucken, liegt es am Anpoller oder liegt es an Unify, was da an Werten wirklich rausgegeben wird.
Andrej Friesen (2:00:37)
Ja, es könnte ein Unterschied sein, hier noch den wieder SNMP-Dieben, bei dem dann läuft, woher die D-Werte bekommen. Wenn die wieder die API benutzen, dann wird es alles das gleiche sein.
Thomas Wiebe (2:00:45)
Hm, ich denke auch. Ich bin gespannt.
mal gucken. Ansonsten ist Unpolle auf jeden Fall einfach zu aufzusetzen und abzufragen mit Victoria in welcher Form auch immer. Influx Push oder Prometheus Pull, beides geht. Was mich ehrlich gesagt wundert, also dass das in einer Komponente vereint ist. Vielleicht auch da irgendjemand hat mit Influx angefangen und sich dann gedacht, ach komm jetzt könnte man dieselben Werte aber in Prometheus gebrauchen und lässt sich ja sehr einfach exportieren. Ist ja einfach nur ein HTTPN Punkt. Das war's.
Andrej Friesen (2:00:51)
Es funktioniert
Ja, ja.
Thomas Wiebe (2:01:22)
Ja, können wir da jetzt erstmal einen Haken dran setzen. Ich werde dann irgendwann mal updaten, wenn ich weiß, woher dieser Wertefu kommt.
Andrej Friesen (2:01:29)
In 10 Jahren. Ach so,
das ist, ich dachte in 10 Jahren wegen dem anderen Thema.
Thomas Wiebe (2:01:34)
Ich glaube mein Cloud Gateware werde ich tatsächlich mal resetten. Das Ding ist halt, es ist ja nicht alt, es ist jetzt drei Wochen alt oder so und wurde ja schon mal von einem Backup importiert, der von so einem selbst gehosteten Controller kam. Kann natürlich ein Problem sein, weiß ich nicht. Ist halt die Frage, wenn ich es jetzt exportiere und wieder importiere, wird es dadurch besser oder schleppe ich das Problem einfach nur weiter mit und komplett von vorne anpang habe ich jetzt ehrlich gesagt keine Lust. Dafür ist dann doch zu viel Setup.
Andrej Friesen (2:01:57)
Ja, schwierig.
Ach so viel ist das jetzt auch nicht.
Oder hast du 4 Millionen Netzwerksegmente erzeugt?
Thomas Wiebe (2:02:14)
3 mit irgendwie 6 WLANs und viel DHCP Einstellungen und ja, also... Ja, genau. Bin ich wieder beschäftigt. Das Schöne ist ja, das ist halt, also, ich weiß nicht, wie es dir geht, aber meine Erfahrung mit Support ist halt, du kriegst halt am Anfang immer nur diese Aussagen wie Reset einmal. Ich war ja selber auch mal im Support tätig und kenne das Problem, ja, aber...
Andrej Friesen (2:02:15)
Ja.
Du übertreibst doch direkt.
Du wahrscheinlich ein paar Screenshots machen.
Thomas Wiebe (2:02:44)
Da hat man schon gar keine Lust mehr als IT-Mensch überhaupt den Support zu kontaktieren. Das bringt nix. Wenn die jetzt sagen würden, kannst du uns vielleicht mal die Logs schicken und wir gucken da mal rein, würde ich das ja sogar machen, da ist nichts Geheimes drin. Aber weil das ja keiner tut und als erstes sagt, machen sie mal neu...
Andrej Friesen (2:02:46)
Ne.
Ne gar nicht.
Sieht gut aus.
Meine Stimme im Kopf sagt immer, weil bei so Support in der Woche... Ich hab mehr Ahnung dazu, mich einfach zu dem nächsten Level.
Thomas Wiebe (2:03:14)
Ja, das ist schwierig, man... Ich hatte da mal auch Erfahrung mit Netgear. hatte früher mal irgendwann Netgear-Router aus so einem Kombiogerät, wie das halt so bei der Fritzbox ja auch so ist. Konnte jetzt kein Telefon, da war halt Routen-WLAN und irgendwie fünf Switchboards oder so was. Und da gab es ganz komische Effekte und ich hab das dann auch schön...
Also man gibt sich dann Mühe, dass im ersten Schritt schon alle Informationen drin sind, zu visualisieren. Ich konnte keine Grafik hochladen, also habe ich in ASCII quasi ein Netzwerkdiagramm gemalt und war alles drin und dann kommt dann so ein Satz zurück, so vom wegen, könntest du mal aus und einschalten. ich so, ja, ich hatte ja schon geschrieben, darüber war ich eigentlich schon hinweg und ich habe es auch sogar schon mal resetted und folgendes ist das Problem, können Sie das mal ins nächste Level weiterleiten und dann dreht sich das alles und du denkst ja dann irgendwann...
So macht's keinen Spaß.
Andrej Friesen (2:04:04)
Dann kaufe ich mir ein anderes Gerät. Ist die Lösung. Ja, ist halt so.
Thomas Wiebe (2:04:07)
Ja, es passiert.
Es passiert. War jetzt vielleicht nicht der schlimmste Blocker, aber hat schon genervt.
Ja schön. Hast du noch irgendwas?
Andrej Friesen (2:04:21)
Nee, ich bin ruhig. Bin ja immer noch nicht ganz fit.
Thomas Wiebe (2:04:23)
Hm. Ich auch.
Andrej Friesen (2:04:29)
Dann würde ich sagen, machen wir endlich einen Haken dran. Wir danken uns fürs Zuhören. Ich suche gerade den Blog mit der Abmoderation. Genau, lasst uns gerne eure Meinung da, falls euch das gefallen hat. Falls euch das nicht gefallen hat, alles wissen, Die E-Mail einfach am podcast.at.de oder auch an die Podcatcher. Die habe ich gelernt, eine Kommentarfunktion und Bewertung.
Empfehlt uns weiter und habt noch einen schönen Samstag oder wann auch immer ihr das hört und bis zur nächsten Sendung.
Thomas Wiebe (2:05:05)
Bis nächsten Mal. Tschüss.
Andrej Friesen (2:05:06)
Ciao.