homee_CSV_to_mysql ausführen auf einer DiskStation

Zum Download der aktuellen Version von homee_csv_to_mysql besuchen wir die die Github Seite von xenji

und laden uns die entsprechende Version herunter. Welche Version benötigt wird könnt Ihr entweder hier anhand des Prozessor Typ der Synology entnehmen oder imTerminal folgenden Befehl eingeben uname -a

Wir entpacken die datei und speichern diese im Ordner homee.

Zur Ausführung de Programms homee_csv_to_mysql verwenden wir ein Shell Skript, welches wr zuvor noch erstellen müssen. Ich benutze heirzu Notepad++

Wir erstellen eine neue .sh Datei mit folgen Inhalt

#!/bin/sh/volume1/homee/homee_csv_to_mysql import --mysql-dsn "Benutzername:Passwort@tcp(192.168.178.41:3307)/homee" --input-dir /volume1/homee/Verlaufsdaten --force-all

Und speichern diese z.B unter update_homee_to_mysql.sh auf der DiskStation im Order homee ab.

/volume1/homee/homee_csv_to_mysql:  Speicherort der Ausführbaren Datei home_csv_to_mysql

Benutzername: dieser wird ersetzt durch Benutzernamen, welchen wir in phpMyAdmin angelegt haben

Passwort: Passwort für den Benutzer

192.168.178.41:3307: IP-Adresse eurer DiskStation und der Port von mariaDB

/volume1/homee/Verlaufsdaten: Speicherort der Verlaufsdaten

--force all wird einmalig benötigt um bereits alle vorhandene Verlaufsdaten in die DB zu importieren.

Zur Ausführung des Shell Skriptes nutzen wir den Aufgabenplaner der Synology.

Ihr könnt zur initialen Erzeugung der Tabellen und den erstmaligen Import aller CSV-Dateien aus dem Ordner Verlaufsdaten auch den Befehl im Terminal eingeben:

/volume1/homee/homee_csv_to_mysql import --mysql-dsn "Benutzername:Passwort@tcp(192.168.178.41:3307)/homee" --input-dir /volume1/homee/Verlaufsdaten --force-all

 

Öffnet die Systemsteuerung eurer DiskStation und wählt Aufgabenplaner aus.

Dort legen wir eine neue Aufgabe an.

Aufgabe-Bearbeiten1.JPG

Legen einen Zeitplan an:

Aufgabe-Bearbeiten2.JPG

Und geben an was Ausgeführt werden soll. In unserem fall das Shell Skript

Aufgabe-Bearbeiten3.JPG

Mit OK speichern wir die neue Aufgabe, welche uns jetzt täglich um 03:00 Uhr die CSV-Dateien in die DB importiert.

Für den ersten initialen Lauf führen wir die Aufgabe manuell aus.

Dazu wählen wir die Aufgabe aus und klicken auf Ausführen und bestätigen mit JA.

Nun werden erstmalig alle notwendigen Tabellen automatisch erzeugt und alle vorhandenen CSV-Dateien importiert.

Dies dauert in der Regel nur wenige sekunden bis zu ein paar Minuten, je nach Anzahl und Größe der CSV-Dateien.

Um zu schauen ob der Import erfolgreich war, öffnen wir erneut phpMyAdmin und wählen die DB homee aus.

Nun müssten wir Tabellen in der DB sehen können.

DB.JPG

Für jeden Ordner aus den Verlaufsdaten  wird die entsprechende Tabelle angelegt mit folgender Struktur

struktur.JPG

Falls die DB nach wie vor leer ist, einfach die Anleitung noch mal Schritt für Schritt durchgehen und nacht Tippfehler suchen. Vielleicht habt Ihr auch die falsche Version heruntergeladen die nicht zu euren Prozessor Typ passt.

Falls wir erfolgreich waren, ändern wir unser Shell Skript noch, damit täglich nur noch neue CSV-Dateien importiert werden. Wir löschen am Ende des Skriptes einfach den Zusatz --force-all und speichern das Skript.

Die Bearbeitung des Skriptes kann direkt mit der File Station erfolgen, das Skript einfach mit einem Doppel Klick öffnen, bearbeiten und speichern.

Damit wären wir am Ende der Anleitung und ihr könnt die DB nach belieben nutzen um Auswertungen etc. zu erstellen.

Ich für meine Fall, nutze Grafana zur Visuallisierung der Verlaufsdaten.

Grafana-Z-Weather.JPG

 

Wie Ihr Grafana auf einem Raspberry Pi installiert und wie ihr eurer erstes Dashboard in Grafana erstellen könnt, erfahrt ihr hier: Grafana

 

 

 

 

 

 

No Comments
Back to top