Mini-PC auf Intel-Basis zum Betrieb von Home Assistant

02.03.2026

Eine Alternative zum RASPI

Der RASPI ist hoch im Kurs. Lange Zeit war die RASPI-Plattform sehr günstig und sowohl für Elektronikbasteleien, die eine leistungsfähigere Basis als ESP oder Arduino benötigen, also auch für Stand-Alone-Serveranwendungen zuhause, die wenig Strom verbrauchen, die erste Wahl. Inzwischen zahlt man aber für einen RASPI 4 oder 5 mit 4 GB RAM gleich 90 Euro, für 8 GB noch einiges mehr.

Da lohnt der Blick auf andere Mini-PCs über den Tellerrand. Für Windows muss es aber wesentlich mehr an Ressourcen sein, der RASPI wird ja aber auch nicht unter Windows betrieben. Und muss es ein neuer Rechner sein? Inzwischen gibt es sehr viele günstige, gebrauchte Thin-Clients am Markt, die für ein solches Projekt mehr als ausreichend sind. Hier lohnt ein Blick auf z.B. den DELL WYSE 55070, der ab 50 Euro zu bekommen ist. Alternativen wären diverse Barebones oder Mini-PCs von HP oder der NUC, die aber meistens nicht gebraucht und zu höheren Preisen erhältlich sind. Außerdem sind diese Geräte meist viel energiehungriger. Exemplarisch geht es im folgenden Artikel um den WYSE.

 

Dell Wyse Frontansicht

Der Wyse hat etwa die doppelte Größe eines RASPI mit Gehäuse. Er basiert auf einem Intel Celeron J4105 mit einer Taktfrequenz von 1.5/2.5 GHz, hat on Board meistens EMMC-Speicher (etwas schneller als SD-Karten), sowie 4-32 GB RAM (SO-DIMMDDR4). Der EMMC kann alternativ mit einer M.2 SSD (nicht NVMI) bestückt werden. Diese gibt es als 128 GB-Version schon für 20 Euro, was aber nicht zwingend sein muss, da auch EMMC ausreichend sein kann. Außerdem ist meistens schon WLAN on Board, als auch diverse Schnittstellen, wie Ethernet, 5 *USB 3.0, 1 USB 2.0, DisplayPort, 1* USB-C.

Wyse PC

Vor allem verbraucht dieser Mini-PC nur zwischen 2 und max. 10 Watt Leistung, ist also sparsamer als ein RASPI 4 und auch noch passiv gekühlt, dabei aber doppelt so schnell, also auf Niveau vom RASPI 5.

Der Rechner soll ein SmartHome-System von Smart Friends ersetzen. Leider ist die zuständige Firma in Konkurs und somit der Weiterbestand insbesondere der nicht kostenfreien Internet-Anbindung und Alexa-Integration nicht mehr gegeben. Darüber hinaus wollte ich auch mal mit Home Assistant experimentieren.

Es gibt nun mehrere Varianten.

  1. Proxmox mit HAOS und HA als VM als LXC Container oder Linux LXC Container, auf dem wieder HA läuft.

Diese Variante ist etwas overkill, erlaubt aber durch den Proxmox Host die gleichzeitige Nutzung verschiedener VM-Images. Proxmox ist eine (für die Privatnutzung kostenlose) Virtualisierungsumgebung und eine Alternative zu VM-Ware. Durch den Proxmox Overhead wird es aber mit den 8 GB RAM etwas knapp, da der Host selbst schon recht viel Speicher benötigt. Dafür wäre das so neben Variante 2 wohl die einfachste Installationsmethode.

  1. Direkt HAOS nativ installieren und darauf Home Assistant betreiben. Dann hat man auf seinem Mini-PC eben ausschließlich HA.
  2. Ein Linux installieren und zusätzlich DOCKER und darauf dann HA als Docker Image verwenden. Dies scheint mir die ressourcensparendste und universellste Variante zu sein, zumal man dann dank Docker auch noch andere Images parallel laufen lassen kann. Erwähnt werden sollte aber, dass laut Doku in dieser Betriebsart ohne weiteres keine HA-Apps mit genutzt werden können, die wohl z.B. für eine Zwave-Einbindung notwendig wären.

Ich habe mich im Folgenden für xubuntu 24.04 LTS entschieden.  Diese Distribution hat die lightweight GUI xfce an Bord , die Ressourcen sparend mit der Hardware umgeht.

Wie bekommt man nun Linux auf den Mini-PC ?

Nun, man muss als erstes ein entsprechendes ISO-Image herunterladen

(z.B. http://ftp.uni-kl.de/pub/linux/ubuntu-dvd/xubuntu/releases/24.04.3/release/>http://ftp.uni-kl.de/pub/linux/ubuntu-dvd/xubuntu/releases/24.04.3/release/xubuntu-24.04.3-desktop-amd64.iso, letzterer Link ist das Standard-Image mit xfce Desktop GUI).

rufusDazu benötigt man noch ein Tool, um einen bootfähigen USB-Stick mit dem Image erzeugen zu können. Dazu nimmt man z.B. das kostenlose RUFUS (https://rufus.ie/de/), am einfachsten das portable Image.

Nach dem Start von Rufus muss man nur noch seinen Stick sowie das heruntergeladenen Image auswählen und erhält nach der Fertigstellung ein bootbares Installationsmedium mit xubuntu. Dieses wird nun am Mini-PC in die USB-Buchse eingesteckt und schon kann man xubuntu installieren. Zuvor kann man im BIOS prüfen, ob der USB-Boot auch freigeschaltet ist. Am besten steckt man zur Steuerung vom Mini-PC eine USB-C Dockingstation ein, über die man Tastatur, Maus, Ethernet und Monitor komfortabel anbinden kann. Die Stromversorgung erfolgt beim DELL noch per Rundstecker, so dass diese separat mittels des mitgelieferten Netzteils am PC eingesteckt werden muss. Ohne USB-C Dockingstation kann man natürlich auch die Peripherie direkt am WYSE einstecken.

Wenn man jetzt vom Stick bootet, erscheint nach kurzer Zeit die Konfigurationsoberfläche von xubuntu.

xubuntu Startscreen

Nach der Installation wird der Stick entfernt und der Rechner neu gestartet und schon ist XUBUNTU einsatzbereit.

Nun geht es darum, die Docker-Umgebung zu installieren. Dazu werden in einem Terminalfenster die folgenden Pakete installiert, um die Docker Engine zu nutzen (Wir werden alles auf der Kommandozeile machen, es ginge aber auch anders).

  • Zuerst muss das Docker-Zertifikat in den Paketmanager eingebunden werden:
sudo apt install ca-certificates curl
sudo install -m 0755 -d /etc/apt/keyrings
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc

 

  • Dann wird das offizielle Docker repository zum apt Paketmanager hinzugefügt:
sudo tee /etc/apt/sources.list.d/docker.sources <<EOF
Types: deb
URIs: https://download.docker.com/linux/ubuntu
Suites: $(. /etc/os-release && echo "${UBUNTU_CODENAME:-$VERSION_CODENAME}")
Components: stable
Signed-By: /etc/apt/keyrings/docker.asc
EOF
sudo apt update 
  • Jetzt kann man die für die Docker Engine benötigten Docker-Programme herunterladen und installieren:
sudo apt install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin 

Docker wird automatisch im systemd Startup konfiguriert

Jetzt kann man prüfen, ob die Docker Engine korrekt arbeitet:

              sudo systemctl status docker

(man erhält folgende Bildschirmausgabe):

● docker.service - Docker Application Container Engine
     Loaded: loaded (/usr/lib/systemd/system/docker.service; enabled; preset: enabled)
     Active: active (running) since Tue 2026-02-10 11:44:38 CET; 42s ago
TriggeredBy: ● docker.socket
       Docs: https://docs.docker.com
   Main PID: 5909 (dockerd)
      Tasks: 10
     Memory: 25.3M (peak: 26.3M)
        CPU: 624ms
     CGroup: /system.slice/docker.service
             └─5909 /usr/bin/dockerd -H fd:// --containerd=/run/containerd/containerd.sock

Da Docker sich an einen Unix Socket bindet, kann man Docker nur mit root-Privilegien benutzen, deswegen das "sudo". Alternativ müsste man den Benutzer in eine Docker-Gruppe hinzufügen.

Die Installation hat automatisch die Docker-Umgebung als Service in das Startup vom systemd übernommen und wird somit beim system startup automatisch mit gestartet.

Das Logging funktioniert per default über den JSON file logging driver. Hier sollte, um einen Überlauf zu vermeiden, eine log rotation aktiviert werden. Das kann  im /etc/docker/docker/deamon.json config file gemacht werden, in dem man folgendes dort einträgt:

{
  "log-driver": "json-file",
  "log-opts": {
    "max-size": "10m",
    "max-file": "3"
  }
}

Nun kann man Docker Images herunterladen und starten.

Ein Test erfolgt z.B. mit sudo docker run hello-world

Jetzt ist alles vorbereitet und man kann HA starten. Dies geht ganz einfach, da Docker, wenn kein lokales Image vorhanden ist, beim ersten Start direkt das Image vom angegebenen Container Repository aus dem Internet lädt.

sudo docker run -d \
  --name homeassistant \
  --privileged \
  --restart=unless-stopped \
  -e TZ=CET \
  -v /home/michael/ha1:/config \
  -v /run/dbus:/run/dbus:ro \
  --network=host \
  ghcr.io/home-assistant/home-assistant:stable
 
Unable to find image 'ghcr.io/home-assistant/home-assistant:stable' locally
stable: Pulling from home-assistant/home-assistant
94fc8c522bd6: Pull complete
eba95eb92b6d: Pull complete
61b23f104acf: Pull complete
626977dcca8f: Pull complete
659c84d49a0a: Pull complete
8e06d4aaf5e1: Pull complete
d600e78ba8e8: Pull complete
3eecda1e5b13: Download complete
Digest: sha256:17441c45ba14560b4ef727ee06aac4d605cf0dc0625fc4f2e043cb2551d72749
Status: Downloaded newer image for ghcr.io/home-assistant/home-assistant:stable
82e1a79695a4b8af34149580b8e9f55fce5386c858e00949933167470c47300c

 Das war es auch schon! Jetzt ist HA im Browser vom Mini PC erreichbar unter http://127.0.0.1:8123

HA Startscreen

 

Läuft der HA Container? Das lässt sich einfach prüfen:

sudo docker ps
CONTAINER ID   IMAGE                                          COMMAND   CREATED          STATUS          PORTS     NAMES
82e1a79695a4   ghcr.io/home-assistant/home-assistant:stable   "/init"   45 minutes ago   Up 45 minutes             homeassistant

 Das Docker Image mit HA kann nun z.B. folgendermaßen gestoppt und gestartet werden:

sudo docker stop homeassistant  bzw. sudo docker start homeassistant

Damit ist der Grundstock für den Betrieb von HA gelegt. Wenn man ZigBee oder Zwave Geräte ansteuern will, ist jeweils ein USB-Gateway am Mini-PC zu verwenden oder man hat einen separaten Hub im Haus.

zigbee Dongle
Ein ZigBee Dongle

Für ZigBee muss nur das USB-Dongle eingesteckt werden. HA erkennt dieses automatisch. Bei Zwave geht das aber nicht so einfach, da dazu eine Erweiterung notwendig ist, die in der Docker-Version von HA nicht ohne weiteres nutzbar ist (Stichwort: separater Container). Das ist aber ein anderes Thema, genauso, wie die Benutzung von HA selbst.

Da der Rechner noch genügend freie Ressourcen hat, ist es ohne weiteres möglich, weitere Docker-Container mit anderen Services auf derselben Hardware zu betreiben.

Der Vollständigkeit halber ist noch zu sagen, dass nach der reinen Lehre als Host-System für Docker ein möglichst gehärtetes Linux eingesetzt werden soll. Diese Sicherheitsaspekte lasse ich mal außen vor, da dies den Rahmen des Artikels sprengen würde. Solange die Docker-Maschine nur im eigenen Heimnetz agiert, gibt es normalerweise schon einen ausreichenden Schutz vor Zugriff aus dem Internet.