Mother Earth AI
Eine Stimme für unseren Planeten, selbst gehostet und CO₂-ehrlich
Über das Projekt
Mother Earth AI ist ein Projekt zur Klimakommunikation, das unserem Planeten buchstäblich eine Stimme gibt. Menschen nehmen den Hörer in die Hand (oder besuchen die Website) und stellen "Mutter Erde" Fragen zum Klima, zum Ökosystem und zu den Bedingungen, die menschliches Leben ermöglichen. Die KI antwortet aus der Perspektive des Planeten.
Das Projekt entstand in einem Creative Lab zur Klimakommunikation des Kompetenzzentrums für Kultur- und Kreativwirtschaft des Bundes und gewann 2023 den K3-Preis für Klimakommunikation.
N3XTCODER hat mit dem Mother-Earth-Team an der selbst gehosteten Voice-Agent-Architektur gearbeitet und das LLM-Backend mit der öffentlichen Website und mit den physischen "Mutter Erde Telefon"-Installationen verbunden.
Die Herausforderung
Mother Earths Vorgaben hatten eine Bedingung, die fast alle handelsüblichen Voice-AI-Anbieter ab Tag eins ausgeschlossen hat: Das Projekt durfte CO₂-Emissionen nicht über von Hyperscalern betriebene KI-Infrastruktur fördern. Ein Voice Agent, der unserem Planeten eine Stimme gibt, kann nicht auf denselben Hyperscaler-Stacks laufen, die den Energieverbrauch von Rechenzentren in die Höhe treiben. Souveränität, Autonomie und Carbon-Unabhängigkeit von großen KI-Anbietern waren nicht verhandelbar.
Das Team hatte zudem ein starkes kreatives Konzept entwickelt: Ein LLM, fein abgestimmt auf einen besonderen Datensatz mit der Allgemeinen Erklärung der Rechte von Mutter Erde und überlieferten Weisheiten indigener Gemeinschaften, sodass die KI eine eigene Persönlichkeit und Perspektive bekommt. Dieses Fine-Tuning musste durchgängig auf der eigenen Infrastruktur laufen.
Die Lösung
Ein vollständig selbst gehosteter Voice Agent auf Open-Source-Komponenten:
- LLM-Plattform: Ollama, betrieben auf der eigenen Infrastruktur des Teams
- Oberfläche: Open WebUI
- Voice-Pipeline: Speech-to-Text- und Text-to-Speech-Komponenten lokal betrieben
- Workflow-Orchestrierung: n8n
Wichtig: Der Voice Agent verbindet sich heute mit zwei Oberflächen:
- Online, über die öffentliche Website mother-earth.ai des Projekts
- Vor Ort, über das "Mutter Erde Telefon" – eine physische Telefoninstallation auf Basis eines Raspberry Pi mit WLAN-Verbindung. Menschen in Museen, Ausstellungen und auf Klimaveranstaltungen können den Hörer in die Hand nehmen und ein gesprochenes Gespräch mit "Mutter Erde" führen, ohne App oder Bildschirm.
Das Telefon greift auf dieselbe selbst gehostete Infrastruktur zu wie die Web-Version, sodass dasselbe fein abgestimmte Modell und dieselben Datenflüsse beide Oberflächen bedienen.
Das Ergebnis
- Ein vollständig interaktiver Voice Agent, verankert in einem kuratierten Wissensschatz über Erde, Klima und die Lebensbedingungen unseres Planeten
- Im Einsatz online und in physischen Ausstellungs- und Museumsräumen
- Gewinner des K3-Preis 2023 für Klimakommunikation
- Carbon-unabhängig von hyperskaliert betriebenen KI-Anbietern, auf erneuerbarer Energie gehostet
- Plug-and-Play-Installation: Raspberry Pi + WLAN bedeutet, dass das Telefon mit minimalem Aufwand zu jeder Klimaveranstaltung oder Ausstellung reisen kann
- Konkreter Beweis, dass selbst gehostete, souveräne Voice-KI heute für gemeinwohlorientierte Projekte funktioniert
Warum das wichtig ist
Die meiste Berichterstattung über "Voice AI" konzentriert sich auf kommerzielle Assistenten einer Handvoll US-amerikanischer Anbieter. Mother Earth AI zeigt, dass dieselbe Gesprächsqualität auf einem vollständig offenen, vollständig selbst gehosteten und vollständig souveränen Stack erreichbar ist – und dass das resultierende System aus dem Serverraum in eine Museumsausstellung wandern kann, ohne Kompromisse bei der zugrunde liegenden Architektur. Für gemeinwohlorientierte Projekte mit sensiblen Anforderungen an Daten, Energie oder Souveränität ist das der Beleg, dass der alternative Weg funktioniert.
Du willst einen Voice Agent für dein eigenes Projekt bauen?
Buche ein kostenfreies Erstgespräch, um Voice-Agent-Lösungen auf EU-gehosteter oder selbst gehosteter Infrastruktur zu besprechen.

Simon Stegemann
Co-Founder & CEO