Was das in der Praxis bedeutet
Mother Earth AI ist das klarste Beispiel. Das Projekt gibt unserem Planeten eine buchstäbliche Stimme für Klimakommunikation. Die Vorgabe: Das System durfte CO₂-Emissionen nicht über hyperskaliert betriebene KI-Anbieter fördern. Souveränität, Autonomie und CO2-Unabhängigkeit waren nicht verhandelbar.
Wir haben mit dem Team einen vollständig selbst gehosteten Sprachassistent gebaut, der auf Ollama als LLM-Plattform und Open WebUI als Oberfläche läuft, mit allen Komponenten auf der eigenen Infrastruktur des Teams. Der Sprachassistent bedient heute zwei Oberflächen: die öffentliche Website mother-earth.ai und ein physisches "Mutter Erde Telefon" – eine Telefoninstallation auf Basis eines Raspberry Pi, die zu Museen, Ausstellungen und Klimaveranstaltungen reist, wo Besucher:innen den Hörer abnehmen und ein Gespräch mit Mutter Erde führen können, ohne App oder Bildschirm. Das Projekt gewann den K3-Preis 2023 für Klimakommunikation.
Die meisten Projekte starten auf dem Cloud-Pfad – ElevenLabs für natürliche Sprachqualität plus Azure OpenAI / GPT-4o via Microsoft AI Foundry für das Sprachmodell. Der Cloud-Pfad liefert einen MVP in 1-2 Wochen. Mother Earth AI ist das Gegenbeispiel, zu dem wir greifen, wenn das Projekt eine harte Souveränitäts-, Kosten- oder Carbon-Bedingung hat, die Hyperscaler ausschließt – Self-Hosting braucht länger im Aufbau, gibt dir aber volle Kontrolle über Daten, Kosten und Energie-Footprint. Mehr in unserem Sprachassistenten-Leitfaden.