Was das in der Praxis bedeutet
Die Architektur, die wir für Energie ausliefern, ist derselbe RAG-Stack, den wir produktiv für den Gesamtverband der Deutschen Versicherungswirtschaft (GDV) betreiben – ein KI-Wissensassistent über zehntausende Policy-Dokumente für 400+ Mitgliedsunternehmen. Tarife, Verträge, regulatorische Frameworks und Policy-Dokumentation sind strukturell ähnlich zu Versicherungsarchiven: groß, komplex, häufig aktualisiert und kritisch, wenn sie falsch sind. Dieselbe Architektur läuft im kleineren Maßstab für Kompetenzz mit 1.000+ HumHub-Mitgliedern, geliefert in vier kurzen Sprints auf n8n in Berlin, Qdrant in der EU und GPT-4 via Microsoft EU Sovereignty.
Wo sich Energie unterscheidet, ist das ehrliche Gespräch über KIs eigenen Energie-Footprint. Wir haben eine dreiteilige Serie dazu geschrieben: Der Energieverbrauch von KI deckt die echten Zahlen ab – Trainings-Energie, der Anteil der Inferenz am gesamten ML-Footprint, Jevons-Paradoxon. Wie KI-Entwickler:innen den Energieverbrauch von KI reduzieren können behandelt, was Entwickler:innen wirklich tun können – effiziente Stacks, kleinere Modelle, grünes Hosting, Lebenszyklusanalyse. Der dritte Teil erforscht, was Gesellschaft und Politik tun können, um KI in Richtung Nachhaltigkeit zu lenken. Für Energieunternehmen ist das keine abstrakte Sorge – es ist eine Glaubwürdigkeitsfrage, wenn du KI intern einsetzt.