KI-Ethik — FINLAI designs
← Zurück zur Startseite

Künstliche Intelligenz mit Verantwortung.

KI ist ein Werkzeug. Wie jedes Werkzeug kann es Gutes tun oder Schaden anrichten. Wir haben uns entschieden, KI so einzusetzen, dass sie Menschen befähigt, nicht überwacht. Hier steht, wie wir das meinen — und wie wir es umsetzen.
// 001

Warum wir darüber sprechen.

Die meisten Softwareunternehmen erwähnen KI-Ethik nicht. Nicht weil sie ihnen egal ist, sondern weil sie glauben, dass Technik neutral ist. Wir glauben das nicht.

Jede technische Entscheidung ist eine Wertentscheidung. Ob Daten in die Cloud geschickt werden oder lokal bleiben. Ob ein KI-Modell erklärt, wie es zu einem Ergebnis kommt, oder ob es eine Black Box bleibt. Ob der Mensch entscheidet oder die Maschine.

Wir haben uns für jede dieser Fragen eine Antwort gegeben. Und wir legen sie offen, weil wir glauben, dass Vertrauen nicht durch Marketing entsteht — sondern durch Transparenz.

// 002

Unsere sechs Prinzipien.

01

Lokal, nicht Cloud

KI-Modelle laufen auf deinem Rechner. Keine API-Calls an externe Server, kein Datenabfluss, keine Abhängigkeit von Drittanbietern.

02

Transparent, nicht Black Box

Jede KI-Auswertung ist nachvollziehbar. Du siehst nicht nur das Ergebnis, sondern den Weg dorthin. Keine versteckten Entscheidungen.

03

Werkzeug, nicht Entscheider

KI in FINLAI schlägt vor, prüft und analysiert. Die Entscheidung trifft immer der Mensch. Keine automatisierten Bescheide, keine autonomen Aktionen.

04

Datensouveränität

Deine Daten gehören dir. Wir haben keinen Zugriff darauf — technisch nicht, vertraglich nicht, prinzipiell nicht. Verschlüsselung ist kein Feature, sondern Standard.

05

Kein Training mit Kundendaten

Wir verwenden keine Kundendaten zum Training oder zur Verbesserung unserer KI-Modelle. Was auf deinem Rechner passiert, bleibt auf deinem Rechner.

06

Offenheit über Grenzen

KI ist nicht perfekt. Wir kommunizieren offen, was unsere Modelle können und was nicht. Kein Overpromising, keine Wunderversprechen.

// 003

Was das konkret bedeutet.

Prinzipien sind einfach aufzuschreiben. Schwieriger ist es, sie in jeder technischen Entscheidung umzusetzen. Hier sind die konkreten Konsequenzen unserer Ethik-Prinzipien:

  • Alle KI-Modelle laufen über Ollama lokal auf dem Rechner des Nutzers
  • Keine Telemetrie, kein Tracking, keine Nutzungsdaten werden erhoben
  • KI-Ergebnisse werden immer als Vorschläge markiert, nie als Fakten präsentiert
  • Der Nutzer kann jede KI-Funktion einzeln deaktivieren
  • Keine automatisierten Entscheidungen ohne menschliche Bestätigung
  • Open-Source-KI-Modelle wo immer möglich, keine proprietären Black Boxes
  • Regelmäßige Security-Reviews der KI-Komponenten
  • Transparente Kommunikation über Modellgrenzen und Fehlerraten
// 004

Warum lokal alles verändert.

Die meisten KI-Produkte funktionieren so: Deine Daten gehen in die Cloud, ein Server verarbeitet sie, du bekommst ein Ergebnis zurück. Das ist bequem. Aber es bedeutet auch, dass jemand anderes deine Daten sieht, speichert, möglicherweise zum Training verwendet.

Für Buchhaltungsdaten, Bilanzen, Mandanteninformationen ist das nicht akzeptabel. Nicht weil die Cloud unsicher ist — sondern weil die Daten dort nicht hingehören. Mandantendaten sind kein Trainingsdatensatz. Bilanzpositionen sind kein Input für ein fremdes Modell.

Lokale KI bedeutet: Dein Rechner, dein Modell, deine Daten, deine Kontrolle. Das ist aufwendiger zu entwickeln. Es braucht mehr Optimierung, mehr Testing, mehr Sorgfalt. Aber es ist der einzige Weg, der mit unserem Verständnis von Verantwortung vereinbar ist.

// 005

Der Mensch entscheidet.

In einer Branche, die gerade darüber diskutiert, ob KI Steuerberater ersetzen wird, treffen wir eine klare Aussage:

KI ersetzt keine Menschen. Sie gibt ihnen Werkzeuge, die Routinearbeit automatisieren und Raum für das Wesentliche schaffen — für Analyse, Urteil und Entscheidung.

Das ist kein Lippenbekenntnis. Es ist eine Architekturentscheidung. In FINLAI gibt es keinen „Autofix“-Button, der Fehler selbständig korrigiert. Keinen KI-Agenten, der Buchungen eigenmächtig ändert. Kein System, das Entscheidungen trifft, die ein Mensch treffen sollte.

Die KI in FINLAI ist ein Assistent. Sie zeigt Auffälligkeiten, macht Vorschläge, prüft Plausibilitäten. Aber der Steuerberater, der Buchhalter, der Mensch — der entscheidet. Immer.

// 006

Ein lebendiges Dokument.

KI-Ethik ist kein Zustand, den man erreicht. Es ist ein Prozess. Modelle entwickeln sich weiter, Fähigkeiten wachsen, neue Fragen entstehen.

Diese Seite wird sich verändern. Wenn wir neue KI-Features einführen, aktualisieren wir sie. Wenn wir Fehler machen, dokumentieren wir sie. Wenn sich unsere Position zu einem Thema ändert, begründen wir es.

Das ist unser Versprechen: nicht Perfektion, sondern Ehrlichkeit.

Technologie ist dann am wertvollsten, wenn sie Menschen nicht abhängig macht — sondern unabhängig.

Fragen zu unserer KI-Ethik?

Wir freuen uns über jede Frage, jede Kritik und jeden Dialog.

Stand: April 2026 · Version 1.0