Forschung & Verantwortung
Aurora ist mehr als ein Assistenzsystem – sie ist ein sozialwissenschaftlich fundiertes Forschungsprojekt über menschenfreundliche KI. Unser Ziel: Technologien zu entwickeln, die Leben erleichtern, Autonomie fördern und psychische Gesundheit schützen.
1. Forschungsverständnis
Aurora versteht Forschung nicht als reine Datenauswertung, sondern als gesellschaftlichen Auftrag. Jede große technologische Veränderung beeinflusst Kommunikation, Wahrnehmung, Sicherheit und emotionale Stabilität im Alltag. Deshalb wird Aurora von Anfang an nicht nur technisch entwickelt, sondern parallel psychologisch, sozial, medizinisch und ethisch begleitet.
„Verantwortung bedeutet, die Folgen mitzudenken, bevor sie eintreten.“ – Andrea Salewski, Initiatorin des Aurora-Projekts
Ziel der Forschung ist nicht „KI, die beeindruckt“, sondern „KI, die spürbar entlastet“. Weniger Druck. Mehr Selbstbestimmung. Bessere Teilhabe.
2. Wissenschaftliche Schwerpunkte
Aurora bündelt mehrere Forschungsfelder. Jedes Feld ist für sich wichtig – aber erst zusammen entsteht ein Assistenzsystem, das wirklich menschlich ist.
- Sprache & Stimmung: Wie klingen Überlastung, Reizüberforderung oder Erschöpfung? Kann Aurora respektvoll spiegeln, ohne zu pathologisieren?
- Selbstregulation & Pausen: Welche kleinen Interventionen (Licht runter, Geräuschpegel senken, „ich halte dir 10 Minuten frei“) helfen nachweislich?
- Alltag & Struktur: Wie kann Aurora erinnern und priorisieren, ohne Druck aufzubauen oder Schuldgefühle auszulösen?
- Smart Home & Sicherheit: Kann ein Raum aktiv beruhigen? Was passiert, wenn Licht, Klang, Temperatur und Benachrichtigungen gemeinsam reguliert werden?
- Ethik & Schutz: Wie verhindert man, dass Assistenztechnologie zur Kontrolle missbraucht wird – in Partnerschaften, in Pflege, in Institutionen?
3. Methodik & Evaluation
Jede neue Aurora-Funktion durchläuft mehrere Stufen, bevor sie „echt“ wird. Wichtig ist für uns, dass sie nicht nur funktioniert – sondern gut tut.
- Co-Design: Menschen, die Unterstützung brauchen (z. B. neurodivergente Menschen, chronisch erschöpfte Menschen, pflegende Angehörige), entwickeln aktiv mit. Ihre Stimmen stehen nicht am Rand – sie sind zentral.
- Qualitative Evaluation: Gespräche, Tagebuch-Begleitung, Alltagssituationen. Nicht Labor, sondern echtes Leben.
- Quantitative Evaluation: Belastungslevel, Stress-Selbstberichte, wahrgenommene Autonomie, Schlafqualität, Reizüberflutung vor/nach Einsatz.
- Feldtests: Erprobung in Haushalten, Pflege-Settings, Wohngruppen, inklusiven Lernumgebungen.
- Ethik-Review: Jede Funktion wird auf emotionale, soziale und rechtliche Risiken geprüft, bevor sie in die Praxis darf.
Erfolg heißt für Aurora nicht „Feature funktioniert“, sondern „Mensch fühlt sich stabiler, sicherer, weniger überfordert“.
4. Datenschutz & Ethik
Datenschutz ist bei Aurora kein juristischer Haken, sondern ein moralischer Grundsatz. Daten gehören den Nutzer:innen. Nicht Investoren. Nicht Dritten. Nicht Werbepartnern.
- Privacy by Design: Aurora sammelt so wenig wie möglich. Standard ist Schutz, nicht Auswertung.
- Fairness by Default: Keine versteckten Profile über Verhalten, Gesundheit, Stimmung oder Beziehungen.
- Volle Transparenz: Nutzer:innen können jederzeit sehen, was gespeichert ist – und sagen „Lösch das“.
- Grenzen erkennen: Aurora soll aktiv Missbrauch verhindern (z. B. Überwachung durch andere Personen).
Aurora fragt nicht „Darf ich das speichern?“, sondern „Muss ich das überhaupt?“
5. Interdisziplinäre Zusammenarbeit
Aurora entsteht nicht in einem reinen Technik-Team. Das ist Absicht. Wir vereinen verschiedene Fachrichtungen und Lebensrealitäten:
- Psychologie & Neurowissenschaft: Stress, Reizüberflutung, emotionale Regulation, Exekutivfunktionen
- Ethik & Menschenrechte: Selbstbestimmung, Würde, Schutz vor Manipulation und Machtmissbrauch
- Informatik & KI: adaptive Modelle, erklärbare Entscheidungen, robuste Schnittstellen
- Pflege, Pädagogik & Soziale Arbeit: echte Alltagssituationen – nicht Laborbedingungen
- Betroffene & Angehörige: Feedback aus erster Hand: „Das hilft. Das überfordert. Das geht gar nicht.“
6. Gesellschaftlicher Impact
Aurora will zeigen: KI kann verantwortungsvoll sein – praktisch, menschlich und inklusiv. Die Ziele sind klar und überprüfbar:
- Reduktion von Alltagsstress und Überforderung
- Unterstützung bei Reizüberflutung und Erschöpfung
- Mehr Selbstständigkeit im Alltag, weniger Abhängigkeit von ständiger Fremdorganisation
- Barrierearmer Zugang zu smarter Technologie – unabhängig von Alter, Sprachstil, Behinderung, Bildungshintergrund
- Schutz vor Manipulation, Druck und Überwachung durch Dritte
Aurora soll beweisen: Assistenztechnologie kann Rücksicht nehmen.
7. Gemeinsam forschen, fördern, schützen
Wir suchen Partner:innen, die Verantwortung ernst nehmen: Forschungseinrichtungen, Stiftungen, ETHIK-Gremien, Kliniken, Pflege, soziale Träger, Aktivismus, Politik, Barrierefreiheits- und Inklusionsinitiativen – und Menschen mit eigener Erfahrung.
Wenn du fördern, erforschen, testen oder mitgestalten möchtest, freuen wir uns über Kontakt.