Wir haben Dr. Geuer am Rande ihres Vortrags an der FH WKW Wien getroffen – kurz bevor der Hörsaal sich mit angehenden Immobilientreuhänderinnen und -treuhändern füllte. Die Fragen stellte die Immobilien-Redaktion.
Was erwartet die Studierenden in Ihrer Vorlesung heute?
„In der heutigen Vorlesung geht es um KI-Recht für Immobilientreuhänder bzw. für angehende Immobilientreuhänder. Es geht vor allem darum: Welche KI-Tools kann ich wie sinnvoll einsetzen – und vor allem, wie kann ich sie rechtskonform einsetzen? Das ist der Schwerpunkt."
Gerade in der Immobilienverwaltung und bei Hausverwaltungen stehen hochsensible Daten im Mittelpunkt: Mieterdaten, Bonitätsinformationen, Kommunikationshistorien. Der rechtskonforme Umgang damit ist keine Kür, sondern Pflicht.
Nehmen wir ein konkretes Beispiel: Darf eine Hausverwaltung KI für die Bonitätsprüfung bei der Mieterauswahl nutzen?
„Bei Bonitätsprüfungen in der Mietervorauswahl muss ich zum einen das Datenschutzrecht beachten – und zum anderen den AI Act, der für solche Systeme spezielle Anforderungen festlegt."
Dr. Geuer verweist hier auf Artikel 22 DSGVO, der sogenannte automatisierte Entscheidungen im Einzelfall regelt. Eine solche liegt vor, wenn ein KI-System eine Entscheidung vollständig automatisiert trifft – also ohne dass ein Mensch die letzte Kontrolle ausübt. Als Leitentscheidung zieht sie das Schufa-Urteil des EuGH heran: Wird ein Bonitätsscore regelmäßig und automatisiert dafür herangezogen, Kredite zu gewähren oder zu verweigern, liegt eine unzulässige automatisierte Einzelentscheidung vor, sofern keine ausreichende Rechtsgrundlage besteht.
„Datenschutzrechtlich sind automatisierte Entscheidungen im Einzelfall nur in ganz speziellen Situationen erlaubt: Ich brauche entweder eine informierte, freiwillige Einwilligungserklärung – oder eine entsprechende Rechtsgrundlage – oder einen Vertrag, auf dessen Grundlage das Profiling erforderlich ist."
Ihr praktischer Rat an Hausverwaltungen ist klar und direkt:
„Ich empfehle, die automatisierte Entscheidung im Einzelfall zu vermeiden, indem man ein solches System einfach nur unterstützend heranzieht – als erste Einschätzung – und indem man dokumentiert, dass letztlich ein Mensch die Entscheidung trifft. Das ist der wichtige Punkt."
Was gilt, wenn ich als Hausverwaltung einen externen Software-Anbieter nutze – bleibe ich trotzdem verantwortlich?
„Ich sollte mir als Hausverwaltung die Verträge mit diesem Anbieter wirklich genau anschauen und vor allem auch verstehen, wie das System an sich funktioniert: Welche Daten werden wofür verwendet? Wird das System lokal gehostet oder ist es in einer Cloud? Und wenn ja, wo ist die Cloud? Das sind alles Fragen, die ich im Vorhinein stellen sollte."
Die Verantwortung lässt sich also nicht einfach auf den Softwareanbieter abwälzen. Dr. Geuer betont, dass die Haftungsfrage stark vom konkreten Verwendungszweck abhängt: Je stärker das KI-System Entscheidungen trifft, die das Leben natürlicher Personen beeinflussen – wie eben eine Bonitätsprüfung –, desto heikler wird der Einsatz aus rechtlicher Sicht.
Welche Risikostufen kennt der EU AI Act – und ab wann wird es für Hausverwaltungen kritisch?
Dr. Geuer skizziert das Stufenmodell des EU AI Act kompakt und verständlich:
Die erste Stufe sind verbotene KI-Systeme – etwa Social-Scoring-Systeme, die die EU generell untersagt hat. Diese Regelung ist bereits in Kraft, Verstöße können schon jetzt geahndet werden.
„Social-Scoring-Systeme sind in der EU einfach generell verboten. Wenn man so ein Scoring-System beispielsweise in der EU entwickelt, gibt es auch jetzt schon Sanktionen."
Die zweite Stufe umfasst Hochrisikosysteme. Einige sind im Gesetz explizit gelistet – darunter ausdrücklich Kreditwürdigkeits- und Bonitätsprüfungssysteme. Bei manchen Systemen gibt es für die Einordnung Gegenausnahmen, wo es davon abhängt: Wie stark greift das System in Rechte und Freiheiten der betroffenen Personen ein? (Präzisierung: Maßgeblich für die Einordnung eines KI-Systems als Hochrisiko-KI sind (i) die Einbindung in bestimmte sicherheitsrelevante Produkte oder (ii) der Einsatz in den in Annex III genannten sensiblen Bereichen – darunter eben ua Kreditwürdigkeits- und Bonitätsprüfungen. Für die Bereiche in Anhang III sind Gegenausnahmen vorgesehen.)
Die Regelungen für Hochrisikosysteme treten in zwei Phasen in Kraft: teils im August 2026, teils im August 2027. Wer solche Systeme einsetzt, unterliegt dann umfassenden Dokumentations- und Transparenzpflichten sowie strengen Anforderungen an die Datenqualität.
Für typische Alltagsanwendungen im Hausverwaltungsbereich – etwa ein KI-gestütztes E-Mail-System oder die KI-gestützte Planung von Bauprojekten – gelten hingegen deutlich niedrigere Anforderungen. Relevant sind hier vor allem die Transparenzpflichten für General Purpose AI:
„Wenn ich zum Beispiel einen KI-Chatbot einsetze, muss ich als Unternehmer die Nutzer darüber informieren, dass ich ihn nutze. Das ist das Wichtigste."
Szenario Projektentwicklung: Ein Entwickler lässt eine Immobilie von KI bewerten, präsentiert das Ergebnis Investoren – und es geht schief. Wer haftet?
Eine Frage mit hoher Praxisrelevanz, die Dr. Geuer differenziert beantwortet:
„Es gibt Gründe dafür, warum sowohl der Bauunternehmer als auch der KI-Anbieter haften können. Ein Grund, warum der Softwarehersteller bzw. KI-Anbieter haftet, wäre zum Beispiel ein fehlerhaftes Produkt – also wenn wirklich ein Produktfehler im System vorliegt und dieser nachgewiesen werden kann."
Für Softwarehersteller wird die Produkthaftung ab Dezember 2026 nnoch bedeutsamer, wenn die überarbeitete EU-Produkthaftungsrichtlinie umgesetzt ist, die KI-Systeme teilweise als Produkte klassifiziert. Den ursprünglichen Entwurf einer eigenen KI-Haftungsrichtlinie hat die EU-Kommission letztes Jahr zurückgezogen – stattdessen wurde die Produkthaftungsrichtlinie entsprechend erweitert.
Auf Seite des Projektentwicklers hingegen kommt es auf Verschulden an:
„Hat der Entwickler ein Verschulden bei der Auswahl des KI-Systems – oder, praxisrelevanter: hat er ein Verschulden dahingehend, dass er das Ergebnis des KI-Systems nicht überprüft hat? Was das Verhältnis zum Investor betrifft, muss man schauen: Was steht in den Verträgen drin? Hat der Investor gewusst, dass ein KI-System eingesetzt wird? Wurde er informiert? Das sind Fragen, die man sich im Einzelfall anschauen muss."
Die Botschaft ist eindeutig: Transparenz gegenüber Investoren über den Einsatz von KI-Tools ist nicht nur ethisch geboten – sie ist auch haftungsrechtlich relevant.
Fazit: Drei Grundregeln für den KI-Einsatz in der Immobilienverwaltung
Aus den Ausführungen von Dr. Geuer lassen sich drei handlungsrelevante Grundsätze destillieren, die für Hausverwaltungen, Makler und Projektentwickler gleichermaßen gelten:
1. KI als Unterstützung, nicht als Entscheidungsträger. Wer KI nur als erste Einschätzung nutzt und die finale Entscheidung dokumentiert beim Menschen belässt, vermeidet die datenschutzrechtlichen Fallstricke des Artikels 22 DSGVO.
2. Verträge mit Software-Anbietern genau prüfen und KI-Tool verstehen. Datenschutzrechtliche Verantwortung verbleibt auch beim Einsatz externer Tools beim Anwender. Welche Daten fließen wohin? Lokal oder Cloud? Welches Recht gilt? Diese Fragen sollten vor Vertragsunterzeichnung – idealerweise mit anwaltlicher Begleitung – geklärt sein.
3. Den EU AI Act im Blick behalten. Bonitätsprüfungssysteme sind bereits heute als Hochrisikosysteme eingestuft. Die verbotenen KI-Anwendungen – u.a. Social Scoring – sind bereits jetzt sanktionsbewehrt. Die entsprechenden Pflichten greifen in Stufen ab 2025.
Weiterführende Informationen
Das Handbuch KI und Recht von Ermano und Klara Geuer ist im Juli 2025 im Linde Verlag erschienen (ISBN 978-3-7073-5250-4, 448 Seiten). Es richtet sich an Unternehmen, Behörden und Rechtsanwälte, die den EU AI Act und seine Wechselwirkungen mit DSGVO, Urheberrecht, Arbeitsrecht, Zivilrecht, Strafrecht und weiteren Rechtsbereichen verstehen möchten.
Der WIFI-Wien-Kurs "KI-Recht für Immobilientreuhänder:innen" wird von Dr. Klara Geuer geleitet und ist als Online-Abendveranstaltung konzipiert (4 Einheiten, € 220). Der nächste Termin ist für März 2026 geplant.
Website der Kanzlei: geuer.at
LinkedIn Dr. Klara Geuer: https://www.linkedin.com/in/dr-klara-geuer-305057159/