Die Gerüchteküche in Cupertino brodelt, und die für das Frühjahr 2026 erwarteten Updates für das iPhone-Betriebssystem versprechen mehr als nur kosmetische Korrekturen. Während Tech-Blogs über neue Emojis spekulieren, blicken Juristen und Finanzexperten mit Sorge auf eine tiefgreifende Änderung: Die Integration von Large Language Models (LLM) in Siri. Wenn das Smartphone nicht mehr nur Befehle ausführt, sondern anfängt, Kontexte zu „verstehen“ und autonomer zu agieren, betreten wir im Bankrecht Neuland. Die Grenze zwischen bequemer Sprachsteuerung und grober Fahrlässigkeit verschwimmt zunehmend.
Die Digitalisierung des Bankwesens hat uns Bequemlichkeit gebracht, aber auch die Verantwortung vollständig auf den Endnutzer verlagert. Auf unserem Portal Bankrecht-Ratgeber.de warnen wir regelmäßig davor, Sicherheitsbarrieren zugunsten des Komforts abzubauen. Das kommende Apple-Update könnte genau diesen Konflikt verschärfen: Wenn Siri tief in Systemprozesse eingreift, stellt sich die Frage, wer die Kontrolle über die sensibelsten Daten – unsere Finanzen und unsere Gesundheit – behält.
Die Evolution: Von der Befehlszeile zur „Intent-Based“ KI
Wie der Zubehör-Spezialist Zeera Wireless in einem aktuellen Blogbeitrag berichtet, plant Apple einen massiven Sprung in der Leistungsfähigkeit seiner KI-Assistenten. Auch wenn im Bericht irritierenderweise von einer Version „iOS 26.4“ die Rede ist – was in der chronologischen Zeitrechnung weit in der Zukunft läge und vermutlich auf einen Tippfehler oder internen Codenamen hindeutet – deuten alle Marktindikatoren darauf hin, dass die beschriebenen Features (LLM-Integration) unmittelbar bevorstehen.
Das Kernstück ist die „LLM-Siri“. Anders als bisherige Versionen, die auf fest programmierte Skripte reagierten („Wie ist das Wetter?“), nutzen LLMs (Large Language Models) generative Intelligenz. Sie können Zusammenhänge erkennen, Texte formulieren und – das ist der kritische Punkt – App-übergreifende Aktionen ausführen.
Das Szenario: „Siri, überweise die Miete“
Stellen Sie sich vor, Sie sagen Ihrem iPhone künftig nur noch beiläufig: „Siri, überweise bitte das Geld für das Abendessen gestern an Michael.“ Die KI muss nun, basierend auf dem neuen Update:
- Identifizieren, wer „Michael“ ist (Kontext aus Kontakten).
- Den korrekten Betrag aus einem Chatverlauf extrahieren (Kontext aus Nachrichten).
- Die Banking-App öffnen.
- Die Transaktion vorbereiten oder gar autorisieren.
Hier beginnt das juristische Minenfeld. Wenn die KI den falschen Michael auswählt oder den Betrag falsch interpretiert (z.B. „50.00 Euro“ statt „5.00 Euro“), liegt eine Fehlüberweisung vor.
Haftungsfrage: Wer zahlt bei KI-Fehlern?
Im deutschen Bankrecht gilt grundsätzlich: Der Kontoinhaber haftet für Schäden, die durch die Nutzung seines Authentifizierungsinstruments entstehen, wenn er seine Sorgfaltspflichten verletzt hat.
1. Die Zurechnung der Willenserklärung
Wenn Siri die Überweisung auslöst, handelt sie als Ihr technischer „Erklärungsbote“. Rechtlich gesehen ist das so, als würden Sie den Überweisungsträger selbst ausfüllen. Ein Fehler der KI wird Ihnen als Nutzer zugerechnet. Sie können sich gegenüber der Bank im Regelfall nicht darauf berufen, dass „das Handy mich falsch verstanden hat“.
2. Grobe Fahrlässigkeit (§ 675v BGB)
Noch brisanter ist die Frage der Fahrlässigkeit. Banken könnten ihre Allgemeinen Geschäftsbedingungen (AGB) dahingehend anpassen oder interpretieren, dass die Nutzung von KI-Sprachassistenten für Finanztransaktionen als Sicherheitsrisiko eingestuft wird.
- Das Risiko: Wenn Sie Siri erlauben, ohne weitere biometrische Bestätigung (FaceID/TouchID) Transaktionen vorzubereiten, und das Gerät dann durch Stimmen-Imitation (Deepvoice) manipuliert wird, könnte die Bank Ihnen grobe Fahrlässigkeit vorwerfen.
- Die Folge: Die Bank verweigert die Erstattung des gestohlenen Geldes, da Sie die Sorgfaltspflicht verletzt haben, den Zugang zu Ihrem Konto gegen Dritte (und deren KI-Tools) zu sichern.
Biometrie unter Beschuss: Die Gefahr der Voice-Clones
Mit der Verbesserung der LLM-Technologie verbessern sich auch die Werkzeuge der Betrüger. KI kann heute Stimmen täuschend echt imitieren. Wenn das kommende iOS-Update die Sprachsteuerung tiefer ins System integriert und Siri lernt, Ihre „Absichten“ zu erkennen, wächst die Angriffsfläche.
Sollte Apple eine reine Stimm-Authentifizierung für Banking-Funktionen ermöglichen, raten wir aus bankrechtlicher Sicht dringend ab. Die Beweislastumkehr ist hier das Problem: Im Schadensfall müssen Sie beweisen, dass Sie den Befehl nicht gegeben haben. Bei einer perfekten digitalen Kopie Ihrer Stimme ist dieser Beweis („Anscheinsbeweis“) kaum zu führen, da das Banksystem den Befehl als „autorisiert“ protokolliert hat.
Health App Updates: Gesundheitsdaten als Währung?
Ein weiterer Punkt des Leaks betrifft massive Updates für die Health-App, inklusive KI-Ernährungscoach und Haltungskorrektur. Was harmlos klingt, hat finanzielle Implikationen.
Versicherer und Fintechs interessieren sich brennend für diese Daten. Es gibt bereits Modelle („Pay as you live“), bei denen „gesundes Verhalten“ (gemessen über die Apple Watch) zu niedrigeren Versicherungsprämien oder besseren Kreditkonditionen führt.
- Datenschutzrecht (DSGVO): Die Verknüpfung von Gesundheitsdaten mit Finanzdaten ist hochreguliert (Artikel 9 DSGVO).
- Das Risiko der „freiwilligen“ Gläsernheit: Wenn Nutzer durch einen unbedachten „Alles akzeptieren“-Klick in den neuen iOS-Einstellungen der Weitergabe dieser Daten zustimmen, verlieren sie die Kontrolle. Juristisch ist eine Einwilligung oft schwer zu widerrufen, wenn darauf basierende Verträge (z.B. eine vergünstigte Berufsunfähigkeitsversicherung oder ein Kredit mit „Gesundheits-Rabatt“) bereits laufen. Banken könnten Bonitätsprüfungen künftig subtil mit Gesundheitsdaten verknüpfen, wenn der Kunde dem zustimmt.
Die Pflicht zum Update vs. „Never Change a Running System“
Abschließend ein klassisches Dilemma für Bankkunden: Jedes große Update bringt anfangs Bugs mit sich. Doch aus bankrechtlicher Sicht gibt es keine Alternative zur sofortigen Installation.
Veraltete Betriebssysteme gelten vor Gericht als Sicherheitslücke. Wird Ihr Konto gehackt und stellt ein IT-Forensiker fest, dass Sie eine alte iOS-Version genutzt haben, obwohl ein Sicherheits-Patch (wie das erwartete Update) verfügbar war, haben Sie schlechte Karten. Die Sorgfaltspflicht des Bankkunden (§ 675k BGB) umfasst die Pflicht, das Endgerät auf dem neuesten Stand zu halten – auch wenn man der neuen „KI-Siri“ skeptisch gegenübersteht.
Handlungsempfehlung für Bankkunden
Die Technologie entwickelt sich im Jahr 2026 schneller als das Gesetz. Bis es erste Grundsatzurteile zur Haftung von „halluzinierenden“ KI-Assistenten im Banking gibt, werden Jahre vergehen. Bis dahin gilt für Sie:
- Sprachsteuerung begrenzen: Deaktivieren Sie Siri (oder andere Assistenten) gezielt für alle Apps, die Finanztransaktionen ermöglichen. Der Komfortgewinn wiegt das Risiko einer Fehlinterpretation nicht auf.
- Zwei-Faktor-Authentifizierung (2FA): Verlassen Sie sich niemals allein auf das Gerät. Eine Transaktion sollte immer eine separate Freigabe (z.B. über eine separate Photo-TAN-App auf einem anderen Gerät oder zumindest eine zwingende FaceID-Abfrage) erfordern.
- Datenschutzeinstellungen prüfen: Wenn das Update kommt, klicken Sie sich nicht blind durch. Lehnen Sie die Weitergabe von Health-Daten an Drittanbieter ab, sofern Sie nicht genau verstehen, wofür diese genutzt werden.
Das kommende iOS-Update wird das Smartphone noch „klüger“ machen und Siri von einer reaktiven Software zu einem proaktiven Agenten verwandeln. Doch im Umgang mit Ihrem Geld ist und bleibt die eigene, menschliche Skepsis der beste Virenschutz. Vertrauen Sie keiner KI, die „glaubt“ zu wissen, an wen Sie Geld überweisen wollen.

