KI und Behörden – Datenanalyse nach BDSG und Polizeirecht

Ein realistisches Bild, das eine digitale Waage darstellt, auf der ein Vorhängeschloss (Sicherheit) und fließende Datenströme oder eine menschliche Silhouette (Datenschutz) ausbalanciert sind. Im Hintergrund befinden sich abstrakte, subtile digitale Muster, die KI und Datenanalyse symbolisieren. Die Umgebung sollte professionell wirken, möglicherweise behördlich. Kein Text.
Der Einsatz von Künstlicher Intelligenz (KI) revolutioniert zahlreiche Lebensbereiche, und auch im Sektor der öffentlichen Sicherheit eröffnen sich dadurch neue, vielschichtige Perspektiven. Die zentrale Frage, die sich Jurastudierenden und jungen Jurist:innen in Deutschland dabei stellt, ist, welche Befugnisse Behörden zur automatisierten Datenanalyse nach dem Bundesdatenschutzgesetz (BDSG) und dem Polizeirecht erhalten sollen. Dieser Artikel beleuchtet die komplexen Aspekte dieser Debatte, die sich im Spannungsfeld zwischen dem Wunsch nach erhöhter Sicherheit und dem fundamentalen Schutz persönlicher Daten bewegt.

KI im Dienste der Sicherheit? Welche Befugnisse zur automatisierten Datenanalyse sollen Behörden nach dem BDSG und Polizeirecht erhalten?

Geschätzte Lesezeit: 9 Minuten

Relevanz für das erste Staatsexamen: Mittel

Relevanz für das zweite Staatsexamen: Hoch

Wichtigste Erkenntnisse:

  • Der Einsatz von KI durch Sicherheitsbehörden zur automatisierten Datenanalyse muss stets auf einer klaren gesetzlichen Grundlage im BDSG und Polizeirecht basieren und strenge Datenschutzauflagen erfüllen.
  • KI bietet Chancen für eine effizientere Gefahrenabwehr und Strafverfolgung, birgt jedoch Risiken wie fehleranfällige Algorithmen, mangelnde Transparenz und mögliche Grundrechtsverletzungen.
  • Das Bundesamt für Sicherheit in der Informationstechnik (BSI) spielt eine zentrale Rolle bei der Forschung, Standardsetzung und Prüfung von KI-Systemen, um deren Sicherheit und Nachvollziehbarkeit zu gewährleisten.
  • Die Vision „KI Made in Germany“ strebt nach vertrauenswürdigen, transparenten und ethisch verantwortungsvollen KI-Lösungen, die sowohl technologisch fortschrittlich sind als auch Grundrechte achten.
  • Eine kontinuierliche rechtliche, ethische und gesellschaftliche Debatte ist notwendig, um eine Balance zwischen Sicherheitsinteressen und dem Schutz fundamentaler Persönlichkeitsrechte zu finden und zu wahren.

Inhaltsverzeichnis:

Der Einsatz von Künstlicher Intelligenz (KI) revolutioniert zahlreiche Lebensbereiche, und auch im Sektor der öffentlichen Sicherheit eröffnen sich dadurch neue, vielschichtige Perspektiven. Die zentrale Frage, die sich Jurastudierenden und jungen Jurist:innen in Deutschland dabei stellt, ist, welche Befugnisse Behörden zur automatisierten Datenanalyse nach dem Bundesdatenschutzgesetz (BDSG) und dem Polizeirecht erhalten sollen. Dieser Artikel beleuchtet die komplexen Aspekte dieser Debatte, die sich im Spannungsfeld zwischen dem Wunsch nach erhöhter Sicherheit und dem fundamentalen Schutz persönlicher Daten bewegt. Wir werfen einen detaillierten Blick auf die aktuellen rechtlichen Rahmenbedingungen, die Chancen und Risiken des KI-Einsatzes sowie die zukünftigen Herausforderungen, um Dir ein umfassendes Verständnis dieser dynamischen Thematik zu vermitteln. Die Frage, wie wir KI im Dienste der Sicherheit nutzen können, ohne dabei rechtsstaatliche Prinzipien und Grundrechte zu untergraben, ist eine der Kernherausforderungen unserer Zeit.

KI im Dienste der Sicherheit? Welche Befugnisse zur automatisierten Datenanalyse sollen Behörden nach dem BDSG und Polizeirecht erhalten?

Die fortschreitende Digitalisierung und die Entwicklung immer leistungsfähigerer KI-Systeme bieten deutschen Sicherheitsbehörden potenziell transformative Werkzeuge. Die automatisierte Datenanalyse durch KI verspricht, große Mengen an Informationen effizienter zu verarbeiten, Muster zu erkennen, die dem menschlichen Auge vielleicht verborgen blieben, und somit zur Prävention und Aufklärung von Straftaten sowie zur Abwehr von Gefahren beizutragen. Doch mit diesen technologischen Möglichkeiten gehen auch erhebliche rechtliche und ethische Fragestellungen einher. Die Diskussion darüber, welche Befugnisse Behörden im Rahmen des Bundesdatenschutzgesetzes (BDSG) und des Polizeirechts für solche automatisierten Datenanalysen erhalten sollen, ist von entscheidender Bedeutung. Es geht darum, eine Balance zu finden, die sowohl die Sicherheitsinteressen des Staates und seiner Bürger:innen berücksichtigt als auch den Schutz der Grundrechte, insbesondere des Rechts auf informationelle Selbstbestimmung, gewährleistet. Dieses Spannungsfeld erfordert eine sorgfältige Auseinandersetzung mit den bestehenden Gesetzen, den technologischen Realitäten und den gesellschaftlichen Erwartungen an einen modernen, aber grundrechtswahrenden Staat. Die Frage nach den Grenzen und Kontrollmechanismen für den Einsatz von KI im Dienste der Sicherheit ist daher nicht nur eine technische, sondern vor allem eine rechtsstaatliche und gesellschaftspolitische Herausforderung, die Du als angehende:r Jurist:in verstehen und kritisch begleiten solltest.

Aktuelle Entwicklungen und Rechtsrahmen der automatisierten Datenanalyse

Die automatisierte Analyse personenbezogener Daten durch Behörden, insbesondere mittels KI-Systemen, ist ein Bereich, der sich rasant entwickelt und gleichzeitig strengen rechtlichen Vorgaben unterliegt. Die rechtlichen Grundlagen hierfür finden sich primär im Bundesdatenschutzgesetz (BDSG) sowie in den jeweiligen Polizeigesetzen der Länder. Diese Gesetze definieren den Rahmen, innerhalb dessen staatliche Stellen personenbezogene Daten erheben, verarbeiten und nutzen dürfen. Ein fundamentaler Grundsatz des deutschen Datenschutzrechts ist das Verbot mit Erlaubnisvorbehalt. Das bedeutet, dass jede Verarbeitung personenbezogener Daten durch Behörden einer spezifischen gesetzlichen Ermächtigungsgrundlage bedarf. Fehlt eine solche explizite Erlaubnis, ist die Datenverarbeitung rechtswidrig. Dies gilt in besonderem Maße für den Einsatz von KI, da diese Systeme oft tiefgreifende Analysen großer Datenmengen ermöglichen, die potenziell sensible Informationen über Individuen offenlegen können. Die Ziele, die mit der automatisierten Datenanalyse verfolgt werden, sind vielfältig: Sie reichen von der schnelleren Erkennung von Bedrohungslagen und der Prävention von Straftaten über die effektivere Aufklärung bereits begangener Delikte bis hin zur allgemeinen Gefahrenabwehr. Dabei ist stets zu prüfen, ob der Eingriff in die Grundrechte der Betroffenen verhältnismäßig ist und ob mildere, gleich geeignete Mittel zur Verfügung stehen.

Die konkreten Einsatzbereiche von KI im behördlichen Kontext sind bereits heute vielfältig und expandieren kontinuierlich. Behörden setzen KI-Systeme beispielsweise zur Mustererkennung in umfangreichen Datensätzen ein, um verdächtige Aktivitäten oder Anomalien zu identifizieren. Im Bereich der Videoüberwachung können KI-gestützte Systeme zur automatischen Gesichtserkennung oder zur Analyse von Verhaltensmustern genutzt werden, was sowohl Chancen für die Strafverfolgung als auch erhebliche datenschutzrechtliche Bedenken aufwirft. Ein weiteres wichtiges Anwendungsfeld sind Prognosemodelle, oft als „Predictive Policing“ bezeichnet, die versuchen, auf Basis historischer Daten Vorhersagen über zukünftige Kriminalitätsschwerpunkte oder potenzielle Täter:innen zu treffen. Auch im Rahmen der IT-Sicherheitsüberwachung staatlicher Systeme spielt KI eine wachsende Rolle, um Cyberangriffe frühzeitig zu erkennen und abzuwehren (siehe BSI: KI und IT-Sicherheit, Forschung IT-Sicherheit: KIITS). Das Bundesamt für Sicherheit in der Informationstechnik (BSI) spielt eine zentrale Rolle bei der Gestaltung eines sicheren und nachvollziehbaren KI-Einsatzes. Es leistet Grundlagenforschung, entwickelt Anforderungen und Prüfkriterien für KI-Systeme und trägt so dazu bei, dass deren Einsatz im Einklang mit rechtsstaatlichen Prinzipien erfolgt (BSI: Grundlagenforschung und Prüfkriterien, BSI: KI, Biometrie und Sicherheit). Die Entwicklung und Implementierung solcher Systeme erfordert daher nicht nur technisches Know-how, sondern auch eine kontinuierliche juristische Begleitung und Bewertung.

Chancen und Herausforderungen des KI-Einsatzes durch Sicherheitsbehörden

Der Einsatz von Künstlicher Intelligenz (KI) im Sicherheitssektor birgt ein erhebliches Potenzial, stellt die Gesellschaft und das Rechtssystem jedoch gleichzeitig vor große Herausforderungen. Zu den wesentlichen Chancen zählt die Fähigkeit von KI-Systemen, Sicherheitsbehörden dabei zu unterstützen, relevante Informationen aus enormen, stetig wachsenden Datenmengen schneller und präziser zu extrahieren. Dies wird oft als „KI als Hebel der IT-Sicherheit“ bezeichnet (Forschung IT-Sicherheit: KIITS). In einer Welt, in der die Informationsflut exponentiell zunimmt, können Algorithmen dabei helfen, Muster zu erkennen, Verbindungen aufzudecken und Hinweise zu generieren, die für menschliche Analyst:innen schwer oder nur mit erheblichem Zeitaufwand zu identifizieren wären. Dies kann die Reaktionszeiten bei akuten Bedrohungen verkürzen und die Effizienz bei Ermittlungen steigern. Darüber hinaus wird die Zusammenarbeit zwischen Forschungseinrichtungen und Sicherheitsbehörden durch staatliche Förderprogramme gezielt gestärkt. Solche Programme ermöglichen die Entwicklung und Erprobung innovativer Sicherheitslösungen, die auf die spezifischen Bedürfnisse der Behörden zugeschnitten sind und gleichzeitig den neuesten wissenschaftlichen Erkenntnissen entsprechen. Das übergeordnete Ziel ist es, Bedrohungen frühzeitig zu identifizieren und Straftaten effektiver zu bekämpfen, idealerweise bevor sie geschehen oder größeren Schaden anrichten. Dabei muss jedoch stets der Grundsatz gelten, dass die Grundrechte der Bürger:innen nicht unangemessen eingeschränkt werden dürfen und der Einsatz von KI verhältnismäßig bleibt. Die präventive Wirkung von KI, beispielsweise durch Predictive Policing-Ansätze, ist dabei ebenso vielversprechend wie umstritten und erfordert eine besonders sorgfältige ethische und rechtliche Abwägung.

Trotz der vielversprechenden Chancen sind die Herausforderungen und Risiken, die mit dem Einsatz von KI durch Sicherheitsbehörden einhergehen, nicht zu unterschätzen. Eine zentrale Problematik ist die potenzielle Manipulierbarkeit und Fehleranfälligkeit von KI-Systemen. Algorithmen sind nur so gut wie die Daten, mit denen sie trainiert werden, und können bestehende Verzerrungen (Bias) in diesen Daten übernehmen und sogar verstärken. Fehlerhafte KI-Entscheidungen, beispielsweise eine falsche Identifizierung einer Person oder eine unzutreffende Risikobewertung, können gravierende, stigmatisierende und möglicherweise irreversible Auswirkungen auf die Betroffenen haben (BSI: KI, Biometrie und Sicherheit). Ein weiteres fundamentales Problem ist die oft mangelnde Nachvollziehbarkeit von KI-Entscheidungen, insbesondere bei komplexen „Black-Box“-Systemen. Für den Datenschutz und die Rechtsstaatlichkeit ist es jedoch essenziell, dass Entscheidungen, die Bürger:innen betreffen, transparent und überprüfbar sind. Es bedarf daher klar definierter Prüfkriterien, technischer Standards für Erklärbarkeit und prozeduraler Sicherungen, um die Rechenschaftspflicht zu gewährleisten und effektiven Rechtsschutz zu ermöglichen (BSI: Grundlagenforschung und Prüfkriterien). Ferner wird eine ethisch, kulturell und rechtlich tiefgreifend eingebettete Nutzung der Technologie gefordert, um die gesellschaftliche Akzeptanz zu sichern und einem Missbrauch vorzubeugen (Fritz Thyssen Stiftung: KI und zivile Sicherheit). Die Gefahr einer „Überwachungsgesellschaft“ oder einer Diskriminierung durch algorithmische Systeme muss durch strenge gesetzliche Rahmenbedingungen, unabhängige Kontrollinstanzen und eine fortlaufende öffentliche Debatte minimiert werden.

Stand der Forschung und Kontrolle: Sicherstellung transparenter und sicherer KI-Systeme

Angesichts der Potenziale und Risiken von KI im Sicherheitsbereich ist eine intensive Forschung und die Etablierung robuster Kontrollmechanismen unerlässlich. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) nimmt hierbei eine Schlüsselrolle ein. Es arbeitet aktiv an der Entwicklung von Methoden und Standards zur sicheren Gestaltung von Künstlicher Intelligenz und deren verantwortungsvollem Einsatz, insbesondere in sicherheitskritischen Anwendungsfeldern. Ein Schwerpunkt der Arbeit des BSI liegt auf der Analyse potenzieller Angriffsmöglichkeiten auf KI-Systeme. Dies umfasst sowohl Angriffe, die auf die Manipulation der Trainingsdaten abzielen (Data Poisoning), als auch solche, die versuchen, die Entscheidungsfindung bereits trainierter Modelle zu beeinflussen (Adversarial Attacks). Durch das Verständnis dieser Schwachstellen können präventive Maßnahmen und Sicherheitsarchitekturen entwickelt werden. Darüber hinaus prüft das BSI den Einsatz von KI im Sinne der allgemeinen IT-Sicherheit, beispielsweise zur Detektion von Schadsoftware oder zur Absicherung von Netzwerken (BSI: Grundlagenforschung und Prüfkriterien). Diese Forschungs- und Entwicklungsarbeit ist fundamental, um sicherzustellen, dass KI-Systeme nicht nur effektiv, sondern auch resilient gegenüber Manipulationen sind und ihre Integrität gewahrt bleibt. Die Entwicklung von Zertifizierungsverfahren und Prüfsiegeln für KI-Anwendungen könnte hierbei zukünftig eine wichtige Rolle spielen, um Vertrauen in die Technologie zu schaffen und Mindeststandards für Sicherheit und Transparenz zu etablieren.

Parallel zur technischen Forschung und Entwicklung spielen Förderprogramme eine wichtige Rolle bei der Förderung verantwortungsvoller KI-Anwendungen im Sicherheitsbereich. Das Bundesministerium für Bildung und Forschung (BMBF) unterstützt beispielsweise gezielt Projekte, die sich mit der Entwicklung und Erprobung von KI-gestützten Sicherheitsanwendungen befassen. Diese Förderinitiativen zielen darauf ab, innovative Lösungen zu generieren, die zur Verbesserung der öffentlichen Sicherheit beitragen können (Forschung IT-Sicherheit: KIITS). Ein entscheidender Aspekt dieser Programme ist jedoch die nachdrückliche Betonung der Notwendigkeit, datenschutzrechtliche und breitere gesellschaftliche Rahmenbedingungen strikt einzuhalten. Forschungsprojekte müssen oft von Beginn an interdisziplinär angelegt sein und ethische, rechtliche und soziale Implikationen (ELSI) systematisch berücksichtigen. Dies bedeutet, dass nicht nur technische Machbarkeit im Vordergrund steht, sondern auch Fragen der Verhältnismäßigkeit, der Transparenz, der Nichtdiskriminierung und des Schutzes der Privatsphäre. Die Einbindung von Datenschutzbeauftragten, Ethikkommissionen und zivilgesellschaftlichen Akteur:innen in den Entwicklungs- und Erprobungsprozess ist daher von großer Bedeutung, um sicherzustellen, dass die entwickelten KI-Systeme den hohen Anforderungen eines demokratischen Rechtsstaats genügen. Diese enge Verzahnung von technologischer Innovation mit rechtlicher und ethischer Reflexion ist ein Kernmerkmal des deutschen Ansatzes zur Förderung von KI im Sicherheitssektor.

Zukunftsperspektiven: „KI Made in Germany“ und die Balance zwischen Sicherheit und Grundrechten

Die zukünftige Entwicklung und der Einsatz von Künstlicher Intelligenz im Sicherheitsbereich in Deutschland sind stark von der Vision geprägt, ein international anerkanntes Qualitätssiegel „KI Made in Germany“ zu etablieren. Dieses Siegel soll für vertrauenswürdige, transparente und datenschutzkonforme KI-Lösungen stehen, die nicht nur technologisch fortschrittlich, sondern auch ethisch und rechtlich höchsten Standards genügen (Fritz Thyssen Stiftung: KI und zivile Sicherheit). Ein solcher Ansatz zielt darauf ab, die Potenziale der KI für die öffentliche Sicherheit zu nutzen und gleichzeitig die Grundrechte der Bürger:innen, insbesondere das Recht auf informationelle Selbstbestimmung und den Schutz vor Diskriminierung, umfassend zu wahren. Die Entwicklung von „KI Made in Germany“ erfordert eine enge Kooperation zwischen Wissenschaft, Wirtschaft und staatlichen Akteur:innen sowie klare regulatorische Rahmenbedingungen, die Innovation fördern, aber gleichzeitig Leitplanken für einen verantwortungsvollen Einsatz setzen. Dies beinhaltet auch die Förderung von Forschung zu Erklärbarkeit (Explainable AI), Fairness und Robustheit von KI-Systemen. International könnte ein solches Gütesiegel einen wichtigen Wettbewerbsvorteil darstellen und das Vertrauen in deutsche KI-Technologie stärken, insbesondere in sensiblen Anwendungsbereichen wie der Sicherheit. Für Dich als junge:r Jurist:in bedeutet dies, dass Du Dich mit den Anforderungen an solche vertrauenswürdigen Systeme auseinandersetzen und die Entwicklung entsprechender rechtlicher Standards aktiv mitgestalten kannst.

Die politische und rechtliche Diskussion über den Einsatz von KI durch Sicherheitsbehörden wird auch in Zukunft intensiv geführt werden müssen. Kern dieser Debatte bleibt die kontinuierliche Suche nach einer angemessenen Balance zwischen dem staatlichen Auftrag zur Gewährleistung effektiver Gefahrenabwehr und Strafverfolgung einerseits und dem unveräußerlichen Schutz der Persönlichkeitsrechte und anderer Grundfreiheiten andererseits. Technologische Entwicklungen im Bereich der KI schreiten oft schneller voran als die Gesetzgebung. Dies erfordert eine flexible und anpassungsfähige Rechtsordnung sowie eine fortlaufende Evaluation der eingesetzten Technologien und ihrer Auswirkungen. Die Gerichte, insbesondere das Bundesverfassungsgericht, spielen hierbei eine entscheidende Rolle, indem sie die Grenzen für staatliche Überwachungsbefugnisse und den Einsatz neuer Technologien definieren. Zukünftige Gesetzgebungsvorhaben, sowohl auf nationaler als auch auf europäischer Ebene (wie beispielsweise der EU AI Act), werden den Rahmen für den Einsatz von KI weiter präzisieren. Es ist davon auszugehen, dass insbesondere Hochrisiko-KI-Anwendungen im Sicherheitsbereich strengen Auflagen hinsichtlich Transparenz, Aufsicht und Risikomanagement unterworfen werden. Die Herausforderung besteht darin, Regelungen zu schaffen, die spezifisch genug sind, um Rechtssicherheit zu gewährleisten, aber gleichzeitig technologieoffen genug bleiben, um zukünftigen Innovationen nicht entgegenzustehen. Dieser dynamische Prozess erfordert einen ständigen Dialog zwischen Politik, Wissenschaft, Wirtschaft und Zivilgesellschaft.

Fazit: Abwägung und Ausblick zur automatisierten Datenanalyse durch Behörden

Die automatisierte Datenanalyse mittels Künstlicher Intelligenz durch Behörden in Deutschland ist ein komplexes Thema, das tief in die Grundfesten unseres Rechtsstaats eingreift. Wie wir gesehen haben, dürfen solche Technologien im Rahmen des Bundesdatenschutzgesetzes (BDSG) und der Polizeigesetze der Länder grundsätzlich nur auf Basis klarer gesetzlicher Vorgaben und unter strengen Datenschutzauflagen eingesetzt werden (BSI: Grundlagenforschung und Prüfkriterien, Forschung IT-Sicherheit: KIITS). KI-Technologien bieten zweifellos neue und vielversprechende Möglichkeiten zur Gefahrenabwehr, zur Prävention und zur Verfolgung von Straftaten. Sie können helfen, komplexe Sachverhalte schneller zu analysieren und Ressourcen effizienter einzusetzen.

Gleichzeitig bestehen jedoch erhebliche Anforderungen an Transparenz, Nachvollziehbarkeit, Fehlerkontrolle und den Schutz der Grundrechte, insbesondere des Rechts auf informationelle Selbstbestimmung und des Schutzes vor Diskriminierung (BSI: KI, Biometrie und Sicherheit, Fritz Thyssen Stiftung: KI und zivile Sicherheit). Die Gefahr von Fehlentscheidungen durch fehlerhafte Algorithmen oder verzerrte Datensätze, die zu ungerechtfertigten Eingriffen in die Rechte von Einzelpersonen führen können, muss durch robuste technische und rechtliche Sicherungsmechanismen minimiert werden. Die Entwicklung sicherer, nachvollziehbarer und gesellschaftlich akzeptierter KI-Lösungen bleibt daher ein zentrales Ziel der deutschen Sicherheits- und Forschungspolitik. Dies erfordert eine kontinuierliche Auseinandersetzung mit den ethischen, rechtlichen und sozialen Implikationen dieser Technologien und eine sorgfältige Abwägung der involvierten Interessen. Für Jurastudierende und junge Jurist:innen eröffnet sich hier ein spannendes und zukunftsweisendes Betätigungsfeld, das ein tiefes Verständnis sowohl der technologischen Möglichkeiten als auch der grundrechtlichen Schutzmechanismen erfordert. Die Gestaltung der Zukunft von KI im Dienste der Sicherheit ist eine Aufgabe, die Weitsicht, kritisches Denken und ein starkes Bekenntnis zu rechtsstaatlichen Prinzipien verlangt.

Diesen Beitrag teilen:

Weitere Beitäge

Realistische Darstellung einer Waage, die Immobilienkosten gerecht verteilt, mit einem symbolischen Haus und Gesetzestexten im Hintergrund. Fokus auf Ausgleich und Rechtssicherheit im Immobilienkauf.

BGH-Urteil – Maklerprovision – Halbteilung auch bei Drittbeauftragung

Der Erwerb einer Immobilie ist für viele Menschen ein großer Schritt, der oft mit erheblichen Kosten verbunden ist. Neben dem Kaufpreis fallen nicht selten auch Maklerprovisionen an. Um Käufer:innen von Wohnimmobilien vor einer übermäßigen Belastung durch diese Kosten zu schützen, hat der Gesetzgeber den § 656c BGB eingeführt, der den sogenannten Halbteilungsgrundsatz bei Maklerprovisionen festschreibt.

Ein Gerichtssaal oder eine moderne Anwaltskanzlei mit Fokus auf digitale Kommunikationsmittel wie E-Mail-Symbole und einem Telefon-Icon, das nicht im Mittelpunkt steht. Ein Lichtstrahl symbolisiert Klarheit über juristische Dokumente. Realistischer Stil.

BGH-Urteile 2025 – Widerrufsbelehrung Kaufrecht präzisiert

Das Thema welche verschärften Anforderungen an die Widerrufsbelehrung im Kaufrecht sich aus den Nichtzulassungsbeschwerden beim BGH vom 26.02.2025 ergeben, beschäftigt derzeit viele Jurist:innen und angehende Rechtswissenschaftler:innen. Am 26. Februar 2025 hat der Bundesgerichtshof (BGH) in mehreren Nichtzulassungsbeschwerden wichtige Weichenstellungen bezüglich der Anforderungen an Widerrufsbelehrungen bei Fernabsatzverträgen mit Verbraucher:innen vorgenommen.

Jetzt neu! Jurabuddy ONE

Der smarte Begleiter für dein Jurastudium

Erfasse deine Probleklausuren und erhalte individuelle Statistiken zu deinem Lernfortschritt in jedem Rechtsgebiet

Volle Flexibilität und immer den Überblick behalten, vom Studium bis zum zweiten Examen!