Beiträge zum Digitalrecht

Was ist eigentlich Künstliche Intelligenz?

Begriff
Der Begriff der Künstlichen Intelligenz verdankt seinen Ursprung einem Forschungsantrag aus dem Jahr 1955 (1): Der Informatiker John McCarthy beabsichtigte die Erforschung von Systemen, „die mehr können als rechnen.“(2) Diese Systeme bezeichnete er auch als Artificial Intelligence. Damit war der Begriff der Künstlichen Intelligenz (KI) geboren.

Häufig wird betont, dass es aufgrund der vielfältigen Funktionsweisen und Anwendungsfelder eine einheitliche Definition von KI nicht geben könne.(3) Deshalb wird mitunter vom Gebrauch des Begriffs der KI im Allgemeinen(4) oder zumindest im positiven Recht(5) abgeraten.

An seiner Stelle wird die Bezeichnung der „automatisierten Entscheidungssystem“ oder des „maschinellen Lernens“ vorgeschlagen.(6) Da das Phänomen „Künstliche Intelligenz“ zahlreichen Regulierungen zugrunde liegt und ebenso in Gesetzen verwendet wird (nicht zuletzt in der geplanten KI-Verordnung der Europäischen Union), sollte das Phänomen der „Künstlichen Intelligenz“ gleichwohl definiert werden.

Eine erste Annäherung gelingt über die Unterscheidung von „Künstlich“ und „Intelligenz“:

-          „Künstlich“ bezeichnet im Kontext der Künstlichen Intelligenz im Anschluss an die englische Bezeichnung von artificial intelligence einen nicht natürlichen, sondern von Menschen geschaffenen Vorgang.(7) Es handelt sich also um eine von Menschen hergestellte Struktur.(8)

-          „Intelligenz“ wird mit verschiedenen Fähigkeiten umschrieben. Das zentrale Merkmal ist die Problemlösungsfähigkeit(9).(10) Im Kontext der KI werden hierunter Fähigkeiten verstanden, die mit menschlichen Denk- und Handlungsprozessen vergleichbar sind.(11) Das sei insbesondere die Fähigkeit zum Selbstlernen(12), welche die KI durch einen Algorithmus sicherstelle.(13) Daneben wird u. a.  das logische Denken, das Treffen von Entscheidungen unter Unsicherheit oder das Kommunizieren in natürlicher Sprache genannt.(14)

Hierauf aufbauend bietet das Verständnis der „Hochrangigen Expertengruppe der Europäischen Union für Künstliche Intelligenz“ eine greifbare Beschreibung: Diese versteht Künstliche Intelligenz als „Systeme mit einem ‚intelligenten‘ Verhalten, die ihre Umgebung analysieren und mit einem gewissen Grad an Autonomie handeln, um bestimmte Ziele zu erreichen.“(15)

Kategorisierungen
KI wird auch in starke und schwache KI kategorisiert.(16) Teilweise wird auch von enger und genereller KI gesprochen.(17) Als starke bzw. generelle KI werden solche KI-Systeme bezeichnet, „die sich neue Lösungsmöglichkeiten jenseits einer Vorprogrammierbarkeit erarbeite[n].“(18) Demgegenüber ist die Rede von schwacher bzw. enger KI, die in den vom Menschen vorgegebenen Lösungsmöglichkeiten verhaftet bleibe.(19) Schwache KI handelt nicht aus eigenem Antrieb, sondern um eine vom Menschen vorgegebene Aufgabe in menschlich vorgezeichneten Lösungswegen zu lösen.(20) Dementsprechend begrenzt ist ihre Entwicklungsfähigkeit.(21) Das bedeutet freilich nicht, dass sie über eine schwache Leistungsfähigkeit verfügt. Anders als starke bzw. generelle KI besitzt sie aber eine „nur“ funktionsspezifische Handlungskapazität, die menschliche Leistungsfähigkeit aufgrund ihres Spezialisierungspotenzials gleichwohl überschreiten kann.(22) Schwache KI geht gewissermaßen in die Tiefe, starke KI in die Breite.(23)

Funktionsweisen
KI kennt zahlreiche Funktionsweisen. Als besonders relevant erweisen sich – neben anderen – das Problemlösen durch Suchen, das maschinelle Lernen und das Deep Learning als spezifischer Funktionsmodus des Deep Learnings.

Problemlösung durch Suchen
Das Problemlösen durch Suchen(24) ist dadurch gekennzeichnet, dass ein Anwender ein Ziel festlegt und die KI – im Sinne eines rationalen Agenten – einen optimalen Lösungsweg findet.(25) Hierfür müssen dem rationalen Agenten insbesondere der Ausgangs- und der Zielzustand, verfügbare Aktionen sowie die Kostenfunktion für einzelne Aktionen aufgezeigt werden.(26) Hierauf aufbauend ermittelt der Rationale Agent verschiedene Lösungswege und wählt einen Weg am Maßstab vorgegebener oder eingegebener Präferenzen aus.(27) Ein klassisches Anwendungsbeispiel hierfür ist das Navigationssystem im Straßenverkehr.(28)

Maschinelles Lernen
Beim maschinellen Lernen(29) soll die KI Muster innerhalb vorhandener Daten erkennen.(30) Charakteristisch für das maschinelle Lernen sind zwei Merkmale(31):

-          Erfahrungswerte in Gestalt von Daten sowie

-          Methoden, die in diesen Daten Muster erkennen.

 

Die KI operiert gewissermaßen induktiv, geht also von einzelnen Daten aus und leitet aus ihnen allgemeine Regeln ab.(32) Daher ist das maschinelle Lernen von verfügbaren und verwertbaren Daten abhängig. Big Data und Open Data begünstigen das maschinelle Lernen daher besonders.(33)

Deep Learning
Ein Teilgebiet des maschinellen Lernens ist das Deep Learning.(34) Das Deep Learning verwendet dem menschlichen Gehirn nachempfundene neuronale Netzwerke, die große Datenmengen verarbeiten können.(35) Friederike Malorny beschreibt die Funktionsweise des Deep Learnings wie folgt: „Letztlich generiert das künstliche Datenneuron aus mehreren Inputs ein Outpunkt, wobei das Output für das nächste Datenneuron wiederum als Input fungiert und so weiter. Am Ende entsteht ein neuronales Netzwerk mit unzähligen Datenneuronen als Knotenpunkten. Wird ein neuronales Netzwerk trainiert, eruiert es, welche Verbindungen zu einem richtigen Ergebnis geführt haben, um diese dann in der Folge stärker zu gewichten. Diese Gewichtung ist der eigentliche ‚Lerneffekt‘, indem ‚erfolgreiche‘ Verbindungen ein immer größeres Gewicht erhalten und damit immer aktiver werden.“(36)

Anwendungsbeispiele
Künstliche Intelligenz kann in datengestützten Wissenschaftsbereichen zur Auswertung von Daten beitragen („Extraktion von Wissen aus Daten“(37)). Das betrifft beispielsweise die Auswertung von Wetterdaten, um hieraus Rückschlüsse auf klimatische Entwicklungen ableiten zu können. Bei Personalauswahlentscheidungen kann KI dabei unterstützen, Lebensläufe auszuwerten oder Ranglisten von Bewerbern erstellen.(38) Speziell auf dem Gebiet der staatlichen Gefahrenabwehr ist die intelligente Videoüberwachung zu nennen.(39) Eine neue Erscheinung(40) sind Analyseinstrumente, die in polizeilichen Datenbanken befindliche Datensätze auswerten und dabei Verbindungen zwischen verschiedenen Elementen herstellen(41) und bereits Gegenstand verfassungsgerichtlicher(42) Kontrolle waren.

Künstliche Intelligenz kann größere Datenbestände auch mit dem Ziel auswerten, diese mit individuellen Präferenzen zu verknüpfen. Die Rede ist auch von sog. Recommender Systems.(43) Daten angebotener Dienstleistungen oder Produkte werden anhand vorangegangener Konsumverhalten ausgewertet.

Aufgrund zunehmend vorhandener Bild- und Videodaten kann künstliche Intelligenz Bilderkennung betreiben.(44)

Über das bloße Verarbeiten und Interpretieren von Daten kann Künstliche Intelligenz auch im Anschluss an eine Datenverarbeitung physisch auf die Umwelt einwirken. Das ist der Anwendungsbereich sog. Robotik.(45) Im Straßenverkehr kommt sie in Gestalt autonomer Fahrsysteme zur Anwendung.(46)

Dr. Mathias Honer, Forschungsstelle für Digitalrecht, Lehrstuhl von Frau Prof. Dr. Härtel für Öffentliches Recht, Verwaltungs-, Europa-, Umwelt-, Agrar- und Ernährungswirtschaftsrecht der Europa-Universität Viadrina Frankfurt (Oder)



(1) Vogel, Künstliche Intelligenz und Datenschutz, 2022, S. 29 f.
(2) Vogel, Künstliche Intelligenz und Datenschutz, 2022, S. 30.
(3) Lorse, NVwZ 2021, 1657 (1658).
(4) So Staehelin, GRUR 2022, 1569 (1570).
(5) Busche, JA 2023, 441 (442).
(6) So neben weiteren alternativen Formulierungen Staehelin, GRUR 2022, 1569 (1570).
(7) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 10.
(8) Herberger, NJW 2018, 2825 (2827).
(9) Malorny, JuS 2022, 289 (290).
(10) In diesem Sinne versteht Busche, JA 2023, 441 (442) KI als einen Sammelbegriff für verschiedene Methoden der Informatik, deren gemeinsames Ziel es sei, ein Problem möglichst rational zu lösen.
(11) Malorny, JuS 2022, 289 (290).
(12) Malorny, JuS 2022, 289 (290).
(13) Malorny, JuS 2022, 289 (290); Vogel, Künstliche Intelligenz und Datenschutz, 2022, S. 35.
(14) Busche, JA 2023, 441 (442).
(15) Hochrangige Expertengruppe für Künstliche Intelligenz, Eine Definition der KI: Wichtigste Fähigkeiten und Wissenschaftsgebiete, 2019, S. 1; siehe dazu auch Geminn, ZD 2021, 354.
(16) Geminn, ZD 2021, 354 (355).
(17) Terminologie bei Neuhöfer, Grundrechtsfähigkeit Künstlicher Intelligenz, 2023, S. 23 f.
(18) Lorse, NVwZ 2021, 1657 (1658).
(19) Lorse, NVwZ 2021, 1657 (1658).
(20) Neuhöfer, Grundrechtsfähigkeit Künstlicher Intelligenz, 2023, S. 23.
(21) Neuhöfer, Grundrechtsfähigkeit Künstlicher Intelligenz, 2023, S. 23 f.
(22) Neuhöfer, Grundrechtsfähigkeit Künstlicher Intelligenz, 2023, S. 24.
(23) Siehe auch Neuhöfer, Grundrechtsfähigkeit Künstlicher Intelligenz, 2023, S. 24.
(24) Siehe zu dieser Kategorie Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 19 f.
(25) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 19.
(26) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 19.
(27) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 19.
(28) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 19.
(29) Zu dieser Kategorie siehe Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 23 f.
(30) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 23.
(31) Busche, JA 2023, 441 (442).
(32) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 23.
(33) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 24.
(34) Malorny, JuS 2022, 289 (290).
(35) Malorny, JuS 2022, 289 (290).
(36) Malorny, JuS 2022, 289 (290 f.).
(37) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 26.
(38) Zu diesen und weiteren Beispielen Malorny, JuS 2022, 289 (291).
(39) Rademacher/Perkowski, JuS 2020, 713 (714).
(40) Siehe zB § 25a HSOG – Automatisierte Anwendung zur Datenanalyse (siehe dazu auch BVerfG, Urt. v. 16.2.2023, - 1 BvR 1547/19/1 BvR 2634/20 -)

(1) Die Polizeibehörden dürfen rechtmäßig gespeicherte personenbezogene Daten auf einer Analyseplattform automatisiert zusammenführen. Sie dürfen nach Maßgabe der Sätze 3 bis 6 und der Abs. 2 bis 5 diese zusammengeführten Daten, auch gemeinsam mit weiteren rechtmäßig erhobenen personenbezogenen Daten, verknüpfen, aufbereiten und auswerten sowie für statistische Zwecke anwenden (automatisierte Anwendung zur Datenanalyse). Die automatisierte Anwendung zur Datenanalyse ist ein technisches Hilfsmittel, das es den Polizeibehörden bei der Erfüllung ihrer Aufgaben nach Maßgabe der folgenden Absätze ermöglichen soll, ihre Bewertungen, Prognosen und Entscheidungen auf der Grundlage möglichst verlässlicher Tatsachenfeststellungen zu treffen. Sie erfolgt immer anhand anlassbezogener und zielgerichteter Suchkriterien. Sie wird manuell ausgelöst und läuft regelbasiert auf einer von Menschen definierten Abfolge von Analyse- und Verarbeitungsschritten ab. Eine direkte Anbindung an Internetdienste ist ausgeschlossen.

(2) Die Polizeibehörden können gespeicherte personenbezogene Daten mittels einer automatisierten Anwendung zur Datenanalyse weiterverarbeiten,

1.       wenn dies zur Abwehr einer Gefahr für den Bestand oder die Sicherheit des Bundes oder eines Landes oder Leib, Leben oder Freiheit einer Person oder Sachen von bedeutendem Wert, deren Erhaltung im öffentlichen Interesse geboten ist, oder wenn gleichgewichtige Schäden für die Umwelt zu erwarten sind, erforderlich ist (Abwehr konkreter Gefahren),

2.       …
(41) Rademacher/Perkowski, JuS 2020, 713 (714).
(42) BVerfG, Urt. v. 16.2.2023, - 1 BvR 1547/19/1 BvR 2634/20 -.
(43) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 27.
(44) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 28.
(45) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 29.
(46) Yuan, Künstliche Intelligenz, in: Ebers, Stichwort-Kommentar Legal Tech, 2023, Rn. 29.

Was bedeutet das europäische „KI-Gesetz“ für die Landwirtschaft – Anforderungen an den Einsatz von Hochrisiko-Systemen im Agrarsektor*

Das Europäische Parlament hat am 13.03.2024 das sogenannte „Gesetz über künstliche Intelligenz“(1 )– auch AI Act genannt – angenommen.(2) Rechtstechnisch handelt es sich um eine Verordnung, die den Einsatz von KI(3) sektor-übergreifend regeln soll. Die EU nimmt hier eine Vorreiterrolle ein, denn der AI Act ist „das weltweit erste verbindliche Gesetz zur künstlichen Intelligenz“(4). Durch den „Brüssel-Effekt“ sollen sich europäische Standards international etablieren.(5) Der AI Act hat die Zielsetzung, dem europäischen Grundrechtsschutz zu dienen und Innovation zu fördern.(6)

Wie funktioniert der AI- Act?

Die Verordnung ist ein Teil des Produktsicherheitsrechts, aber im Unterschied zum restlichen europäischen Produktsicherheitsrecht wird hier ein horizontaler Regulierungsansatz verfolgt.(7) Der AI Act knüpft verschiedene Anforderungen an den Einsatz von KI-Systemen in Abhängigkeit von deren Risikograd. Die Verordnung unterscheidet grundlegend zwischen vier Risikokategorien: unannehmbares Risiko, hohes Risiko, geringes Risiko(8) und minimales Risiko.(9) Je höher das Risiko eines KI-Systems, desto höher auch die Anforderungen an dessen Einsatz. Andere gesetzliche Anforderungen, die an den Einsatz eines Produkts oder einer Maschine gestellt werden, werden vom AI Act nicht berührt und müssen weiterhin eingehalten werden. Der AI Act erweitert damit den Kreis potenzieller Produktsicherheitsvorschriften.

Was sind Hochrisiko-Systeme?

Die Einstufung von KI-Systemen als Hochrisiko-Systeme richtet sich nach Art. 6 AI Act. Danach gibt es zwei Kategorien, nach denen ein KI-System als Hochrisiko-System eingestuft werden kann. Die erste Kategorie nach Art. 6 Abs. 1 AI Act sind solche Produkte oder Sicherheitskomponenten eines Produkts, die unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der EU fallen.(10) Die Harmonisierungsvorschriften in Anhang I umfassen u.a. Maschinen, Spielzeug und Medizinprodukte. Zusätzlich muss das entsprechende Produkt einer Konformitätsbewertung durch Dritte unterliegen.(11) Konformitätsbewertung meint, dass vor dem Inverkehrbringen eines Produkts eine Risikoanalyse durchzuführen ist und sichergestellt werden muss, dass das Produkt den anwendbaren Vorschriften entspricht. Für die Landwirtschaft relevant sind die in Anhang I aufgeführte, inzwischen durch die Maschinenverordnung(12) aufgehobene, Maschinenrichtlinie(13) und die Verordnung über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen(14).

Die zweite Kategorie umfasst solche KI-Systeme, die in Anhang III aufgeführt sind.(15) Dazu gehören etwa kritische Infrastruktur, Rechtspflege und demokratische Prozesse und Zugänglichkeit und Inanspruchnahme grundlegender privater und grundlegender öffentlicher Dienste und Leistungen. Eine Ausnahme gilt, wenn ein KI-System kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt.(16) Dies ist u.a. dann der Fall, wenn das KI-System dazu bestimmt ist, eine eng gefasste Verfahrensaufgabe durchzuführen oder das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern.(17) Eine Rückausnahme besteht für Fälle, in denen das KI-System ein Profiling natürlicher Personen vornimmt.(18) Ein Profiling natürlicher Personen dürfte bei KI-Anwendungen in der Landwirtschaft nicht häufig vorkommen, ist aber auch nicht völlig ausgeschlossen.

Welche Anforderungen müssen Hochrisiko-Systeme erfüllen?

Hochrisiko-Systeme müssen eine Reihe von Anforderungen erfüllen.(19) Dazu gehören etwa die Einrichtung eines Risikomanagementsystems(20), die Einhaltung der Anforderungen an Trainings-, Validierungs- und Testdatensätze,(21) die technische Dokumentation,(22) die Protokollierung,(23) die Einhaltung der Transparenzanforderungen,(24) die Möglichkeit der menschlichen Aufsicht,(25) die Einhaltung der Anforderungen an ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit,(26) die Einrichtung eines Qualitätsmanagementsystems(27) und Korrekturmaßnahmen sowie Informationspflichten nach dem Inverkehrbringen.(28) Die Anforderungen an KI-Systeme mit geringem oder minimalem Risiko sind deutlich schwächer.(29)

Wie wird KI in der Landwirtschaft eingesetzt?

KI kann in der Landwirtschaft in verschiedenen Bereichen eingesetzt werden. So sind etwa der Einsatz in der Ernte, der Unkrautbeseitigung, der Düngung und der Tierwohlüberwachung möglich.(30) KI kann dabei helfen, vor dem Ernteprozess Wild auf den Feldern zu erkennen, Schädlingsbefall von Pflanzen festzustellen oder die Bewässerung zu optimieren. Unterschiedlichste Anwendungen sind bereits im Einsatz und die Zahl der Forschungsvorhaben in diesem Bereich nimmt stetig zu.

Derzeit gibt es in Deutschland mehrere Förderprojekte, die sich mit der Digitalisierung der Landwirtschaft und dem Einsatz von KI und Robotik beschäftigen. Im Rahmen der Fördermaßnahme „Agrarsysteme der Zukunft“ vom BMBF werden acht Konsortien gefördert, die sich mit der Zukunftsgestaltung der Agrarproduktion  befassen.(31) Das Konsortium „DAKIS – Digitales Wissens- und Informationssystem für die Landwirtschaft“ nutzt Digitalisierung und Feldrobotik, um Ökosystemleistungen und Biodiversität in die Agrarproduktion zu integrieren.(32) Dabei beschäftigt sich z.B. ein Teilprojekt mit der Entwicklung von Daten und Sensorik, um ein Echtzeitmonitoring von Agrarökosystemen zu ermöglichen.(33) Ein weiteres Konsortium ist das Projekt Fahrerkabine 4.0, welches das Ziel hat, eine adaptive Mensch-Maschine-Schnittstelle für Landmaschinen zu entwickeln, um das aktuelle Beanspruchungslevel der Nutzenden zu erkennen.(34) Im Konsortium GreenGrass werden sogenannte „virtual herding technologies“ erprobt, die das Hüten und Lenken der Tiere in der Landschaft ohne Zäune ermöglichen.(35)

Welche Anwendungen aus der Landwirtschaft könnten unter den Begriff des Hochrisikosystems fallen?

Die Anwendung von KI in der Landwirtschaft ist bei der Konzeption des AI Act nicht bedacht worden. Dies spiegelt sich in der Schwierigkeit wider, Agrar-KI-Systeme unter den Begriff des Hochrisiko-Systems zu subsumieren. Es ist einem horizontalen Regelungsansatz immanent, dass bereichsspezifische Anwendungen und Probleme vom Regelungsrahmen nicht hinreichend berücksichtigt werden.

Für Agrar-KI-Systeme kommt eine Einstufung grundsätzlich nach Art. 6 Abs. 1 und Abs. 2 AI Act in Betracht. Für KI-gestützte Anwendungen in der Landwirtschaft besonders relevant sein dürfte, ob das KI-System ein Produkt oder eine Sicherheitskomponente eines Produkts nach der Verordnung über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen darstellt und einer Konformitätsbewertung durch Dritte unterliegt.  Die Verordnung gilt für verschiedene Zugmaschinen, Anhänger und gezogene auswechselbare Geräte.(36) In der Verordnung wird eine Konformitätsbewertung für das nationale behördliche Genehmigungsverfahren(37) und für die Marktüberwachungsmaßnahmen vorgeschrieben.(38) Ein KI-System wird selbst kein Fahrzeug im Sinne der Verordnung darstellen. Daher kommt eine Einstufung als Hochrisiko-System nur in Betracht, wenn das KI-System eine Sicherheitskomponente einer landwirtschaftlichen Zugmaschine, eines Anhängers oder eines gezogenen auswechselbaren Geräts im Sinne der Verordnung darstellt. In diesem Fall greifen die Anforderungen an Hochrisiko-Systeme dennoch nicht, weil gemäß Art. 6 Abs. 2 AI Act für die unter die in Anhang I Abschnitt B aufgeführten Harmonisierungsrechtsvorschriften fallen KI-systeme nur Art. 112 AI Act gilt.

Weiterhin kommt die Einstufung als Hochrisiko-System als Produkt oder Sicherheitskomponente nach der Maschinen-Richtlinie in Betracht. Nicht für alle Maschinen, die dem Anwendungsbereich der Maschinenrichtlinie unterfallen, muss eine Konformitätsbewertung durch Dritte durchgeführt werden. Dies gilt nur für die in Art. 12 Abs. 3 und 4 MaschinenRL genannten Verfahren.(39) Eine Einstufung als Hochrisiko-System kommt daher dann in Betracht, wenn das KI-System eine Sicherheitskomponente einer Maschine ist, die den Kategorien des Anhangs IV unterfallen. Für die Landwirtschaft relevant sein dürfte keine der aufgeführten Kategorien. Insbesondere die in den Nr. 1 – 5 genannten Arten von Sägemaschinen zur Holzbearbeitung nicht, da diese zum Holzabbau bestimmt sein müssen. KI-gestützte Robotik im Bereich der Baumpflege in Agroforstsystemen dürften mithin kein Hochrisiko-System nach Art. 6 Abs. 1 iVm Anhang I Nr. 1 AI Act darstellen.

Weiterhin in Betracht kommt eine Einstufung nach Art. 6 Abs. 2 AI Act. Es ist fraglich, ob die Landwirtschaft auch eine kritische Infrastruktur im Sinne von Anhang III Nr. 2 AI Act darstellt. Es liegt zunächst nahe, den Begriff der kritischen Infrastruktur auf die Landwirtschaft auszuweiten. So ist die Gewährleistung der Ernährungssicherheit doch ureigene Aufgabe der Landwirtschaft, und Produktionsausfälle bergen erhebliche Risiken. Eine solche Auslegung würde die Wortlautgrenze der Vorschrift aber überschreiten, denn in Anhang II Nr. 2 lit. a AI Act wird enumerativ aufgeführt, dass zur kritischen Infrastruktur nur solche KI-Systeme gehören, die bestimmungsgemäß als Sicherheitskomponenten im Rahmen der Verwaltung und des Betriebs kritischer digitaler Infrastruktur, des Straßenverkehrs sowie der Wasser-, Gas-, Wärme- und Stromversorgung verwendet werden sollen. Landwirtschaft und Lebensmittelproduktion werden eben nicht erwähnt. Deshalb stellt die Landwirtschaft keine kritische Infrastruktur im Sinne des AI Act dar.

Im Ergebnis dürften die wenigsten Agrar-KI-Systeme unter eine der beiden Hochrisiko-System-Kategorien des Art. 6 AI Act fallen. Die umfassenden Pflichten für solche System würden demnach für Agrar-KI-Systeme nicht gelten.

Welche Anforderungen müssen KI-Systeme erfüllen, wenn sie keine Hochrisiko-Systeme im Sinne des AI Act sind?

Zu den Anforderungen für KI-Systeme mit geringem Risiko zählen vor allem Transparenz- und Kennzeichnungspflichten.(40) Der Anwendungsbereich dieser Risiko-Kategorie ist erkennbar nicht auf die Landwirtschaft zugeschnitten und umfasst solche Systeme, die für die direkte Interaktion mit natürlichen Personen bestimmt sind (Art.  50 Abs. 1 S .1 AI Act). Ebenfalls umfasst sind sogenannte Deepfakes(41) und Emotionserkennungssysteme.(42) Die beiden letztgenannten Kategorien dürften in der Landwirtschaft nicht eingesetzt werden. Eine Einstufung nach der ersten Kategorie kommt in Betracht, wenn etwa ein Monitorings- oder Empfehlungssystem über ein Interface mit dem Benutzer interagiert. In diesen Fällen würde aber auch die Ausnahme des Art. 50 Abs. 1 S. 1 AI Act greifen, nach der solche Systeme von Transparenz- und Kennzeichnungspflichten ausgenommen sind, bei denen aus der Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass es sich um ein KI-System handelt. In Betracht käme noch die Einstufung als KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko nach Art. 51 AI Act.

Was bedeutet das für den zukünftigen Einsatz von KI in der Landwirtschaft?

Festzuhalten bleibt, dass viele KI-Anwendungen in der Landwirtschaft nicht vom Anwendungsbereich der KI-Verordnung erfasst sind. Dies bedeutet aber nicht, dass diese nicht umfangreichen rechtlichen Anforderungen unterlägen. So müssen die KI-Systeme so konzipiert sein, dass sie die Anforderungen des jeweiligen Fachrechts (z.B. das Gewässerschutzrecht, das Klimaschutzrecht, das Bodenschutzrecht und speziell das Dünge-, Pflanzenschutz- oder Tierschutzrecht) einhalten.

 Philipp Schöbel



* Dieser Beitrag ist entstanden im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekts „Agrarsysteme der Zukunft: DAKIS - Digitales Wissens- und Informationssystem für die Landwirtschaft".
(1) Europäisches Parlament, Legislative Entschließung des Europäischen Parlaments vom 13. März 2024 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)), abrufbar unter: https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_DE.html.
(2) Europäisches Parlament, Pressemitteilung v. 13.03.2024, abrufbar unter: https://www.europarl.europa.eu/news/de/press-room/20240308IPR19015/gesetz-uber-kunstliche-intelligenz-parlament-verabschiedet-wegweisende-regeln.
(3) Zum Begriff: Honer, Was ist eigentlich Künstliche Intelligenz ?, Beiträge zum Digitalrecht, abrufbar unter: https://www.rewi.europa-uni.de/de/lehrstuhl/or/verwaltrecht/Forschungsstelle-fuer-Digitalrecht/blog_digitalrecht/was_ist_ki/index.html.
(4) Europäisches Parlament, Pressemitteilung v. 13.03.2024.
(5) Vgl. Tagesschau, EU-Parlament macht Weg frei für KI-Gesetz, 13.03.2024, abrufbar unter: https://www.tagesschau.de/ausland/eu-parlament-ki-gesetz-100.html.
(6) Erwg. 1 AI Act; Feldkamp/Kappler/Poretschkin/Schmitz/Weiss, ZfDR 2024, 60, 87; Vgl. Rostalski/Weiss, ZfDR 2021, 329, 336;.
(7) Ebers, RDi 2021, 588.
(8) Teilweise wird in der Literatur das geringe Risiko als mittleres und das minimale als geringes Risiko bezeichnet: Bomhard/Merkle RDi 2021,  276, 282.
(9) Vgl. Roos/Weitz, MMR 2021, 844.
(10) Art. 6 Abs. 1 lit. a AI Act.
(11) Art. 6 Abs. 1 lit. b AI Act.
(12) Verordnung (EU) 2023/1230 des Europäischen Parlaments und des Rates vom 14. Juni 2023 über Maschinen und zur Aufhebung der Richtlinie 2006/42/EG des Europäischen Parlaments und des Rates und der Richtlinie 73/361/EWG des Rates, ABl. L 165/1.
(13) Richtlinie 2006/42/EG des Europäischen Parlaments und des Rates vom 17. Mai 2006 über Maschinen und zur Änderung der Richtlinie 95/16/EG, ABl. L 157/24.
(14) Verordnung (EU) 167/2013 des Europäischen Parlaments und des Rates vom 5. Februar 2013 über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen, ABl. L 60/1.
(15) Art. 6 Abs. 2 AI Act.
(16) Art. 6 Abs. 3 AI Act.
(17) Art. 6 Abs. 3 lit. a, b AI Act.
(18) Art. 6 Abs. 3 UAbs. 1 AI Act.
(19) Art. 8 Abs. 1 S. 1 AI Act.
(20) Art. 9 Abs. 1 AI Act.
(21) Art. 10 Abs. 1 AI Act.
(22) Art. 11 Abs. 1 AI Act.
(23) Art. 12 Abs. 1 AI Act.
(24) Art. 13 Abs. 1 S. 1 AI Act.
(25) Art. 14 Abs. 1 AI Act.
(26) Art. 15 Abs. 1 AI Act.
(27) Art. 17 Abs. 1 S. 1 AI Act.
(28) Art. 20 Abs. 1 S. 1 AI Act.
(29) Zur Darstellung der Pflichten bei geringem Risiko etwa: Rostalski/Weiss, ZfDR 2021, 329, 351.
(30) Vgl. Härtel, NuR 2020, 439, 441.
(31) BMBF, Agrarsysteme der Zukunft, Strategie- und Zukunftsprozess, abrufbar unter: https://agrarsysteme-der-zukunft.de/ueber-uns/historie.
(32) BMBF, DAKIS - Digitales Wissens- und Informationssystem für die Landwirtschaft, abrufbar unter: https://agrarsysteme-der-zukunft.de/konsortien/dakis.
(33) DAKIS, Über Dakis, abrufbar unter: https://adz-dakis.com/ueber-dakis/.
(34) BMBF, Fahrerkabine 4.0 | Onfield, abrufbar unter: https://agrarsysteme-der-zukunft.de/konsortien/fahrerkabine-40.
(35) BMBF, GreenGrass, abrufbar unter: https://agrarsysteme-der-zukunft.de/konsortien/greengrass.
(36) Art. 4 EU VO 167/2013.
(37) Art. 6 Abs. 2 EU VO 167/2013.
(38) Art. 7 Abs. 1 EU VO 167/2013.
(39) Art. 14 Abs. 1 MaschinenRL.
(40) Vgl. Art. 50 AI Act.
(41) Art. 50 Abs. 2 AI Act.
(42) Art. 50 Abs. 3 AI Act.

Offene Geodaten in der Landwirtschaft

I. Geodaten als „digitaler Rohstoff der Zukunft“

Die Digitalisierung erfasst ebenso die Landwirtschaft. Digitalgestützte Agraranwendungen bilden in der Regel die technische Grundlage des Precision Farmings. Hierunter wird eine „ortsdifferenzierte, zielgerichtete und variable Ausbringung von landwirtschaftlichen Betriebsmitteln und Ressourcen wie zum Beispiel Samen, Pflanzen, Dünger, Pestizide oder Wasser auf einem Feld oder Feldabschnitt“ verstanden.(1) Dadurch können der Ressourceneinsatz reduziert und Böden geschont werden. Precision Farming steigert daher nicht nur den landwirtschaftlichen Ertrag, sondern fördert die Transformation zu einer nachhaltigen Landwirtschaft.(2)

Anwendungen des Precision Farmings sind jedoch auf eine große Menge an Daten angewiesen.(3) Ein Baustein hierfür sind Geodaten.(4) § 3 Abs. 1 GeoZG definiert sie als Daten mit direktem oder indirektem Bezug zu einem bestimmten Standort oder geografischen Gebiet. Geodaten können beispielsweise Auskunft über die Hangneigung von Bergen, die Niederschlagshäufigkeit an einem Ort oder das Wasserhaltevermögen eines Bodens geben.(5) Sie stellen digitalen Agrarsystemen damit wertvolle Informationen über die topologischen, klimatischen und geologischen Anbaubedingungen von Agrarprodukten bereit. Mario Martini spricht mit Blick auf Geodaten daher treffend von einem „digitalen Rohstoff der Zukunft“(6). Dementsprechend forderte bereits im Jahr 2016 der Deutsche Bauernverband, dass offene Geo-Daten zu einem „Innovationstreiber“ in der Landwirtschaft werden können.(7) Geo-Daten sollten – so der Deutsche Bauernverband – Bund und Länder „kostenfrei, zeitnah und vollständig zugänglich sowie maschinenlesbar in einheitlichen und praxistauglichen Datenformaten nach gängigen interoperablen Standards verfügbar (…) machen.“(8)

II. Geodaten in der Landwirtschaft: Zugangsmöglichkeiten und Zugangsgrenzen

§ 5 Abs. 1 S. 1 GeoZG verpflichtet die Stellen des Bundes und der Länder dazu, die amtlichen Daten des Liegenschaftskatasters, der Geotopografie und des geodätischen Raumbezugs bereitzustellen. Die Behörden müssen hiernach keine neuen Geodaten erheben,(9) sondern lediglich bereits vorhandene Geodaten (digital) verfügbar machen (§ 11 Abs. 1 GeoZG).(10) Den Zugang hierzu stellt auf der Ebene des Bundes ein Geoportal her (§ 9 Abs. 2 GeoZG), das es ermöglicht, unter der Adresse „www.geoportal.de“ Geodaten im Internet abzurufen.(11) Die auf dieser Plattform verfügbaren Geodaten sind unter verschiedenen Rubriken einsehbar. Die Rubrik „Landwirtschaft“ gibt beispielsweise Auskunft über den Anteil der Bewässerung, der Mais-, Raps- oder Weizenfläche oder die Rinder- und Schweinedichte im Bundesgebiet. Für die Landwirtschaft dürften ebenso die Kategorien „Energie und Umwelt“, „Klima und Wetter“ sowie „Raum und Lage“ nützliche Informationen bereithalten. So können unter der Rubrik „Energie und Umwelt“ zum Beispiel Informationen über den Acker- und Waldboden abgerufen werden. Speziell die Karte über „Ackerbauliches Ertragspotential“ dürfte für die Betriebskalkulation von Landwirten unmittelbar von Interesse sein. In der Rubrik „Klima und Wetter“ finden sich etwa Angaben zu Niederschlagsmengen, die zur Ermittlung des Wasserbedarfs landwirtschaftlicher Flächen herangezogen werden können. Schließlich enthält die Rubrik „Raum und Lage“ ein digitales Höhlenmodell, auf dem die Geländehöhe für konkrete Flächen einsehbar ist. Die Ansichtsfelder bieten zudem die Möglichkeit, mehrere Kartenebenen miteinander zu verknüpfen. So können zum Beispiel Karten, die Angaben über Feldkapazitäten zum einen und ackerbauliches Ertragspotential zum anderen enthält, übereinander gelegt werden.

1. Zugangsanspruch

Für geodatenhaltende Stellen des Bundes beurteilt sich der Zugang zu Geodaten nach dem GeoZG. Gemäß § 11 Abs. 1 GeoZG sind Geodaten und Geodatendienste grundsätzlich(12) entgeltfrei zur Verfügung zu stellen.(13) Aufgrund des beschränkten Anwendungsbereichs des GeoZG auf geodatenhaltende Stellen des Bundes und der bundesunmittelbaren juristischen Personen des öffentlichen Rechts (§ 2 Abs. 1 GeoZG) gilt dies nicht für Geodaten der Länder. Für das Landesrecht räumen zwar entsprechende Landesvorschriften einen subjektiven Anspruch auf Zugang zu Geodaten ein.(14) Anders als der Bund gestalten die Länder diesen Zugangsanspruch häufig jedoch nicht kostenfrei aus.(15) Immerhin stellen für sie die Entgelte aus der Zur-Verfügung-Stellung von Geodaten nicht unbeträchtliche Einnahmequellen dar.(16)

Ein Anspruch auf Zugang zu Geodaten setzt voraus(17), dass die Geodaten

-          dem Hoheitsgebiet des Bundes zugeordnet sind,

-          in elektronischer Form existieren,

-          grundsätzlich bei der Behörde oder sonstigen geodatenhaltende Stelle vorhanden sind und noch gebraucht werden, womit Archivdaten  nicht in Betracht kommen(18),

-          und den Themen des § 4 Abs. 1 GeoZG zugeordnet werden können.

Für Precision-Farming-Anwendungen dürften insbesondere Informationen Relevanz besitzen, die die folgenden in § 4 Abs. 1 GeoZG aufgeführten Themen betreffen:

-          Flurstücke und Grundstücke (f),

-          das Gewässernetz (h),

-          den geografischen Standort von Gebäuden (o),

-          den Boden (p), insbesondere die Tiefe, Textur, Struktur und Gehalt an Teilchen sowie organischem Material, die Steinigkeit, Erosion, gegebenenfalls das durchschnittliche Gefälle und die erwartete Wasserspeicherkapazität,

-          die Bodennutzung, die derzeitige und künftig geplante Funktion wie zum Beispiel die Nutzung als land- oder forstwirtschaftliche Fläche (q),

-          landwirtschaftliche Anlagen und Aquakulturanlagen, insbesondere über landwirtschaftliche Anlagen und Produktionsstätten (v),

-          etwaige naturbedingte Risiken, zum Beispiel in Form von Überschwemmungen, Erdrutschen und Bodensenkungen, Lawinen, Waldbrände (y),

-          atmosphärische Bedingungen, also physikalische Bedingungen in der Atmosphäre (z),

-          meteorologische Konditionen wie Niederschlag, Temperatur, Gesamtverdunstung oder die Windgeschwindigkeit und Windrichtung (z1),

-          Informationen über spezifische ökologische Bedingungen einzelner Gebiete (z5),

-          die geografische Verteilung des Auftretens von Tier- und Pflanzenarten (z6),

-          die mineralischen Bodenschätze (z8)

2. Zugangsgrenzen

§ 12 GeoZG schränkt den Zugangsanspruch in mehrfacher Hinsicht ein.(19) Für Geodaten, die über Suchdienste abgerufen werden können iSd § 6 Abs. 1 Nr. 1 GeoZG, ist der Zugangsanspruch ausgeschlossen, wenn die Datennutzung „nachteilige Auswirkungen auf die internationalen Beziehungen, bedeutsame Schutzgüter der öffentlichen Sicherheit oder die Verteidigung haben kann“ (§ 12 Abs. 1 GeoZG). Für sonstige Netzdienste iSd § 6 Abs. 1 Nr. 2-5 GeoZG ist eine Bereitstellung von Geodaten gemäß § 12 Abs. 2 GeoZG nach Maßgabe von § 8 Absatz 1 sowie § 9 des Umweltinformationsgesetzes (UIIG) ausgeschlossen. Von besonderem Interesse ist dabei der von § 9 Abs. 1 Nr. 1 UIG gewährleistete Schutz personenbezogener Daten. Hiernach scheidet ein Zugang auf Geodaten aus, soweit durch das Bekanntgeben der Informationen personenbezogene Daten offenbart (a) und dadurch „Interessen der Betroffenen erheblich beeinträchtigt würden“ (b).(20)

a) Personenbezug

Personenbezogene Daten sind gemäß Art. 4 Nr. 1 DSGVO Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen.(21) Für die Identifizierbarkeit einer natürlichen Person ist wiederum zu berücksichtigen, ob die Heranziehung zusätzlicher Informationen „nach allgemeinem Ermessen wahrscheinlich“ ist.(22) Soll das Kriterium der Identifizierbarkeit typischen Gefährdungslagen für die informationelle Selbstbestimmung Rechnung tragen, spricht viel für eine typisierte Betrachtung, die die Kriterien der Zumutbarkeit und Vorhersehbarkeit miteinander kombiniert. Dementsprechend sind nicht nur die Möglichkeiten der datenverarbeitenden Stelle („relative Theorie“) oder die Kenntnisse irgendeines Dritten („absolute Theorie“) zu berücksichtigen.(23) Stattdessen sind – im Anschluss an die nunmehr (wohl) herrschende Meinung – auf all diejenigen Mittel abzustellen, die die datenverarbeitende Stelle oder eine andere Person „nach allgemeinem Ermessen wahrscheinlich nutzen werden.“(24) Nach der Auffassung des EuGH müssen die dabei gebrauchten Mittel allerdings rechtlich zulässig und vernünftig sein.(25)

Auf der Grundlage dieses weiten Verständnisses des Personenbezuges dürfte es sich bei zahlreichen Geodaten um personenbezogene Daten handeln. Zwar zielen Geodaten nicht auf personelle Informationen, lassen aber gewissermaßen „bei Gelegenheit“ Rückschlüsse auf eine Person zu.(26) Das gilt insbesondere dann, wenn Geodaten systematisch unter Rückgriff auf Big Data ausgewertet werden. Hier dürften bereits geringe Datenmengen ausreichen, um Schlüsse über den Datenurheber, vorliegend: den landwirtschaftlichen Betrieb, zuzulassen(27).

Das betrifft insbesondere betriebliche Basisdaten, also Informationen über die Lage, die Größe und zum Beispiel den Viebestand eines landwirtschaftlichen Betriebes.(28) Gleiches kann für Luft- und Satellitenaufzeichnungen angeführt werden, die im Privateigentum befindliche Grundstücke abbilden und zum Beispiel mit einer Adresse verknüpft oder sie durch die Zuweisung von raumbezogener Informationen georeferenziert werden.(29) Im ersten Fall sind rechtliche Eigenschaften und Beziehungen von Privaten betroffen. Im zweiten Fall können tatsächliche Einblicke in das Privatleben individualisierbarer Personen gewonnen werden, was die Zuordnung zu personenbezogenen Daten rechtfertigt. Auch bei sonstigen kleinräumigen Geodaten werden sich Informationen auf einzelne Grundstücke beziehen lassen, weshalb von einem Personenbezug auszugehen ist.(30) Das ist beispielsweise anzunehmen für Bodeninformationen, also Daten über die Tiefe, Textur, Struktur des Bodens oder dessen Anteil an organischem Material, seine Steinigkeit oder die erwartete Wasserspeicherkapazität. Sofern diese Daten auf konkrete Grundstücke bezogen werden können, lassen sie durchaus einen Rückschluss auf Verhaltensweisen, etwa Anbau- und Produktionsverfahren, zu und sind daher als personenbezogene Daten zu qualifizieren.(31) Hier können allenfalls Aggregierungen den Personenbezug nehmen, indem grundstücksbezogene Daten von mehreren Grundstücken zusammengefasst werden.(32)

Im Zweifelsfall sollte von einem Personenbezug ausgegangen werden. Dafür spricht zum einen ein größtmöglicher Schutz grundrechtlicher Rechtspositionen und Interessen der von der Datenverarbeitung betroffenen Personen. Zum anderen ist in Rechnung zu stellen, dass zahlreiche Informationen im Lichte niedrigschwellig verfügbarer Big Data häufig Rückschlüsse auf natürliche Personen zulassen.(33)

b) Interessenabwägung (§ 12 Abs. 2 GeoZG iVm § 9 Abs. 1 Nr. 1 UIG)

Handelt es sich um personenbezogene Daten, ist der Zugang gemäß § 12 Abs. 2 GeoZG iVm § 9 Abs. 1 Nr. 1 UIG nur ausgeschlossen, wenn dadurch „Interessen der Betroffenen erheblich beeinträchtigt würden“. Das macht eine Interessenabwägung im konkreten Einzelfall erforderlich.(34) Dabei sind die Belastungsintensität des durch die Datenverarbeitung hervorgerufenen Grundrechtseingriffs einerseits gegen das öffentliche Bereitstellungsinteresse sowie private Nutzungsinteresse an den Daten andererseits gegeneinander abzuwägen.(35)

Für eine erhöhte Belastungsintensität wird man berücksichtigen müssen, dass die Betroffenen der Datenerhebung in der Regel nicht ausweichen können und zudem für die Datenerhebung häufig keine Veranlassung gegeben haben.(36) Hinzu tritt der Umstand, dass Geodaten gewöhnlich ohne Kenntnis der betroffenen Personen erhoben und verarbeitet werden.(37) Angesichts der erwartbaren mehrfachen Verwendung der Daten wird man ferner Summierungseffekte einkalkulieren müssen.(38) Die Figur des additiven Grundrechtseingriffs(39), die jüngst auch vom Bundesverfassungsgericht Berücksichtigung fand(40), bietet die dogmatische Grundlage dafür.(41)

Gegen eine erhöhte Belastungsintensität ließe sich demgegenüber im Anschluss an den in der bundesverfassungsgerichtlichen Rechtsprechung etablierten Sphären-Gedanken berücksichtigen(42), dass die Daten aufgrund ihres Gebietsbezugs einen allenfalls geringen Aufschluss über persönlichkeitsbildende Faktoren geben, im Sinne der Sphären-Theorie häufig nur der Sozialsphäre entstammen.(43) Auch wenn die Aussagekraft der Sphärentheorie angesichts automatisierter Datenverarbeitung und spätestens seit Big Data nicht überbewertet werden darf(44), bleibt sie als ein Abwägungsfaktor relevant. Sind die Daten ferner bereits öffentlich verfügbar, ist dies ebenso ein Indikator für einen nur geringen Eingriff.(45) Daneben kann von einer geringen Belastungsintensität ausgegangen werden, sofern und soweit die Daten durch eine Verpixelung hinreichend anonymisiert wurden.(46)

Auf Seiten der mit der Datenverwendung verbundenen Interessen wird man hingegen auf den Gedanken der Ressourcenschonung abstellen können(47), der mittelbar einen umwelt- und naturschützenden Effekt besitzt und damit sogar verfassungsrechtlichen Schutz genießt. Das Ziel einer erhöhten landwirtschaftlichen Produktivität und effizienten und damit nachhaltigen Ressourcennutzung genießt mit Art. 39 I lit. a AEUV sowie Art. 11 AEUV auch unionsrechtlichen Rang. Insoweit wird es zukünftig darauf ankommen, den Nutzeffekt verschiedener Geodaten für eine ressourcenschonende Landwirtschaft zu konkretisieren, um über handfestere Abwägungsfaktoren zu verfügen.

IV. Fazit

Der Zugang zu Geodaten leidet gegenwärtig daran, dass sich hinsichtlich des Personenbezuges von Geodaten nur in begrenztem Umfang allgemeinverbindliche Aussagen treffen lassen. Dadurch lässt es sich nur schwer vorhersehen, welche Zugangsgrenzen für den Zugang zu Geodaten existieren. Selbst dort, wo der Personenbezug bejaht wird, ist die Grenzziehung des Zugangsanspruchs im konkreten Einzelfall von komplexen Abwägungs- und Wertungsfragen abhängig,(48) grundsätzliche Aussagen zu Grenzen des Zugangsanspruchs sich also nur schwer treffen lassen. Der Mangel an allgemeinverbindlichen Aussagen zur Reichweite des Zugangsanspruchs verschärft sich angesichts der unterschiedlichen Regelungsstandards in Bund und Ländern. Das betrifft insbesondere den Grad der Beeinträchtigung der Interessen des von der Offenlegung personenbezogener Daten Betroffenen.(49) Der von der Praxis geforderte niedrigschwellige und standardisierte Zugang zu Geodaten ist gegenwärtig also noch nicht gewährleistet.

 



* Dieser Beitrag ist entstanden im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekts „Agrarsysteme der Zukunft: DAKIS - Digitales Wissens- und Informationssystem für die Landwirtschaft“.

(1)Lea Kliem et al., Digitalisierung der Landwirtschaft, Chancen und Risiken für den Natur- und Umweltschutz, Schriftenreihe des IÖW 222/22, S. 16.
(2) Boll, Was KI für eine nachhaltige Entwicklung leisten kann, Digitale Welt 2022, 20; Boll, S./Schnell, M. et al., Mit Künstlicher Intelligenz zu nachhaltigen Geschäftsmodellen, S. 8 f.; Härtel, NuR 2020, 439 (441); Svenja Mohr/Rainer Kühl, in: M. Gandorfer et al. (Hrsg.), Digitalisierung für Mensch, Umwelt und Tier, 2020, S. 193 (194); Wilde-Detmering, Der Tracker im Trecker – Rechtliche Herausforderungen auf dem Weg zur Landwirtschaft 4.0, InTeR 2019, 174 (175).
(3) Härtel, NuR 2020, 439 (442).
(4) Härtel, NuR 2019, 577 (582).
(5) Vgl. Deutscher Bauernverband, Landwirtschaft 4.0 – Chancen und Handlungsbedarf, 2016, S. 2.
(6) Martini, Geodaten als Rohstoff der digitalen Welt, in: ders./Georg Thiel/Astrid Röttgen (Hrsg.), Geodaten und Open Government – Perspektiven digitaler Staatlichkeit, 2014, S. 1.
(7) Deutscher Bauernverband, Landwirtschaft 4.0 – Chancen und Handlungsbedarf, 2016, S. 2.
(8) Deutscher Bauernverband, Landwirtschaft 4.0 – Chancen und Handlungsbedarf, 2016, S. 2.
(9) Neumann/Neumann, BauR 2017, 26 (36).
(10) Neumann/Neumann, BauR 2017, 26 (37).
(11) Siehe ausf. Kutterer, Geoportal.de – Schaufenster der GDI-DE, in: Martini/Georg Thiel/Astrid Röttgen (Hrsg.), Geodaten und Open Government – Perspektiven digitaler Staatlichkeit, 2014, S. 15 ff.
(12) Vorbehaltlich der Vorschrift des § 12 Abs. 1 und 2 GeoZG.
(13) Vgl. auch Damm, Der Zugang zu staatlichen Geodaten als Element der Daseinsvorsorge, 2017, S. 198.
(14) Vgl. § 5 Abs. 1 S. 2 GeoZG Bbg; § 5 Abs. 1 S. 2 GeoZG NRW; Damm, Der Zugang zu staatlichen Geodaten als Element der Daseinsvorsorge, 2017, S. 199–203.
(15) Vgl. § 13 Abs. 1 GeoZG NRW; Neumann/Neumann, BauR 2017, 26 (37 f.).
(16) Martini, Geodaten als Rohstoff der digitalen Welt, in: ders./Georg Thiel/Astrid Röttgen (Hrsg.), Geodaten und Open Government – Perspektiven digitaler Staatlichkeit, 2014, S. 1 (3).
(17) Siehe zu diesen Kriterien Neumann/Neumann, BauR 2017, 26 (32).
(18) Neumann/Neumann, BauR 2017, 26 (28 f.).
(19) Siehe dazu Neumann/Neumann, BauR 2017, 26 (39 ff).
(20) Neumann/Neumann, BauR 2017, 26 (40) weisen darauf hin, dass die Länder diesen zugangsfreundlichen Ansatz teilweise nicht umgesetzt haben, wo teilweise jede Beeinträchtigung der Interessen des Betroffenen genügen soll, um den Zugangsanspruch zu verwehren, siehe zB nur § 12 Abs. 3 Nr. 1 GeoZG Bbg. Kritisch zum Regelungsansatz des Bundes Polenz, NVwZ 2010, 485 (487), da eine erhebliche Beeinträchtigung der Rechte des Betroffenen von Art. 13 II 2 der INSPIRE-Richtlinie nicht gefordert wird.
(21) Zum Begriff des Personenbezugs bzw. der Personenbeziehbarkeit siehe auch Hermerschmidt, Geodaten als personenbezogene Daten, in: Martini/Georg Thiel/Astrid Röttgen (Hrsg.), Geodaten und Open Government – Perspektiven digitaler Staatlichkeit, 2014, S. 81 (85 ff.).
(22) Siehe nur Schild, in: Wolff/Brink (Hrsg.), Datenschutzrecht, 2. Aufl. (2022), Art. 4 DS-GVO Rn. 15.
(23) Siehe ausführlich zu den unterschiedlichen Theoriesträngen („relative“ und „absolute Theorie“), die hinsichtlich der Anforderungen an die Bestimmbarkeit vertreten werden m. w. N. Eßer, in: ders./Kramer/v. Lewinski (Hrsg.), DSGVO-BDSG, 7. Aufl. (2020), Art. 4 Rn. 20; Karg, in: Simitis/Hornung/Spiecker (Hrsg.), Datenschutzrecht, 2019, Art. 4 Nr. 1 DSGVO, Rn. 58–60 sowie Ziebarth, in: Sydow/Marsch (Hrsg.), DS-GVO/BDSG, 3. Aufl. (2022), Art. 4 DS-GVO Rn. 33–40.
(24) Karg, in: Simitis/Hornung/Spiecker (Hrsg.), Datenschutzrecht, 2019, Art. 4 DSGVO Rn. 61; dafür auch Klar/Kühling, in: DSGVO-BDSG, 2. Aufl. (2018), Art. 4 DSGVO Rn. 26.
(25) EuGH, 19.10.2016, ECLI:EU:C:2016:779, Rn. 49; siehe dazu auch Karg, in: Simitis/Hornung/Spiecker (Hrsg.), Datenschutzrecht, 2019, Art. 4 DSGVO Rn. 61.
(26) Damm, Der Zugang zu staatlichen Geodaten als Element der Daseinsvorsorge, 2017, S. 343 f.
(27) Härtel, Gutachten zum Thema „Europäische Leitlinien bzw. Regeln für Agrardaten“, 2020, S. 35.
(28) Vgl. auch Härtel, Gutachten zum Thema „Europäische Leitlinien bzw. Regeln für Agrardaten“, 2020, S. 32.
(29) Klar/Kühling, in: DSGVO-BDSG, 2. Aufl. (2018), Art. 4 DSGVO Rn. 38; siehe dazu Damm, Der Zugang zu staatlichen Geodaten als Element der Daseinsvorsorge, 2017, S. 351–355.
(30) Hermerschmidt, Geodaten als personenbezogene Daten, in: Martini/Georg Thiel/Astrid Röttgen (Hrsg.), Geodaten und Open Government – Perspektiven digitaler Staatlichkeit, 2014, S. 81 (87).
(31) So auch Härtel, Gutachten zum Thema „Europäische Leitlinien bzw. Regeln für Agrardaten“, 2020, S. 31 f.
(32) Weichert, DuD 2009, 347 (351) schlägt die Zusammenfassung der Daten von 10 Grundstücken vor; ähnlich auch Schild, in: Wolff/Brink (Hrsg.), Datenschutzrecht, 2. Aufl. (2022), Art. 4 DS-GVO Rn. 23.
(33) Härtel, Gutachten zum Thema „Europäische Leitlinien bzw. Regeln für Agrardaten“, 2020, S. 32.
(34) Polenz, NVwZ 2010, 485 (487).
(35) Haase, Datenschutzrechtliche Fragen des Personenbezugs, 2015, S. 103 f; Polenz, NVwZ 2010, 485 (487); ausführlich zu verschiedenen Abwägungstopoi im Rahmen der Verarbeitung von Geodaten siehe Klar, Datenschutzrecht und die Visualisierung des öffentlichen Raums, 2012, S. 85 ff.
(36) Klar, Datenschutzrecht und die Visualisierung des öffentlichen Raums, 2012, S. 90.
(37) Damm, Der Zugang zu staatlichen Geodaten als Element der Daseinsvorsorge, 2017, S. 344 f.
(38) Dafür auch Klar, Datenschutzrecht und die Visualisierung des öffentlichen Raums, 2012, S. 92 ff.; Wicker, MMR 2012, 788 (790 f.).
(39) Brade, Additive Grundrechtseingriffe – ein Beitrag zur Grundrechtsdogmatik, 2020, passim.
(40) BVerfG, 19.11.2021, 1 BvR 971/21, Rn. 137: Berücksichtigung der „Gesamtbelastung“ der pandemiebedingten Grundrechtseingriffe für die Ermittlung der Intensität eines Grundrechtseingriffs.
(41) Vgl. auch Wicker, MMR 2012, 788 (790).
(42) In diesem Sinne bereits BVerfGE 65, 1 (45): „(…) insoweit gibt es unter den Bedingungen der automatischen Datenverarbeitung kein ‚belangloses‘ Datum mehr.“ Hierzu und zur Sphärentheorie siehe Haase, Datenschutzrechtliche Fragen des Personenbezugs, 2015, S. 106 f.
(43) Sowohl für die Berücksichtigung des Sphärengedankens als auch des Sensibilitätsgrades der Daten Klar, Datenschutzrecht und die Visualisierung des öffentlichen Raums, 2012, S. 85–87.
(44) Zur eingeschränkten Aussagekraft der Sphärentheorie Haase, Datenschutzrechtliche Fragen des Personenbezugs, 2015, S. 106 f.
(45) Neumann/Neumann, BauR 2017, 26 (41).
(46) So auch Weichert, DuD 2009, 347 (351), der davon ausgeht, dass „bei Orthofotos ab einer Pixelgröße von 40 cm oder einer Kartendarstellung in einem Maßstab von 1:10.000 und gröber“ in der Regel keine schutzwürdigen Belange verletzt werden, „wenn nicht besondere Umstände hinzukommen wie z.B. eine umfangreiche Datenverschneidung oder die Darstellung sensibler Sachverhalte.“
(47) Für eine Berücksichtigung der gesellschaftlichen Relevanz des Datenumgangs im Rahmen der Abwägung Klar, Datenschutzrecht und die Visualisierung des öffentlichen Raums, 2012, S. 91.
(48) Neumann/Neumann, BauR 2017, 26 (41)
(49) Neumann/Neumann, BauR 2017, 26 (41).