Mittwoch, Dezember 25, 2024

Become a member

Get the best offers and updates relating to Liberty Case News.

― Advertisement ―

spot_img
StartEconomyDeutschlands Position liegt nahe an der des Europäischen Parlaments - EURACTIV.com

Deutschlands Position liegt nahe an der des Europäischen Parlaments – EURACTIV.com

Interinstitutionelle Verhandlungen zur Regulierung künstlicher Intelligenz (KI-Gesetz) wird später im Jahr erwartet. Während der Rat der Europäischen Union seine Position festlegte, äußerte Deutschland in einigen Punkten Vorbehalte, die der Position des Europäischen Parlaments näher stehen als der Position anderer Mitgliedstaaten.

Die europäischen Minister, die sich am 6. Dezember beim Telekommunikationsrat trafen, bekräftigten ihre Unterstützung für den allgemeinen Ansatz der Verordnungen zur künstlichen Intelligenz (KI), bei denen es sich um Rechtsvorschriften handelt, die darauf abzielen, künstliche Intelligenz entsprechend ihrem Schadenspotenzial zu regulieren.

Während er den Kompromiss begrüßte, wies Bundesdigitalminister Volker Wessing darauf hin „Verbesserungen sind noch möglich“. Er möchte auch, dass die Kommentare Deutschlands bei den Verhandlungen mit dem Europäischen Parlament und der Europäischen Kommission berücksichtigt werden – einer Phase, die als „Trilateral“ bezeichnet wird.

Die Wahl der Elemente, die Berlin bei diesen Probeläufen weiter vorbringen wird, kann während der Verhandlungen entscheidend sein, insofern Europas größtes Land den Abgeordneten erlauben kann, das Gleichgewicht im Rat zu bestimmen.

Biometrie

Deutschland unterstützt ein vollständiges Verbot der biometrischen Erkennungstechnologie, wie bereits in erwähntKoalitionsvertrag 2021 von den drei Regierungsparteien des Landes unterzeichnet. Dies ist auch ein Grundnahrungsmittel für die Ko-Berichterstatter des Parlaments.

Laut schriftlichen Kommentaren, die im Oktober eingereicht und EURACTIV vorliegen, ist Berlin jedoch nur dafür, die biometrische Echtzeit-Identifizierung an öffentlichen Orten zu verbieten. Sie möchte jedoch die Erlaubnis zur Identifizierung Suffix.

Gleichzeitig behalten sich die Deutschen vor, sich zu einem späteren Zeitpunkt im Verlauf der Diskussion eingehender zu der Angelegenheit zu äußern.

Darüber hinaus wollte Deutschland, dass sich die Definition biometrischer Daten mit der Definition in der EU-Datenschutz-Grundverordnung (DSGVO) überschneidet, um terminologische Unterschiede zu vermeiden und biometrische Klassifizierungssysteme als hohes Risiko einzustufen.

Predictive Policing und Emotionserkennung

Ein weiteres umstrittenes Thema ist die Anwendung von Systemen der künstlichen Intelligenz in Strafverfahren. In derselben Reihe von Kommentaren drängte Berlin darauf, jede KI-App zu verbieten, die menschliche Richter bei der Bewertung des Risikos einer Person, eine Straftat zu begehen oder zu wiederholen, ersetzt.

Siehe auch  Federal investigators study AmEx card selling practices

Diese KI-Anwendungen wurden in der endgültigen Vereinbarung des Vorstands einfach in die Hochrisikokategorien aufgenommen. Allerdings scheint es im Europäischen Parlament starke Unterstützung für ein vollständiges Verbot dieser Praktiken zu geben.

Die Deutschen wollten auch Systeme der künstlichen Intelligenz, die von Behörden als Polygraphen – auch Lügendetektoren genannt – oder andere Instrumente zur Identifizierung von Emotionen verwendet werden, in die Liste der verbotenen Praktiken aufnehmen. Sie forderten auch, alle anderen Emotionserkennungssysteme als hohes Risiko einzustufen.

Strafverfolgung

Der Text des EU-Rates machte mehrere wichtige Ausnahmen von der Durchsetzung. Der deutsche Ansatz bestand unterdessen im Großen und Ganzen darin, strengere Schutzmaßnahmen für die von Strafverfolgungsbehörden eingesetzte künstliche Intelligenz einzuführen.

Berlin forderte zudem, solche Apps von der „Zwei-Mann-Regel“ auszunehmen, wonach die menschliche Überwachung von mindestens zwei Personen erfolgen muss. Als Grund wird angegeben, dass in vielen Fällen nur ein Agent benötigt wird, um die Entscheidung zu treffen.

Diese Diskrepanz ist wahrscheinlich darauf zurückzuführen, dass die Kommentarliste aus verschiedenen Ministerien stammt, die von verschiedenen Koalitionsmitgliedern geleitet werden. Es ist nicht immer klar, welche Ansicht des Ministeriums zu einem bestimmten Thema vorherrschte, was die deutsche Position für die EU-Politiker schwer interpretierbar macht.

Die Bundesregierung hat in den Verhandlungen gefordert, die Sicherheits- und Einwanderungsbestimmungen von Amnesty International in einem eigenen Vorschlag zusammenzuführen. Dieser Ansatz, der einen separaten öffentlichen Gesetzgebungsvorschlag erfordern würde, hat bisher wenig Beachtung gefunden.

Künstliche Intelligenz am Arbeitsplatz

Die Bundesregierung hat auch darauf gedrängt, jedes System künstlicher Intelligenz zu verbieten, das darauf abzielt, die Leistung und das Verhalten von Mitarbeitern ohne konkreten Anlass systematisch zu überwachen. Diese Überwachung führt zu psychischem Druck, der sie daran hindert, frei zu handeln.

Siehe auch  Angesichts des Klimawandels trainieren Wissenschaftler Kühe zur Toilette

„Diese KI-Systeme können die Leistung und das Verhalten von Mitarbeitern genau verfolgen, Wahrscheinlichkeiten für die Kündigung oder Produktivität von Mitarbeitern generieren, Mitarbeiter mit einem negativen Klima kennzeichnen und schließlich Mitarbeiterprofile vervollständigen.“können wir im Kommentar lesen.

In der allgemeinen Ausrichtung konnte Deutschland einen Hinweis darauf erhalten, dass es den Mitgliedstaaten weiterhin freisteht, auf nationaler Ebene Maßnahmen zu ergreifen, um spezifischere Regeln für KI am Arbeitsplatz festzulegen. Ähnliche Formulierungen wurden zum Jugendschutz eingeführt.

Hohe Risikobewertung

Der tschechischen Ratspräsidentschaft ist es gelungen, eine zusätzliche Stufe der Hochrisikoeinstufung einzuführen. Daher wird KI nicht nur aufgrund ihres Anwendungsbereichs als erhebliches Risiko angesehen, sondern auch, wenn sie hilft, den Entscheidungsprozess zu beeinflussen.

Die Deutschen widersprachen diesem Vorgehen mit dem Hinweis, dass KI-Anbieter die unterschiedlichen Nutzungen nicht antizipieren könnten. Es unterstreicht auch die fehlende Verpflichtung für Systemanbieter, die kein hohes Risiko eingehen, zu erklären, wie sie zu einer solchen Einstufung gekommen sind.

Berlin machte weitere Vorschläge dazu, welche KI-Anwendungen als risikoreich einzustufen sind. Dazu gehören emissionsintensive Industrien, die Abwasserentsorgung, Sicherheitskomponenten kritischer digitaler Infrastrukturen und öffentliche Warnsysteme für extreme Wetterereignisse.

Weitere Vorschläge in der Liste der Anwendungen mit hohem Risiko umfassen Systeme mit künstlicher Intelligenz, die zur Zuweisung von Sozialwohnungen, zum Inkasso von Schulden und zur Bereitstellung personalisierter Tarife verwendet werden. Diese Apps schaden wahrscheinlich bereits den Schwächsten.

[Édité par Anne-Sophie Gayet]