CommonSenseTV Werden Sie real!

Unterstützen Sie die echten Neuigkeiten!

Unser Facebook, Twitter und Telegramm

Bedenken der EU hinsichtlich des sozialen Scorings in der KI

Die EU ist besorgt über das soziale Scoring in der KI, aber eine Teilung der Gesellschaft durch die Einführung von VaciNAZI-Beweisen ist anscheinend von geringerer Bedeutung.

„Den neuen Vorschlägen zufolge gelten KI-Anwendungen, mit denen Regierungen soziale Bewertungen durchführen oder Kinder ausbeuten können, als„ inakzeptables Risiko “. Bewerbungen für Personalbeschaffung, kritische Infrastruktur, Kreditvergabe, Migration und Strafverfolgung fallen in die Kategorie „hohes Risiko“ und unterliegen strengen Sicherheitsvorkehrungen.

EYVOR INSTITUT | Governance-Strategien für eine nachhaltige digitale Welt

Die Europäische Kommission hat Vorschriften für den Einsatz künstlicher Intelligenz (KI) im Rahmen eines risikobasierten Rechtsrahmens vorgeschlagen, der hohe Geldbußen, teilweise Aufsichtsverbote und Schutzmaßnahmen für Anwendungen mit hohem Risiko vorsieht.

Unternehmen, die gegen Regeln verstoßen, die die Verwendung von "inakzeptabler" KI verbieten oder sich nicht an einige halten " strenge Verpflichtungen Nach dem von Brüssel am Mittwoch angekündigten Regelungsentwurf könnten bis zu 6% des weltweiten Umsatzes oder 30 Mio. EUR (je nachdem, welcher Wert höher ist) mit einer Geldstrafe belegt werden.

KI ist ein Mittel, kein Zweck. Es gibt es schon seit Jahrzehnten, aber es hat neue Fähigkeiten erreicht, die durch Rechenleistung angetrieben werden. Dies bietet ein enormes Potenzial in so unterschiedlichen Bereichen wie Gesundheit, Verkehr, Energie, Landwirtschaft, Tourismus oder Cybersicherheit. Es birgt auch eine Reihe von Risiken mit ihm “, sagte Binnenmarktkommissar Thierry Breton.

Breton sagte, die Vorschläge zielten darauf ab, die Position Europas als " globales Erfahrungszentrum für KI vom Labor bis zum Markt "Und um sicherzustellen, dass KI in Europa" respektiert unsere Werte und Regeln ".

Der Ausschuss muss nun die Einzelheiten mit den EU-Mitgliedstaaten und dem Europäischen Parlament erarbeiten, bevor die Regeln in Kraft treten können. Dieser Prozess kann Jahre dauern.

 

In ihrem Vorschlag skizziert die EU einen „personenbezogenen“ Ansatz, der sowohl das Versprechen der Technologie nutzt als auch verhindert, dass sie strenge Datenschutzgesetze verletzt und durchsetzt. betrouwbaar Hält „Technologien werden nach dem Potenzial für schädliche Auswirkungen eingestuft - von direkten Verboten bis hin zu begrenzten und minimalen Risiken.

Nach den neuen Vorschlägen werden KI-Anwendungen, die es Regierungen ermöglichen, soziale Bewertungen vorzunehmen oder Kinder auszubeuten, als „inakzeptables Risiko“ angesehen. Bewerbungen für Personalbeschaffung, kritische Infrastruktur, Kreditvergabe, Migration und Strafverfolgung fallen in die Kategorie „hohes Risiko“ und unterliegen strengen Sicherheitsvorkehrungen.

Chip im menschlichen Körper. Wie, warum und was können Sie damit machen? | Peter Joosten

Alle biometrischen Fernidentifikationssysteme gelten ebenfalls als riskant, mit Ausnahme von “ unbedingt erforderlich "Fälle wie die Suche nach vermissten Kindern und die Prävention von" spezifischer und unmittelbarer Terrorist Bedrohungen.

Die Verwendung dieser Massenüberwachungsanträge sollte von einem Gericht oder einer unabhängigen Aufsichtsbehörde genehmigt und auf bestimmte Zeiten und Bereiche beschränkt werden.

Die Kategorie „begrenztes Risiko“ erfordert spezifische Transparenzverpflichtungen. Beispielsweise sollten Benutzer, die mit "Chatbots" interagieren, informiert werden, aber die überwiegende Mehrheit der KI-Systeme, wie Spamfilter und Videospiel-KI, fällt in die Kategorie "minimales Risiko", die nicht von den neuen Regeln abgedeckt wird.

In dem Vorschlag wird auch die Schaffung eines Europäischen Ausschusses für künstliche Intelligenz gefordert, um die Umsetzung der Regeln und die Entwicklung von KI-Standards zu erleichtern.

Die Aktivistengruppe European Digital Rights (EDRI) begrüßte den Vorschlag, warnte jedoch davor, dass er nicht weit genug gehe. obwohl es Ist "positiv" dass die Kommission anerkennt, dass einige Verwendungen von KI nicht akzeptabel sind, verbietet die Rechnung "Nicht das volle Ausmaß von" inakzeptable Verwendung "Insbesondere alle Formen der biometrischen Massenüberwachung"  Sarah Chander, eine Expertin für KI-Politik bei EDRI, sagte.

Die Vorschriften lassen zu viel Raum für Selbstregulierung durch Unternehmen, die von KI profitieren. Menschen, nicht Unternehmen, sollten im Mittelpunkt dieser Verordnung stehen ", Fügte Chander hinzu.

 

Ihre Kinder sind auf einen Chip vorbereitet

5 2 Abstimmung
Artikelrezension

Komm zu unserem Telegrammkanal

Folgen Sie uns auf Twitter und Facebook

Abonnieren
Abonnieren Sie
Gast
Kann Ihr richtiger Name oder ein Pseudonym sein
Nicht benötigt
4 Kommentare
älteste
neueste am meisten gestimmt
Inline-Feedbacks
Alle Kommentare anzeigen
CommonSenseTV
Dutch NL English EN French FR German DE Spanish ES
4
0
Wie reagieren Sie darauf?x
Zurück nach oben