header-logo

Künstliche Intelligenz getriebene Marketingkommunikation

iCrowdnewswire German

KI-Systeme sollten nach Ansicht der EU rechenschaftspflichtig, erklärbar und unvoreingenommen sein

Apr 18, 2019 4:07 AM ET

Die Europäische Union hat heute eine Reihe von Richtlinien veröffentlicht, wie Unternehmen und Regierungen ethische Anwendungen künstlicher Intelligenz entwickeln sollten.

Diese Regeln sind nicht wie die „Drei Gesetze der Robotik“ von Isaac Asimov. Sie bieten keinen bissigen, moralischen Rahmen, der uns helfen wird, mörderische Roboter zu kontrollieren. Stattdessen befassen sie sich mit den trüben und diffusen Problemen, die sich auf die Gesellschaft auswirken werden, wenn wir AI in Sektoren wie Gesundheitswesen, Bildung und Verbrauchertechnologie integrieren.

Wenn zum Beispiel ein KI-System Sie irgendwann in der Zukunft mit Krebs diagnostiziert, möchten die Richtlinien der EU sicherstellen, dass eine Reihe von Dingen ausgeführt wird: dass die Software nicht von Ihrer Rasse oder Ihrem Geschlecht beeinflusst wurde, dass dies nicht der Fall war Sie können die Einwände eines menschlichen Arztes nicht außer Kraft setzen und dem Patienten die Möglichkeit geben, sich die Diagnose erklären zu lassen.

Ja, in diesen Richtlinien geht es darum, die KI von der Amputation abzuhalten, aber auf der Ebene der Verwaltung und der Bürokratie, nicht im Mordgeheimnis nach Asimov.

Um dieses Ziel zu erreichen, berief die EU eine Gruppe von 52 Experten ein, die sieben Anforderungen stellten, die ihrer Meinung nach zukünftige KI-Systeme erfüllen sollten. Sie sind wie folgt:

  • Menschliches Handeln und Versehen – Die KI sollte die menschliche Autonomie nicht mit Füßen treten. Menschen sollten nicht durch AI-Systeme manipuliert oder gezwungen werden, und Menschen sollten in der Lage sein, jede Entscheidung, die die Software trifft, einzugreifen oder zu überwachen.
  • Technische Robustheit und Sicherheit – Die KI sollte sicher und genau sein. Es sollte nicht leicht durch Angriffe von außen (z. B. gegnerische Beispiele) gefährdet werden und sollte einigermaßen zuverlässig sein.
  • Datenschutz und Datenverwaltung – Personenbezogene Daten, die von AI-Systemen erfasst werden, sollten sicher und privat sein. Es sollte nicht für jedermann zugänglich sein und es sollte nicht leicht gestohlen werden.
  • Transparenz – Daten und Algorithmen, die zur Erstellung eines AI-Systems verwendet werden, sollten zugänglich sein, und die von der Software getroffenen Entscheidungen sollten „vom Menschen verstanden und nachverfolgt werden“. Mit anderen Worten, die Bediener sollten in der Lage sein, die Entscheidungen zu erläutern, die ihr AI-System trifft.
  • Vielfalt, Nichtdiskriminierung und Fairness – Von AI angebotene Dienste sollten für alle verfügbar sein, unabhängig von Alter, Geschlecht, Rasse oder anderen Merkmalen. In ähnlicher Weise sollten Systeme nicht in diese Richtung vorgespannt sein.
  • Ökologisches und gesellschaftliches Wohlergehen – KI-Systeme sollten nachhaltig sein (dh sie sollten ökologisch verantwortlich sein) und „positiven sozialen Wandel fördern“
  • Rechenschaftspflicht – KI-Systeme sollten überprüfbar sein und durch bestehende Schutzmaßnahmen für Whistleblower von Unternehmen abgedeckt sein. Negative Auswirkungen von Systemen sollten vorher erkannt und gemeldet werden.

Sie werden feststellen, dass einige dieser Anforderungen ziemlich abstrakt sind und in objektiver Hinsicht schwer zu bewerten sind. (Die Definitionen von „positivem sozialem Wandel“ sind beispielsweise von Person zu Person und von Land zu Land sehr unterschiedlich.) Andere sind jedoch unkomplizierter und könnten durch die Aufsicht der Regierung getestet werden. Die Weitergabe der Daten, die zur Schulung von staatlichen KI-Systemen verwendet werden, könnte beispielsweise eine gute Möglichkeit sein, gegen voreingenommene Algorithmen zu kämpfen.

Diese Richtlinien sind nicht rechtsverbindlich, könnten aber zukünftige Gesetzgebungen der Europäischen Union beeinflussen. Die EU hat wiederholt erklärt, dass sie im Bereich der ethischen KI führend sein will, und es hat mit der DSGVO gezeigt, dass sie bereit ist, weitreichende Gesetze zum Schutz digitaler Rechte zu erlassen.

Diese Rolle wurde der EU jedoch teilweise durch die Umstände aufgezwungen. Es kann nicht mit Amerika und China, den Weltmarktführern bei KI, konkurrieren, wenn es um Investitionen und Spitzenforschung geht. Daher hat es sich für Ethik entschieden, um die Zukunft der Technologie zu gestalten.

Als Teil dieser Bemühungen enthält der heutige Bericht das, was als “vertrauenswürdige KI” bezeichnet wirdBewertungsliste ”- eine Liste mit Fragen, mit deren Hilfe Experten mögliche Schwachstellen oder Gefahren in der KI-Software erkennen können. Diese Liste enthält Fragen wie “Haben Sie überprüft, wie sich Ihr System in unerwarteten Situationen und Umgebungen verhält?” Und “Haben Sie den Typ und den Umfang der Daten in Ihrem Datensatz beurteilt?”

Diese Bewertungslisten sind nur vorläufig, aber die EU wird in den kommenden Jahren von den Unternehmen Rückmeldungen einholen, wobei ein abschließender Bericht über ihren Nutzen für 2020 ansteht.

Fanny Hidvégi, Policy Manager der digitalen Rechtegruppe Access Now und eine Expertin, die an der Erstellung der heutigen Richtlinien mitgearbeitet hat, sagte, die Bewertungsliste sei der wichtigste Teil des Berichts. “Es bietet eine praktische, zukunftsweisende Perspektive”, wie potenzielle Schäden der KI gemindert werden können, sagte Hidvégi gegenüber The Verge.

„Aus unserer Sicht hat die EU das Potenzial und die Verantwortung, an vorderster Front dieser Arbeit zu stehen“, sagte Hidvégi. “Wir sind jedoch der Meinung, dass die Europäische Union nicht mit Ethikrichtlinien aufhören sollte. Sie kann nur die Einhaltung gesetzlicher Vorschriften ergänzen.”

Andere bezweifeln, dass der Versuch der EU, die Entwicklung der globalen KI durch Ethikforschung zu gestalten, große Auswirkungen haben wird.

“Wir sind skeptisch gegenüber dem Ansatz und der Idee, dass durch die Schaffung eines goldenen Standards für ethische KI die Position der EU in der globalen KI-Entwicklung bestätigt wird”, sagte Eline Chivot, ein leitender Analyst für Politiken im Think Tank des Center for Data Innovation Der Rand „Um in der ethischen KI führend zu sein, muss man zuerst einsteigen   AI selbst. “

Contact Information:

James Vincent
Keywords:  afds, afdsafds

Tags:  German, News, Research Newswire, United States, Wire