Experten für künstliche Intelligenz vertreten in der Regel eine der beiden folgenden Meinungen: Entweder wird sie unser Leben erheblich verbessern oder sie wird die Menschheit, wie wir sie kennen, auslöschen. Aus diesem Grund ist die Diskussion über die Regulierung der Technologie, die diese Woche im Europäischen Parlament stattfindet, von entscheidender Bedeutung. Hier sind fünf Hindernisse, die überwunden werden müssen, um KI sicher zu machen.
Das Europäische Parlament hat zwei Jahre gebraucht, um eine Definition für ein KI-System zu entwickeln. Sie besagt, dass ein KI-System "eine Software ist, die für eine bestimmte Reihe von durch den Menschen definierten Zielen Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen erzeugt, die die Umgebung, mit der sie interagiert, beeinflussen".
Das Europäische Parlament stimmt diese Woche über sein Gesetz zur künstlichen Intelligenz ab, das über freiwillige Kodizes hinausgeht und Unternehmen zur Einhaltung verpflichtet. Es handelt sich um das erste Gesetz dieser Art zum Thema KI.
Die Technologie macht vor nationalen Grenzen nicht halt, so Sana Kharaghani, ehemalige Direktorin des britischen Büros für künstliche Intelligenz.
Sie sagte gegenüber BBC News: "Ich weiß, dass es schwierig sein wird, aber wir brauchen hier internationale Zusammenarbeit". Das ist keine nationale Angelegenheit. Diese technologischen Fortschritte überschreiten nationale Grenzen.
Allerdings gibt es trotz einiger gegenteiliger Vorschläge noch keinen Plan für eine globale KI-Regulierungsbehörde im Stil der Vereinten Nationen, und verschiedene Regionen haben ihre eigenen Vorstellungen.
- Die strengsten Vorschläge kommen aus der Europäischen Union und sehen eine Klassifizierung von KI-Produkten auf der Grundlage ihrer Auswirkungen vor; ein Spam-Filter für E-Mails würde beispielsweise einer geringeren Regulierung unterliegen als ein Werkzeug zur Erkennung von Krebs.
- Das Vereinigte Königreich integriert bestehende Regulierungsbehörden für die KI-Regulierung; wer beispielsweise behauptet, durch die Technologie diskriminiert worden zu sein, würde sich an die Equalities Commission wenden.
- In den Vereinigten Staaten gibt es keine verbindlichen Kodizes; die Gesetzgeber räumten kürzlich in einer Anhörung des KI-Ausschusses ein, dass sie Zweifel an ihrer Eignung für diese Aufgabe haben.
- China will vorschreiben, dass Unternehmen ihre Kunden jedes Mal informieren, wenn ein KI-Algorithmus verwendet wird.
Der Leiter für Regierungs- und Regulierungsangelegenheiten der International Business Machines (IBM) Corporation in der EU, Jean-Marc Leclerc, behauptet, dass die Menschen sie nutzen werden, wenn sie ihr vertrauen.
Es gibt zahlreiche Möglichkeiten, wie KI das Leben der Menschen erheblich verbessern kann. Es gibt bereits:.
- Hilfe bei der Entdeckung von Antibiotika.
- Wieder gehen nach einer Lähmung.
- Bewältigung von Problemen wie Pandemien und Klimawandel.
Aber wie sieht es mit der Auswahl von Bewerbern für Arbeitsplätze oder der Bestimmung der Neigung einer Person zu Verbrechen aus?
Das Europäische Parlament möchte, dass sich die Öffentlichkeit der Risiken bewusst ist, die mit jedem Produkt der künstlichen Intelligenz verbunden sind.
Unternehmen, die gegen die Regeln verstoßen, riskieren eine Geldstrafe von bis zu 30 Millionen Euro oder 6 % ihres weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist.
Können die Entwickler jedoch vorhersehen oder kontrollieren, wie ihr Produkt verwendet werden könnte?
Die KI hat sich bisher weitgehend selbst reguliert.
Sam Altman, CEO von OpenAI, dem Unternehmen, das ChatGPT entwickelt hat, behauptet, dass die großen Unternehmen eine staatliche Regulierung unterstützen, weil sie "entscheidend" sei, um die Risiken zu verringern.
Aber wenn sie sich zu sehr in die Erstellung der Regeln einmischen, werden sie dann den Profiten Vorrang vor den Menschen geben?
Sie wollen den Gesetzgebern, die für die Festlegung der Regeln verantwortlich sind, so nahe wie möglich sein, darauf können Sie wetten.
Außerdem, so Baroness Lane-Fox, Gründerin von Lastminute.com, sei es wichtig, neben den großen Unternehmen auch andere Stimmen zu hören.
Sie betont, dass wir die akademische Gemeinschaft, die Zivilgesellschaft und diejenigen, die von den verschiedenen Modellen und Veränderungen betroffen sind, einbeziehen müssen.
Microsoft hofft, dass ChatGPT dank seiner massiven Investitionen "die Plackerei aus der Arbeit nimmt".
Obwohl es sich um "ein Werkzeug, nicht um ein Lebewesen" handelt, stellt Herr Altman fest, dass es Textantworten und Prosa produzieren kann, die wie menschliche Sprache klingt.
Die Produktivität der Arbeitnehmer soll durch Chatbots gesteigert werden.
Außerdem hat die KI das Potenzial, Arbeitsplätze zu schaffen und in einigen Branchen als leistungsfähiger Assistent zu dienen.
Andere haben sie jedoch bereits verloren. Letzten Monat erklärte BT, dass durch KI 10.000 Arbeitsplätze wegfallen würden.
Etwas mehr als sechs Monate sind vergangen, seit ChatGPT der Öffentlichkeit zugänglich gemacht wurde.
Jetzt ist es in der Lage, Urlaube zu planen, Aufsätze zu schreiben und Berufsexamen zu bestehen.
Diese massiven Sprachmodelle werden immer leistungsfähiger.
Geoffrey Hinton und Prof. Yoshua Bengio, zwei der drei "Paten" der künstlichen Intelligenz, gehören zu denen, die davor warnen, dass die Technologie ein großes Schadenspotenzial hat.
Das Gesetz über künstliche Intelligenz wird frühestens 2025 in Kraft treten, was laut Margrethe Vestager, der Technologiekommissarin der EU, "viel zu spät" ist.
Zusammen mit den USA erarbeitet sie einen vorläufigen freiwilligen Kodex für die Industrie, der in wenigen Wochen fertiggestellt sein könnte.