Technologieminister Paul Scully hat davor gewarnt, die potenziellen Gefahren der künstlichen Intelligenz (KI) für die Menschheit zu übertreiben, indem er ihre potenziellen Vorteile herunterspielt.
Ein bösartiges KI-System "Skynet", das die Menschheit auslöschen will, wird in der Science-Fiction-Filmreihe The Terminator vorgestellt.
Eine Reihe von Unternehmen warnte letzte Woche davor, dass KI für den Menschen gefährlich sein könnte.
Anlässlich seines Besuchs in den USA wird Premierminister Rishi Sunak über eine Reihe von Themen sprechen, darunter auch über KI.
Künstliche Intelligenz (KI) bezeichnet die Fähigkeit eines Computers, Aufgaben auszuführen, für die normalerweise menschliche Intelligenz erforderlich ist.
Es gibt eine "dystopische Sichtweise auf KI, der wir hier folgen können. Eine utopische Sichtweise ist ebenfalls vorhanden. Auf der TechUK Tech Policy Leadership Conference in Westminster erklärte Scully, dass beides denkbar sei.
Eine Dystopie ist ein fiktives Szenario, in dem alles so schlecht ist, wie es nur sein kann.
"Wenn man nur über die Auslöschung der Menschheit durch ein bösartiges Szenario im Stil von Terminator diskutiert, verpasst man all die positiven Auswirkungen, die KI bereits hat, wie die Kartierung von Proteinen zur Unterstützung der medizinischen Forschung und die Bekämpfung des Klimawandels.
Alle diese Dinge werden bereits von der KI erledigt, und sie wird darin nur noch besser werden. "
Die Regierung hat vor kurzem ein Strategiepapier zur Regulierung der KI veröffentlicht, das jedoch kritisiert wurde, weil es keine spezielle Aufsichtsbehörde vorsieht, und einige sind der Meinung, dass zusätzliche Maßnahmen erforderlich sein könnten, um mit den leistungsfähigsten zukünftigen Systemen fertig zu werden.
Ein Verbot der leistungsfähigsten KI könnte notwendig sein, so Marc Warner, Mitglied des KI-Rates, einer Expertengruppe, die zur Beratung der Regierung eingesetzt wurde. Warner äußerte sich letzte Woche gegenüber BBC News.
Er versicherte jedoch, dass "enge KI", die für bestimmte Zwecke geschaffen wird, wie z.B. Programme, die medizinische Bilder auf Krebs scannen, denselben Vorschriften unterliegen sollten wie aktuelle Technologien.
Wir sind nicht selbstgefällig, was die potenziellen Risiken der KI angeht, aber sie bietet auch bedeutende Möglichkeiten, sagte der Sprecher des Premierministers als Reaktion auf Berichte über die potenziellen Risiken, die die Technologie darstellen könnte.
Ohne Leitplanken können wir mit der KI nicht vorankommen. "
Die Labour-Schattenministerin für Kultur, Lucy Powell, sagte, es gebe "ein gewisses Maß an Hysterie, das im Moment die öffentliche Debatte beherrscht, aber die Entwicklung einer Technologie wie der KI birgt auch echte Chancen".
"Aber wir müssen sehr sorgfältig über die Risiken nachdenken und sicherstellen, dass wir eine gute Regulierung haben", sagte sie weiter. "
Es sei entscheidend, dass die Auswirkungen der KI für alle spürbar seien und "nicht nur den großen Tech-Giganten in den USA zugute kommen, wie es bei der letzten technologischen Revolution der Fall war."
Zuvor hatte Frau Powell dem Guardian gesagt, sie sei der Meinung, dass KI ähnlich wie Medikamente oder Atomkraft zugelassen werden sollte, die beide spezielle Regulierungsbehörden haben.
Eine globale Regulierungsbehörde für hochintelligente KI, ähnlich der Internationalen Atomenergiebehörde, könnte erforderlich sein, so ein kürzlich veröffentlichter Blogbeitrag des KI-Unternehmens OpenAI.
Brad Smith, der Präsident von Microsoft, sagte auf der gleichen Veranstaltung, dass die leistungsfähigsten KIs möglicherweise eine Sicherheitsgenehmigung benötigen, um betrieben werden zu können.
"Ein Modell muss eine Art Sicherheitsüberprüfung bestehen, bevor es eingesetzt werden kann. "
Mr. Smith vertrat die Auffassung, dass ein einheitliches Regulierungsmodell und eine globale Zusammenarbeit vorzuziehen wären. Das Vereinigte Königreich und die USA seien in einer guten Position, um in Sachen Cyber und nationaler Sicherheit zusammenzuarbeiten.
Auf der Veranstaltung erklärte er gegenüber Reportern, Microsoft werde sich "der Angstparade" nicht anschließen und fügte hinzu, es sei besser, die Rhetorik abzuschwächen und sich mehr auf die dringenden Probleme zu konzentrieren.
Andere Experten haben zugestimmt, dass die Konzentration auf Katastrophenszenarien aus der Science-Fiction von den dringenden Problemen mit KI ablenkt, wie z.B. der Möglichkeit der Voreingenommenheit in Algorithmen aufgrund von Rasse oder Geschlecht.