El ministro de Tecnología advierte de que no hay que creerse las advertencias de "Terminator" de la IA

Un ministro hace sugerencias en relación con Terminate the Terminator

El ministro de Tecnología, Paul Scully, ha advertido contra la exageración de los peligros potenciales de la inteligencia artificial (IA) para la humanidad al restar importancia a sus posibles beneficios.

Un sistema malicioso de IA "Skynet" empeñado en erradicar a la humanidad aparece en la serie de películas de ciencia ficción Terminator.

Varias empresas advirtieron la semana pasada de que la IA podría ser peligrosa para las personas.

Mientras se prepara para visitar EE.UU., el Primer Ministro Rishi Sunak hablará sobre diversos temas, entre ellos la IA.

La inteligencia artificial (IA) se refiere a la capacidad de un ordenador para llevar a cabo tareas que normalmente requieren inteligencia humana.

Existe un "punto de vista distópico sobre la IA que podemos seguir aquí. También existe un punto de vista utópico. En la TechUK Tech Policy Leadership Conference de Westminster, el Sr. Scully afirmó que ambos eran concebibles.

Una distopía es un escenario ficticio en el que todo es tan malo como es posible.

"Si sólo se habla de la extinción de la humanidad debido a un escenario al estilo de Terminator, se pasan por alto todos los efectos positivos que la IA ya está teniendo, como el mapeo de proteínas para ayudar en la investigación médica y la lucha contra el cambio climático. "Según Marc Warner, miembro del Consejo de Inteligencia Artificial, un grupo de expertos creado para asesorar al Gobierno, el Gobierno publicó recientemente un documento político sobre la regulación de la IA, pero fue criticado por no crear un organismo de control específico. Warner hizo estas declaraciones a BBC News la semana pasada.

Pero afirmó que la "IA estrecha" creada para fines específicos, como los programas que escanean imágenes médicas en busca de cáncer, debería estar sujeta a las mismas regulaciones que la tecnología actual.

No somos complacientes con los riesgos potenciales de la IA, pero también ofrece oportunidades significativas, dijo el portavoz del primer ministro en respuesta a los informes sobre los riesgos potenciales que la tecnología puede plantear.

Sin barandillas en su lugar, no podemos avanzar con la IA. "

Según Lucy Powell, secretaria de Cultura en la sombra por el Partido Laborista, hay "un nivel de histeria y eso está dominando el debate público en este momento, pero hay oportunidades reales con el desarrollo de una tecnología como la IA".

"Pero tenemos que pensar muy cuidadosamente acerca de los riesgos, asegurarnos de que tenemos una buena regulación en su lugar", continuó. ".

Es crucial que los efectos de la IA sean percibidos por todos y que "no sólo vayan a parar a los grandes gigantes tecnológicos de EE.UU., como ocurrió en la última revolución tecnológica".

Antes, Powell declaró a The Guardian que creía que la IA debería autorizarse de forma similar a como se autorizan los medicamentos o la energía nuclear, que cuentan con reguladores específicos.

Podría ser necesario un regulador mundial para la IA altamente inteligente, similar a la Agencia Internacional de la Energía Atómica, según una reciente entrada de blog de la empresa de IA OpenAI.

Brad Smith, el presidente de Microsoft, dijo durante el mismo evento que las IA más potentes podrían requerir permisos de seguridad para operar.

"Un modelo debe pasar una revisión de seguridad de algún tipo antes de que pueda ser desplegado. "

El Sr. Smith argumentó que sería preferible un modelo regulador único y la cooperación mundial. El Reino Unido y Estados Unidos, según él, están en una buena posición para cooperar cuando se trata de ciberseguridad y seguridad nacional.

En el evento, dijo a los periodistas que Microsoft no se uniría "al desfile del miedo", y añadió que sería preferible bajar el tono de la retórica y concentrarse más en los problemas acuciantes que tenemos entre manos.

Otros expertos han coincidido en que concentrarse en escenarios catastróficos sacados de la ciencia ficción sirve para desviar la atención de los problemas acuciantes de la IA, como la posibilidad de sesgos en los algoritmos por motivos de raza o género.

Enlace de fuente

You've successfully subscribed to Webosor
Great! Next, complete checkout to get full access to all premium content.
Welcome back! You've successfully signed in.
Unable to sign you in. Please try again.
Success! Your account is fully activated, you now have access to all content.
Error! Stripe checkout failed.
Success! Your billing info is updated.
Billing info update failed.