Crear una IA segura se enfrenta a cinco grandes obstáculos

persona con un smartphone y un sistema de reconocimiento facial

Los expertos en inteligencia artificial suelen suscribir una de estas dos escuelas de pensamiento: o mejorará significativamente nuestras vidas o arrasará con la humanidad tal y como la conocemos. El debate sobre la regulación de la tecnología que se celebra esta semana en el Parlamento Europeo es crucial por este motivo. He aquí cinco obstáculos que hay que superar para que la IA sea segura.

El Parlamento Europeo ha tardado dos años en elaborar una definición de sistema de IA. Establece que un sistema de IA es "software que, para un conjunto dado de objetivos definidos por humanos, genera salidas como contenidos, predicciones, recomendaciones o decisiones que influyen en los entornos con los que interactúan".

Esta semana se vota su Ley de Inteligencia Artificial, que va más allá de los códigos voluntarios y obliga a las empresas a cumplirla. Se trata del primer conjunto de leyes de este tipo sobre IA.

La tecnología hace caso omiso de las fronteras nacionales, según Sana Kharaghani, ex directora de la Oficina de Inteligencia Artificial del Reino Unido.

Señala a BBC News: "Sé que será difícil, pero necesitamos colaboración internacional en esto". No es una cuestión doméstica. Estos avances tecnológicos trascienden las fronteras nacionales.

Sin embargo, a pesar de algunas sugerencias en sentido contrario, todavía no hay un plan para un regulador global de la IA al estilo de las Naciones Unidas, y varias regiones tienen sus propias ideas.

  • Las propuestas más estrictas proceden de la Unión Europea e incluyen clasificar los productos de IA en función de sus efectos; un filtro de spam para el correo electrónico, por ejemplo, estaría sujeto a menos regulación que una herramienta para detectar el cáncer.
  • El Reino Unido está integrando los organismos reguladores existentes para la regulación de la IA; por ejemplo, quienes afirmen que la tecnología les ha discriminado acudirían a la Comisión de Igualdad.
  • En Estados Unidos no hay códigos obligatorios; los legisladores reconocieron en una reciente audiencia del comité de IA que tenían dudas sobre su idoneidad para el trabajo.
  • China quiere obligar a las empresas a notificar a los clientes cada vez que se utilice un algoritmo de IA.

Jean-Marc Leclerc, responsable de asuntos gubernamentales y normativos de la corporación International Business Machines (IBM) en la UE, afirma que si la gente confía en ella, la utilizará.

Existen numerosas posibilidades de que la IA mejore significativamente la vida de las personas. Ya hay:.

  • ayudar en el descubrimiento de antibióticos.
  • volver a caminar después de estar paralizado.
  • hacer frente a preocupaciones como las pandemias y el cambio climático.

Pero, ¿qué hay de la selección de candidatos para puestos de trabajo o determinar la propensión de alguien a la delincuencia?

El Parlamento Europeo quiere que el público sea consciente de los riesgos asociados a cada producto de inteligencia artificial.

Las empresas que infrinjan sus normas se arriesgan a ser multadas con hasta 30 millones de euros o el 6% de sus ingresos globales anuales, lo que sea mayor.

Sin embargo, ¿pueden los diseñadores prever o controlar cómo puede utilizarse su producto?

Sam Altman, CEO de OpenAI, testifica ante el Senado de EE UU

La IA se ha autorregulado en gran medida hasta este momento.

Sam Altman, CEO de OpenAI, la empresa que ha desarrollado ChatGPT, asegura que las grandes corporaciones apoyan la regulación gubernamental porque es "fundamental" para reducir los riesgos.

Pero si se involucran demasiado en la creación de las normas, ¿priorizarán los beneficios sobre las personas?

Quieren estar lo más cerca posible de los legisladores encargados de establecer las normas, puedes apostar por ello.

Además, la baronesa Lane-Fox, fundadora de Lastminute.com, afirma que es importante escuchar otras voces además de las grandes empresas.

Afirma que hay que involucrar a la comunidad académica, a la sociedad civil y a quienes se ven impactados por los distintos modelos y transformaciones.

Microsoft espera que ChatGPT "elimine la monotonía del trabajo" gracias a su enorme inversión en él.

Aunque es "una herramienta, no una criatura", el Sr. Altman señala que puede producir respuestas de texto y prosa que suenan como el habla humana.

Se supone que la productividad de los trabajadores aumentará con los chatbots.

Además, la IA tiene el potencial de generar puestos de trabajo y servir como un poderoso asistente en algunas industrias.

Sin embargo, otros ya los han perdido. El mes pasado, BT declaró que la IA eliminaría 10.000 puestos de trabajo.

Han pasado poco más de seis meses desde que ChatGPT se puso a disposición del gran público.

Ahora, es capaz de planificar vacaciones, escribir redacciones y aprobar exámenes profesionales.

Estos modelos lingüísticos masivos son cada vez más capaces.

Geoffrey Hinton y el profesor Yoshua Bengio, dos de los tres "padrinos" de la inteligencia artificial, han sido algunos de los que han advertido de que la tecnología tiene un gran potencial de daño.

La Ley de Inteligencia Artificial no entrará en vigor hasta al menos 2025, lo que es "demasiado tarde", según Margrethe Vestager, comisaria de Tecnología de la UE.

Junto con EE.UU., está creando un código voluntario provisional para la industria que podría estar terminado en cuestión de semanas.

Enlace de la fuente

You've successfully subscribed to Webosor
Great! Next, complete checkout to get full access to all premium content.
Welcome back! You've successfully signed in.
Unable to sign you in. Please try again.
Success! Your account is fully activated, you now have access to all content.
Error! Stripe checkout failed.
Success! Your billing info is updated.
Billing info update failed.