Según un representante del Consejo de IA del gobierno, algunos sistemas robustos de inteligencia general artificial (AGI) podrían tener que ser ilegalizados en última instancia.
La AGI necesita más tecnología de seguridad incorporada, así como fuertes requisitos de transparencia y auditoría, según Marc Warner, que también es el jefe de Faculty AI, que habló con la BBC.
Además, se necesitan "decisiones sensatas" sobre la AGI en los próximos seis a doce meses.
Hizo estas declaraciones después de que EE.UU. y la UE declararan que se necesitaba urgentemente un código de conducta voluntario para la IA.
El AI Council es un comité de expertos independientes que ofrece orientación al gobierno y a los principales profesionales de la IA.
Faculty AI afirma ser el único socio técnico de OpenAI, ayudando a los clientes a integrar de forma segura ChatGPT y otros productos de Faculty AI en sus sistemas.
Aunque las herramientas de la empresa ayudaron a predecir la demanda de servicios del NHS durante la pandemia, sus vínculos políticos han sido objeto de escrutinio.
El Sr. Warner firmó una carta del Centro para la Seguridad de la IA en la que advertía de que la tecnología podría acabar con la humanidad. Faculty AI fue una de las empresas tecnológicas cuyos representantes se reunieron el jueves con la ministra de Tecnología, Chloe Smith, en Downing Street para hablar de los peligros, las oportunidades y las leyes necesarias para garantizar una IA segura y responsable.
La inteligencia artificial (IA) se refiere a la capacidad de un ordenador para llevar a cabo tareas que normalmente requieren inteligencia humana.
Según el Sr. Warner, la "IA estrecha" -sistemas utilizados para tareas especializadas como la traducción de textos o la búsqueda de cáncer en imágenes médicas- podría regirse de forma similar a otras formas de tecnología.
Sin embargo, los sistemas de inteligencia artificial, una tecnología radicalmente nueva, son mucho más preocupantes y requerirían normas diferentes.
Según Warner, "se trata de algoritmos que pretenden ser tan inteligentes como un ser humano o más que un ser humano en un amplio abanico de tareas, básicamente todas las tareas"."
Según él, la inteligencia fue el principal factor que mantuvo a la humanidad en su posición dominante en este planeta.
Nadie en el mundo, según Mr. Warner, puede proporcionar una justificación científica sólida de por qué crear objetos que son tan inteligentes como nosotros o más inteligentes debería ser seguro.
Eso no significa necesariamente que sea malo, pero indica un riesgo y la necesidad de precaución.
La cantidad de potencia de procesamiento que se puede dedicar a estas cosas sin restricciones debe, como mínimo, estar sujeta a límites estrictos.
Existen razones de peso para que, en algún momento, decidamos que ya es suficiente y prohibamos los algoritmos con niveles de complejidad o requisitos de computación superiores a un determinado umbral.
Sin embargo, es obvio que son los gobiernos los que deberían tomar esa decisión y no las empresas tecnológicas.
Algunos afirman que la preocupación por la inteligencia artificial general (IAG) está desviando la atención de problemas con tecnologías ya existentes, como el sesgo en la contratación de IA o el software de reconocimiento facial.
Pero según el Sr. Warner, esto equivale a preguntar: "¿Quiere que los coches o los aviones sean seguros? Yo quiero los dos". ".
Otros afirman que una regulación excesiva puede disuadir a los inversores y ahogar la innovación haciendo que el Reino Unido sea menos atractivo.
Pero el Sr. Warner afirmó que promoviendo la seguridad, el Reino Unido podría obtener una ventaja competitiva.
"Mi apuesta a largo plazo es que, en realidad, para obtener valor de la tecnología, se necesita la seguridad, al igual que se necesita que los motores funcionen para obtener valor del avión"
En el reciente Libro Blanco del Reino Unido sobre la regulación de la IA, que suscitó críticas, no se estableció un organismo de control específico.
El Reino Unido podría desempeñar "un papel de liderazgo", según el primer ministro Rishi Sunak, que también subrayó la necesidad de "barandillas de protección".
Tanto la Comisaria de la Unión Europea, Margrethe Vestager, como el Secretario de Estado de EE.UU., Antony Blinken, declararon el miércoles la necesidad de normas voluntarias.
Aún se están completando los trámites legislativos para la Ley de Inteligencia Artificial de la UE, que será una de las primeras en regular la IA.
La puesta en marcha de las distintas piezas legislativas, según la Sra. Vestager, llevaría de dos a tres años, "y estamos hablando de una aceleración tecnológica inimaginable."
Sin embargo, en cuestión de semanas estará disponible un proyecto de código de conducta voluntario, en el que se invitará a participar a la industria y a otras partes interesadas.
Tras la cuarta reunión del Consejo de Comercio y Tecnología EE.UU.-UE, Mr. Blinken declaró que era crucial crear códigos de conducta voluntarios que estuvieran "abiertos a" un "amplio universo de países". países con puntos de vista similares.