Documento normativo

Declaración de Bletchley de los países que asisten a la Cumbre de seguridad de la IA, 1 y 2 de noviembre de 2023

Publicado 1 noviembre 2023

Esto fue publicado bajo el 2022 to 2024 Sunak Conservative government

La Inteligencia Artificial (IA) presenta enormes oportunidades globales: tiene el potencial de transformar y mejorar el bienestar humano, la paz y la prosperidad. Para lograr esto, afirmamos que, por el bien de todas las personas, la IA debe diseñarse, desarrollarse, implementarse y utilizarse de manera segura, centrada en el ser humano, confiable y responsable. Acogemos con beneplácito los esfuerzos de la comunidad internacional hasta ahora para cooperar en materia de IA para promover el crecimiento económico inclusivo, el desarrollo sostenible y la innovación, proteger los derechos humanos y las libertades fundamentales y fomentar la confianza pública en los sistemas de IA para realizar plenamente su potencial.

Los sistemas de IA ya están implementados en muchos ámbitos de la vida diaria, incluidos la vivienda, el empleo, el transporte, la educación, la salud, la accesibilidad y la justicia, y es probable que su uso aumente. Reconocemos que este es, por lo tanto, un momento único para actuar y afirmar la necesidad de que el desarrollo seguro de la IA y de que las oportunidades transformadoras de la IA se utilicen para bien y para todos, de manera inclusiva en nuestros países y a nivel mundial. Esto incluye servicios públicos como salud y educación, seguridad alimentaria, ciencia, energía limpia, biodiversidad y clima, para hacer realidad el disfrute de los derechos humanos y fortalecer los esfuerzos para lograr los Objetivos de Desarrollo Sostenible de las Naciones Unidas.

Además de estas oportunidades, la IA también plantea riesgos importantes, incluso en esos ámbitos de la vida diaria. Con ese fin, acogemos con satisfacción los esfuerzos internacionales pertinentes para examinar y abordar el impacto potencial de los sistemas de IA en los foros existentes y otras iniciativas relevantes, y el reconocimiento de que la protección de los derechos humanos, transparencia y explicabilidad, equidad, rendición de cuentas, regulación, seguridad, adecuada supervisión humana, aspectos éticos, mitigación de prejuicios, privacidad y protección de datos. También observamos el potencial de riesgos imprevistos derivados de la capacidad de manipular contenido o generar contenido engañoso. Todas estas cuestiones son de importancia crítica y afirmamos la necesidad y urgencia de abordarlas.

Riesgos de seguridad particulares surgen en la “frontera” de la IA, entendida como aquellos modelos de IA de propósito general altamente capaces, incluidos los modelos básicos, que podrían realizar una amplia variedad de tareas, así como IA específicas y relevantes que podrían exhibir capacidades que causen daño, que igualan o superan las capacidades presentes en los modelos más avanzados de hoy. Pueden emerger riesgos sustanciales debido a un posible uso indebido intencional o problemas de control no deseados relacionados con la alineación con la intención humana.

Estos problemas se deben en parte a que esas capacidades no se comprenden completamente y, por lo tanto, son difíciles de predecir. Nos preocupan especialmente estos riesgos en ámbitos como la ciberseguridad y la biotecnología, así como donde los sistemas de inteligencia artificial de vanguardia pueden amplificar riesgos como la desinformación. Existe la posibilidad de que se produzcan daños graves, incluso catastróficos, ya sean deliberados o no, derivados de las capacidades más importantes de estos modelos de IA. Dado el rápido e incierto ritmo de cambio de la IA, y en el contexto de la aceleración de la inversión en tecnología, afirmamos que es especialmente urgente profundizar nuestra comprensión de estos riesgos potenciales y de las acciones para abordarlos.

Muchos riesgos que surgen de la IA son de naturaleza intrínsecamente internacional y, por lo tanto, la mejor manera de abordarlos es mediante la cooperación internacional. Resolvemos trabajar juntos de manera inclusiva para garantizar una IA centrada en las personas, confiable y responsable que sea segura y apoye el bien de todas y todos a través de los foros internacionales existentes y otras iniciativas relevantes, para promover la cooperación para abordar la amplia gama de riesgos que plantean AI. Al hacerlo, reconocemos que los países deben considerar la importancia de un enfoque regulatorio y de gobernanza proporcionado y pro-innovación que maximice los beneficios y tenga en cuenta los riesgos asociados con la IA. Esto podría incluir realizar, cuando corresponda, clasificaciones y categorizaciones de riesgo basadas en las circunstancias nacionales y los marcos legales aplicables. También observamos la importancia de la cooperación, cuando proceda, en enfoques como principios y códigos de conducta comunes. Con respecto a los riesgos específicos que probablemente se encuentren en relación con la IA de frontera, decidimos intensificar y mantener nuestra cooperación, y ampliarla con más países, para identificar, comprender y, según corresponda, actuar, a través de los foros internacionales existentes y otras iniciativas relevantes, incluidas futuras cumbres internacionales sobre seguridad de la IA.

Todos los actores tienen un papel que desempeñar para garantizar la seguridad de la IA: naciones, foros internacionales y otras iniciativas, empresas, sociedad civil y el mundo académico deberán trabajar juntos. Al señalar la importancia de una IA inclusiva y reducir la brecha digital, reafirmamos que la colaboración internacional debe esforzarse por involucrar a una amplia gama de socios, según corresponda, y acogemos con agrado los enfoques y políticas orientados al desarrollo que podrían ayudar a los países en desarrollo a fortalecer la creación de capacidades y el aprovechamiento de la IA. el papel facilitador de la IA para apoyar el crecimiento sostenible y abordar la brecha de desarrollo.

Afirmamos que, si bien la seguridad debe considerarse en todo el ciclo de vida de la IA, los actores que desarrollan capacidades de IA de vanguardia, en particular aquellos sistemas de IA que son inusualmente poderosos y potencialmente dañinos, tienen una responsabilidad particularmente fuerte de garantizar la seguridad de estos sistemas de IA, incluso a través de sistemas. para pruebas de seguridad, mediante evaluaciones y mediante otras medidas apropiadas. Alentamos a todos los actores relevantes a brindar transparencia y rendición de cuentas apropiadas al contexto en sus planes para medir, monitorear y mitigar capacidades potencialmente dañinas y los efectos asociados que puedan surgir, en particular para prevenir el uso indebido y problemas de control, y la amplificación de otros riesgos.

En el contexto de nuestra cooperación, y para informar la acción a nivel nacional e internacional, nuestra agenda para abordar el riesgo fronterizo de la IA se centrará en:

  • Identificar los riesgos de seguridad de la IA de interés compartido, construir una comprensión compartida científica y basada en evidencia de estos riesgos, y mantener esa comprensión a medida que las capacidades continúan aumentando, en el contexto de un enfoque global más amplio para comprender el impacto de la IA en nuestras sociedades.

  • Construir políticas respectivas basadas en riesgos en nuestros países para garantizar la seguridad a la luz de dichos riesgos, colaborando según corresponda y reconociendo que nuestros enfoques pueden diferir según las circunstancias nacionales y los marcos legales aplicables. Esto incluye, junto con una mayor transparencia por parte de los actores privados que desarrollan capacidades de IA de vanguardia, métricas de evaluación apropiadas, herramientas para pruebas de seguridad y el desarrollo de capacidades e investigaciones científicas relevantes del sector público.

Para promover esta agenda, decidimos apoyar una red internacionalmente inclusiva de investigación científica sobre la seguridad de la IA en la frontera que abarque y complemente la colaboración multilateral, plurilateral y bilateral existente y nueva, incluso a través de foros internacionales existentes y otras iniciativas relevantes, para facilitar la provisión de la mejor ciencia disponible para la formulación de políticas y el bien público.

En reconocimiento del potencial transformador positivo de la IA, y como parte de garantizar una cooperación internacional más amplia en materia de IA, decidimos mantener un diálogo global inclusivo que involucre a los foros internacionales existentes y otras iniciativas relevantes y contribuya de manera abierta a debates internacionales más amplios, y Continuar la investigación sobre la seguridad de la IA en la vanguardia para garantizar que los beneficios de la tecnología puedan aprovecharse de manera responsable para bien y para todos. Esperamos volver a reunirnos en 2024.

Los países representados fueron:

  • Alemania

  • Australia

  • Brasil

  • Canadá

  • Chile

  • China

  • Emiratos Árabes Unidos

  • España

  • Estados Unidos de América

  • Filipinas

  • Francia

  • India

  • Indonesia

  • Irlanda

  • Israel

  • Italia

  • Japón

  • Kenia

  • Nigeria

  • Países Bajos

  • Reino de Arabia Saudita

  • Reino Unido de la Gran Bretaña e Irlanda del Norte

  • República de Corea

  • Ruanda

  • Singapur

  • Suiza

  • Turquía

  • Ucrania

  • Unión Europea

Las referencias a “gobiernos” y “países” incluyen organizaciones internacionales que actúan de conformidad con sus competencias legislativas o ejecutivas.