CISA Cybersecurity
Sin categoría

Nuevas directrices de seguridad en infraestructuras críticas frente a la IA en Estados Unidos

El gobierno de los Estados Unidos ha lanzado recientemente un conjunto de directrices de seguridad diseñadas para fortalecer la infraestructura crítica contra las amenazas asociadas con la inteligencia artificial (IA). Este anuncio marca un avance significativo en los esfuerzos nacionales para abordar los riesgos que la IA puede representar para sectores vitales como la energía, las telecomunicaciones y la seguridad nacional.

Detalles de las directrices

Las nuevas directrices, anunciadas por el Departamento de Seguridad Nacional (DHS), forman parte de un esfuerzo integral del gobierno para evaluar los riesgos de la IA a través de los dieciséis sectores de infraestructura crítica. Estas pautas se centran en la necesidad de abordar amenazas dirigidas a, desde y que involucran sistemas de IA.

Aspectos clave de las directrices

  1. Gobierno de riesgos de IA: Establecer una cultura organizativa que gestione proactivamente los riesgos asociados con la IA.
  2. Mapeo del uso de la IA: Comprender el contexto específico y el perfil de riesgo del uso de la IA dentro de la organización.
  3. Medición y gestión de riesgos de IA: Desarrollar sistemas para evaluar, analizar y monitorear continuamente los riesgos de IA, implementando acciones prioritarias para mitigarlos.

Prácticas recomendadas

El DHS insta a los propietarios y operadores de infraestructuras críticas a considerar su uso de la IA de manera contextual y seleccionar mitigaciones apropiadas. Además, es crucial entender las dependencias de los proveedores de IA y colaborar para delinear responsabilidades en la mitigación de riesgos.

Enfoque en la configuración segura y auditoría externa

Las prácticas recomendadas incluyen asegurar el entorno de despliegue de la IA, revisar la procedencia de los modelos de IA y la seguridad de la cadena de suministro, y realizar auditorías externas para garantizar la integridad y protección de los sistemas de IA.

Implicaciones de seguridad

La falta de medidas de seguridad robustas puede permitir ataques de inversión de modelos y corrupción de los modelos de IA, con el potencial de alterar el comportamiento esperado de manera que podría desencadenar impactos en cascada.

Estas directrices representan un paso crítico hacia adelante en la protección de la infraestructura nacional frente a las crecientes amenazas de la IA. Al adherirse a estas recomendaciones, las entidades pueden mejorar significativamente su postura de seguridad y resiliencia frente a las sofisticadas amenazas cibernéticas de hoy.

Tags:

No responses yet

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *