Publi Orejas y Superior con GPT

Huawei propone un modelo de colaboración para garantizar la seguridad de los datos en IA

  • La compañía china presenta un libro blanco para proteger los entornos de Inteligencia Artificial

23/10/2019 - 19:16 h.

Como con cualquier gran avance tecnológico las múltiples ventajas de la Inteligencia Artificial también suponen riesgos en cuanto a la ciberseguridad de los datos de los usuarios al avanzar la tecnología en muchas ocasiones más rápido que los marcos legales y las políticas que las deben regular. Por ello desde Huawei se ha tendido la mano al resto de fabricantes proponiendo un modelo de colaboración para garantizar la seguridad de los datos en entornos de IA.

La firma china, con motivo del Encuentro de Cloud Security Alliance España, ha presentado un libro blanco de ciberseguridad centrado en dicha materia con el objetivo de que «la industria y los gobiernos deben actuar de forma conjunta y rápida para crear estándares de seguridad y desarrollar códigos de conducta comunes que maximicen las oportunidades y protejan a los ciudadanos de consecuencias no deseadas»

El documento ‘Pensando en la seguridad y la protección de la privacidad de la IA’ plantea prácticas y perspectivas sobre cuestiones de seguridad y privacidad a través de un modelo de Responsabilidad Compartida en el que la compañía hace un llamamiento a todos los jugadores implicados en el desarrollo de la IA para que analicen y contribuyan en la creación de un entorno digital seguro, proporcionando productos y servicios que garanticen su seguridad y privacidad. Así, este modelo propone cinco entidades responsables que deben trabajar de manera conjunta en un desarrollo seguro: consumidores/clientes, desarrolladores de aplicaciones, implementadores, proveedores de soluciones full-stack y recolectores de datos.

Siete objetivos concretos

Este libro blanco describe la perspectiva y las prácticas de la empresa en materia de seguridad de IA, problemas de privacidad y soluciones relacionadas a través de los siguiente siete objetivos:

  • Seguridad y capacidad de control del sistema: el sistema debe cumplir los requisitos de seguridad de robustez, estabilidad y adaptabilidad además de proporcionar una certificación de seguridad.
  • Transparencia y trazabilidad: las lógicas generadas por el sistema (como por ejemplo predicción, juicio y acciones automatizadas) deben ser explicables y transparentes.
  • Protección de la privacidad: la información y los datos personales deben protegerse y administrarse de conformidad con el Reglamento General de Protección de Datos (RGPD por sus siglas en castellano) y otras leyes aplicables.
  • Equidad: para mitigar los posibles casos de inequidad causada por los procedimientos, las decisiones tomadas por medio de la Inteligencia Artificial deben cuestionar y buscar soluciones efectivas a estos hechos.
  • Gestión de datos: se debe garantizar la integridad, precisión, disponibilidad, confidencialidad y exhaustividad de los datos.
  • Competencia: un proveedor de soluciones debe especificar el conocimiento y las habilidades necesarias para ejecutar la tecnología IA de manera segura y efectiva. Y, además, aquellos que implementen y desarrollen soluciones deben seguir estos conocimientos y habilidades.
  • Garantía del objetivo de despliegue: el despliegue y la aplicación de IA deben cumplir los requisitos de legalidad, equidad, seguridad, protección de la privacidad y el no uso indebido, así como los propósitos de despliegue.