CIUDAD DE MÉXICO.- Juan Carlos Machorro, socio de la firma legal Santamarina y Steta a cargo del área de práctica transaccional destacó la importancia de que la Inteligencia Artificial (IA) sea regulada de forma adecuada bajo principios democráticos de cooperación internacional.
“Hemos insistido en la necesidad apremiante de regular bajo buena vocación de principios. Este poder tecnológico de la IA igual puede generar grandes beneficios a las personas y empresas, como también graves daños. El Código de Conducta Internacional para la Inteligencia Artificial Avanzada emitido recientemente por el G7, conocido como la Declaración del Proceso Internacional de Hiroshima, arroja una luz importante dada la influencia política y económica mundial de los países que la respaldan: Alemania, Canadá Estados Unidos, Francia, Italia, Japón y Reino Unido. Este grupo tiene en común una disposición de colaboración sin barreras ideológicas”, dijo.
El especialista añadió que el G7 expresó su disposición para coordinar políticas hacia la consecución de objetivos comunes y su voluntad para establecer medios técnicos de cooperación internacional. “Son muchos y muy delicados los temas a tratar. Particularmente, la privacidad de datos, responsabilidad, relaciones laborales, temas de salud, de propiedad intelectual, manipulación conductual y otros tantos relacionados con consecuencias de derecho y el respeto y protección a los derechos humanos. Solo una vocación democrática puede respaldarlos. Debemos esperar que las distintas empresas y organizaciones que desarrollan sistemas de inteligencia artificial avanzada se comprometan con la aplicación de este nuevo código y acelerar el proceso de desarrollo de un marco estructural de política integral en la materia para finales de este mismo año, en cooperación con la Global Partnership for Artificial Intelligence (GPAI) y la Organización para la Cooperación y el Desarrollo Económico (OCDE)”, apuntó.
Para Juan Carlos Machorro, este Código de Conducta es una convocatoria para que las empresas que desarrollan IA adopten estructuras de gobernanza y políticas y mecanismos de autoevaluación que faciliten un enfoque responsable en la implementación de estas conductas al desarrollar IA. “También es una invitación para que gobiernos y organizaciones respeten el Estado de Derecho, los derechos humanos, el debido proceso, la diversidad, la equidad, la no discriminación, la democracia y, sobre todo, mantener a la persona como valor primordial durante todo el proceso de diseño, desarrollo e implementación de sistemas de inteligencia artificial avanzada (SIAA)”, subrayó.
Finalmente, el especialista listó los once principios del código, que maximizan los beneficios tecnológicos y mitigan los riesgos para el bien común global, incluyendo economías en desarrollo y emergentes, con miras a cerrar la brecha digital y lograr la inclusión digital:
Tomar las medidas apropiadas a lo largo del proceso de desarrollo de sistemas de inteligencia artificial avanzada incluyendo antes de iniciar dicho desarrollo, durante el mismo y al salir al mercado, a efecto de identificar, evaluar y mitigar riesgos a lo largo del ciclo de vida de la inteligencia artificial.
Identificar y mitigar vulnerabilidades y en donde resulten aplicables incidentes y, después de la implementación incluyendo la inclusión en el mercado.
Divulgar públicamente las capacidades, limitaciones y dominios de los sistemas de inteligencia artificial avanzada, su uso apropiado e inapropiado, a efecto de asegurar la transparencia necesaria y el incremento de responsabilidad y rendición de cuentas.
Colaborar en el intercambio responsable de información y el reporte de incidentes entre aquellas organizaciones que desarrollen sistemas de inteligencia artificial avanzada, incluyendo la industria, los gobiernos, la sociedad civil y la academia.
Desarrollar, implementar y divulgar la estructura de gobernanza y las políticas de administración de riesgos de la inteligencia artificial con base en una medición de riesgo, incluyendo políticas y medidas de mitigación de las organizaciones.
Invertir e implementar controles de seguridad robustos, incluyendo la seguridad física, la ciberseguridad y las amenazas a través del ciclo de vida de la inteligencia artificial, incluyendo salvaguardas para amenazas internas.
Desarrollar e implementar mecanismos de autenticación de contenido confiables y otras técnicas que permitan a los usuarios identificar contenido generado artificialmente.
Priorizar la investigación para mitigar riesgos societarios, de seguridad y priorizar la inversión en medidas de mitigación efectivas.
Priorizar el desarrollo de sistemas de inteligencia artificial avanzada que atiendan los retos globales más importantes, notablemente, pero sin limitarse a la crisis climática, la salud mundial y la educación.
Avanzar en el desarrollo y la adopción de estándares técnicos internacionales.
Implementar medidas de introducción de información adecuadas y protecciones suficientes de los datos personales y la propiedad intelectual.
AM.MX/fm