Noticias
El CCII, en el #DíadeInternet 2024
El Consejo General de Colegios Profesionales de Ingeniería Informática estará presente, el próximo 17 de mayo, en los actos del Día de Internet, que tendrán lugar en el Senado. Como cada año, mostramos nuestro compromiso con iniciativas de este tipo que buscan visibilizar la labor y la aportación de la ingeniería informática y de la tecnología a la sociedad.
El CCII es una de las entidades nominadas dentro de la categoría 'Salud', con el informe presentado junto a UNICEF, acerca del 'Impacto de la Tecnología en la Adolescencia'. Aquí puedes votar por nuestro proyecto.
Además, el CCII es una de las entidades firmantes del Manifiesto del Día de Internet, que, en esta edición está relacionado con una Inteligencia Artificial comprometida con las personas. Entre otros aspectos, se centra en elementos como la transparencia, el acceso, la ciberseguridad o el marco legal y ético dentro de esta tecnología. Aquí puedes consultar el manifiesto al completo:
La inteligencia artificial (en adelante, IA) tiene el potencial de transformar la forma en que interactuamos con el mundo y, a la vez, nos presenta una serie de retos importantes y grandes oportunidades. Actualmente, ya se utiliza en numerosas aplicaciones comerciales y de producción que abarcan todo tipo de industrias y las ventajas de su utilización son evidentes (automatización y mejora de procesos, productividad, control y optimización de recursos, reducción de errores, etc.). Detrás de estas ventajas se plantean algunos desafíos que el legislador, la industria y los propios ciudadanos no pueden obviar para que esta IA sea social, inclusiva y respetuosa con las personas.
Todo ello nos pone delante de ineludibles cuestiones ya abordadas en noviembre de 2021 por la UNESCO en la primera norma mundial sobre la ética de la IA : la "Recomendación sobre la ética de la inteligencia artificial". La Unión Europea ha dado un paso significativo en la regulación de los sistemas IA con la reciente aprobación del Reglamento de inteligencia artificial (AI ACT). Esta norma, que se espera entre en vigor en dos años, es el primer marco legal integral sobre IA en el mundo, fijando un momento histórico en la regulación de esta tecnología.
Para que el desarrollo y la innovación tecnológica de los sistemas de IA sean aceptados, es necesario que superen el filtro social para lo cual no basta con una serie de principios éticos que, por otro lado, son fundamentales. Es necesario que los sistemas de IA estén alineados y actúen de forma coherente con las creencias y objetivos humanos.
Por todo ello, es necesario velar porque el desarrollo e implementación de la IA esté comprometida con los ciudadanos. De lo contrario, se corre el riesgo de que estas tecnologías sean percibidas como negativas y produzcan un rechazo social, perdiendo la oportunidad de aprovecharse de los beneficios de desplegar la IA en todo su potencial.
1. Transparencia, comprensión, accesibilidad y control
Los resultados de los modelos utilizados por la IA deben de estar documentados ser comprensibles y accesibles para todas las personas, independientemente de su capacidad física, sensorial o cognitiva, promoviendo la inclusión y la igualdad de oportunidades en el marco del Reglamento de IA (AI ACT). Es necesario impulsar la transparencia y la implementación de normas, procesos y mecanismos de supervisión que permitan comprobar que estos principios se cumplen, poniendo en valor a aquellos modelos de IA que permitan recibir comentarios y apelaciones.
2. Alfabetización, desarrollo de competencias y empleo
Fomentar la formación de profesionales cualificados que promuevan la calidad y el desarrollo responsable de estos sistemas, impulsando la formación y capacitación sobre IA, así como el acceso a documentación que facilite su entendimiento. Impulsar, asimismo, la formación básica de la ciudadanía en IA, sus posibilidades y las consecuencias derivadas de un uso inadecuado de de forma que puedan tomar decisiones informadas en su relación con esta tecnología con especial foco en la gente joven, para que estén preparados para el acceso a empleos en los que puedan explotar todo el potencial de la IA.
3. Privacidad por diseño y acceso a los datos
Integrar medidas de privacidad desde la fase inicial del desarrollo de productos y servicios basados en IA, asegurando que la recolección y el procesamiento de datos se realizan conforme a la normativa de protección de datos. Facilitar el acceso a los datos para poder entrenar modelos de IA incentivando su uso en todos los ámbitos.
4. Ciberseguridad
Implementar medidas robustas de ciberseguridad para concienciar y promover un uso seguro y responsable de la IA. Del mismo modo, utilizar la inteligencia artificial para mejorar la ciberseguridad y resiliencia de productos, servicios, sistemas y, por ende, de las empresas y la sociedad en general.
5. Equidad y no discriminación
Mitigar sesgos y discriminación en los conjuntos de datos utilizados para el entrenamiento de modelos y asegurar que la IA no perpetúe ni amplifique prejuicios existentes en la sociedad. Luchar contra las brechas sociales que puedan surgir derivadas del uso de la IA.
6. Propiedad intelectual
Garantizar los derechos de propiedad intelectual en las nuevas situaciones creadas por la IA en esta materia (marcas, diseños, patentes o derechos de autor).
7. Marco legal y ético
Seguir desarrollando marcos legales y deontológicos específicos que definan claramente las obligaciones y responsabilidades de los desarrolladores, proveedores y usuarios en los sistemas que hagan uso de la IA.
8. Responsabilidad
Establecer protocolos en colaboración con la industria para el seguimiento y la revisión periódica de los avances de la IA, adaptándolos a los cambios normativos y legales, así como a las innovaciones y desarrollo de la tecnología.
9. Sostenibilidad e impacto ambiental
El uso de las tecnologías de IA debe evaluarse en función de su impacto en la "sostenibilidad", entendida como un concepto dinámico en constante evolución que incluya los Objetivos de Desarrollo Sostenible (ODS) de Naciones Unidas.
10. Co-gobernanza y participación ciudadana
La participación de las partes interesadas a lo largo del ciclo de vida de los sistemas de IA es necesaria para el desarrollo de enfoques inclusivos de gobernanza involucrando a la Sociedad Civil en este proceso. Fomentar la colaboración entre expertos en IA, ética y otras disciplinas relevantes para abordar de manera integral los desafíos técnicos y sociales asociados con la IA. Es importante que los gobiernos trabajen en colaboración a nivel internacional para establecer estándares comunes, compartir mejores prácticas y abordar los desafíos transfronterizos asociados con la IA como son la ciber seguridad y la gobernanza de los datos.
Este decálogo busca establecer principios fundamentales para guiar el desarrollo y la implementación de inteligencia artificial de manera ética y respetuosa con las personas.