La nueva Inteligencia Artificial “ética”
¡Aunque nos suene a película de ficción la Inteligencia Artificial ya forma parte de nuestras vidas, productos como los correctores ortográficos, los reconocimientos de voz, los asistentes virtuales o los equipos de prevención de riesgos son más que necesarios hoy en día. Por muy sencillos que parezcan son realmente complejos y gracias a la robótica y las nuevas tecnologías la IA crece a pasos agigantados, tanto que se habla de una cuarta revolución industrial o industria 4.0.
Es por ello que tanto empresas como instituciones están desarrollando sus propios principios éticos para los sistemas de Inteligencia Artificial, de hecho la Comisión Europea de Bruselas ya ha publicado sus propias directrices para guiar a las empresas hacía sistemas de Inteligencia Artificial confiables y regular el uso de estas tecnologías. Esto no se ha llevado a cabo solo para controlar las actividades de las empresas con estas tecnologías, sino que más aun para asegurar que los nuevos y futuros sistemas de Inteligencia Artificial respeten la autonomía y los derechos de los ciudadanos europeos sin ningún tipo de discriminación y sean imparciales.
Esta anticipación al auge de la IA y los robots se debe a que aunque sean muchos los beneficios ofrecidos por estos sistemas en muchos ámbitos como la medicina, la ingeniería o la domótica, no hay que olvidar que se tratan de seres inteligentes que podrían convertirse en una amenaza si se usan indebidamente. La IA es capaz de reproducir los métodos de aprendizaje de los humanos consiguiendo ser autónoma e independiente, por ello deben ser controladas de algún modo.
Estas son las pautas que ha publicado la Unión Europea con el objetivo de que se preserven los derechos y libertades de los seres humanos sin frenar el desarrollo tecnológico:
- Supervisión humana: los sistemas de IA tienen que apoyar los derechos fundamentales de los humanos sin limitar o disminuir su autonomía, haciendo así una sociedad equitativa.
- Robustez y seguridad: los algoritmos de la IA deben ser lo suficientemente seguros, confiables y sólidos como para enfrentar errores durante todas las fases de su ciclo de vida.
- Privacidad y control de los datos: los humanos deben tener control total sobre sus propios datos, y estos datos no se utilizarán para dañar a los ciudadanos o discriminarlos.
- Transparencia: Asegurar la trazabilidad de los sistemas de IA.
- Diversidad, no discriminación y equidad: los sistemas de IA deben considerar toda la gama de habilidades y requisitos humanos, y garantizar la accesibilidad.
- Bienestar social y ambiental: los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica.
- Responsabilidad: Deben establecerse mecanismos para garantizar la responsabilidad de los sistemas de IA y sus resultados.
No sabemos aun lo que nos deparará el futuro, pero gracias a estas directrices tenemos la certeza que será un desarrollo y un avance seguro, en Game estamos más que preparados.