En el siglo XXI, la inteligencia artificial (IA) se ha convertido en una de las tecnologías más disruptivas de nuestra época. Con un potencial de aplicación prácticamente ilimitado, la IA tiene el poder de transformar nuestro mundo, pero también plantea una serie de retos éticos (diversos y complejos) que debemos abordar, como por ejemplo: la discriminación (sesgos), la privacidad (datos personales, de la sociedad), la seguridad (los sistemas pueden ser vulnerables), la responsabilidad (¿quién se hace responsable de lo que genera?) y la sostenibilidad (contaminación, etc.).
No hay una respuesta fácil ante todo ello pero, es necesario trabajarlo de forma conjunta desde los gobiernos, las instituciones, las empresas y la sociedad.
El pasado mes de octubre, Gemma Galdon Clavell, experta en análisis de políticas públicas especializada en impacto social de la digitalización e Inteligencia Artificial y CEO de Eticas Consulting, ofreció una muy interesante ponencia en la Universidad de Deusto sobre todo ello. A continuación podéis encontrar el enlace a la grabación íntegra pero, os dejamos también algunas de las ideas que nos han llamado la atención:
- “La IA, ni es inteligente ni es artificial”. Procesa grandes bases de datos del pasado para encontrar patrones.
- Para la IA la normalidad es muy importante, todo lo que se salga de esos patrones, se discrimina y son outlayers (minorías, formas diferentes, etc).
- Es importante realizar auditorías algorítmicas (inspeccionar sistemas y detectar problemas, en el pre-procesamiento, durante el procesamiento y en el post-procesamiento de datos).
- Debemos apostar por la IA responsable. Dotar de cinturones de seguridad a la IA. Los coches podrían funcionar sin cinturones pero, nadie se plantea vender o utilizar un coche que no los tenga.
- ¿Por qué es importante la ética en todo ello?
- Porque las bases de datos casi siempre son datos personales, de la población. Todo lo que hacemos deja un rastro.
- La IA siempre tiende a dejar a los outlayers fuera. La gestión de los outlayers, toma más relevancia cuando se trata de temas más sensibles (temas bancarios, valorar curriculums en procesos de selección, salud, valoración del desempeño, etc.) y no de ocio (Netflix, GPS, etc.)
- Es muy importante entender que los retos de la IA no son retos técnicos con soluciones técnicas.
- Los retos del presente y del futuro son socio-técnicos y por lo tanto, el conocimiento también tiene que ser socio-técnico.
Os invitamos a ver su conferencia y darnos vuestras opiniones. ¿Os han sorprendido algunos de los ejemplos que plantea? ¿Estáis de acuerdo?