Semana de la ciencia. El futuro digital que queremos depende de lo que hagamos en el presente

En una sesión que nos dejó con muchas preguntas y varias ideas de posibles soluciones, el pasado jueves 5 de noviembre, celebramos el foro abierto “El futuro digital que queremos”, organizado en el marco de la Semana de la Ciencia y con el apoyo de la línea de Ética y revolución digital de la Cátedra Iberdrola para los Objetivos de Desarrollo Sostenible.

Tras una presentación a cargo de Jesús Salgado, profesor de la Universidad Politécnica de Madrid, sobre qué es el Machine Learning y el problema de los sesgos implícito en el proprio proceso de aprendizaje de la tecnología, los participantes se dividieron en cuatro salas virtuales en las que se utilizaron cuatro dilemas para articular las conversaciones.

Destacamos algunas de las ideas, reflexiones y sugerencias surgidas durante la conversación…

SALA 1 | People Analytics y la gestión de personas en las organizaciones: dilema, ideas y reflexiones

  • Tecnologías como People Analytics nos permiten anticipar riesgos organizacionales: no solo midiendo el absentismo laboral, por ejemplo, sino llegando a clasificar a las personas como potencialmente conflictivas o peligrosas para la reputación de la compañía en función de su temperamento, que se puede medir por los movimientos del ratón. ¿Hasta qué punto es fiable traducir los movimientos del ratón en un perfil psicológico? ¿Cómo se miden los valores de una persona más allá de sus tendencias?
  • Las personas más jóvenes son más conscientes de su falta de privacidad que las generaciones más adultas: ¿no es una violación de libertad vivir con miedo a publicar algo que podría ser perjudicial para el futuro laboral?

SALA 2 | La “automatización” de la selección de personal: el problema de los sesgos cuando discriminar es la tarea

  • En un mundo interconectado y complejo, son cada vez más importantes las habilidades blandas como la capacidad de trabajar en equipo o la empatía: ¿Cómo incluir ese tipo de habilidades un algoritmo de preselección? Tal vez no pueda ser una tarea automática sino que siempre se necesitará a un ser humano.
  • Seleccionar personas en el fondo es discriminar en el sentido más neutro del término, porque es la acción de separar a las personas en dos grupos: aptas y no aptas. La máquina en sí no tiene sesgos, pero utiliza las etiquetas que introduce quien la programa. Por lo tanto, lo que está ocurriendo es que estamos transfiriendo a la máquina los sesgos humanos de quien entrena al algoritmo. ¿Tiene sentido corregir el sesgo artificialmente para que no se repitan patrones?

En ese sentido, es emblemática la noticia de que Amazon desechó la herramienta de inteligencia artificial que estaba utilizando en fase de contratación porque trascendió que estaba discriminando a las mujeres.

SALA 3 | El diagnóstico clínico basado en Inteligencia Artificial: de la confianza entre médico y paciente a la donación de datos clínicos por el bien colectivo

  • Una legislación muy estricta sobre la protección de datos (como la europea) puede tener efectos negativos sobre el entrenamiento de este tipo de algoritmos, que necesitan datos para entrenarse: ¿Cómo proteger la privacidad de las personas y a la vez aprovechar las ventajas que proporciona este tipo de tecnología? Una posibilidad sería plantear la donación de datos clínicos, como si de donación de órganos se tratara. 
  • Una manera de evitar los sesgos de quien programa el algoritmo, y a la vez proteger la salud pública, podría ser abrir los algoritmos que se usan en salud y hacer que se verifiquen por parte de muchas personas ajenas al propietario del algoritmo. ¿Está la sociedad preparada para ello?
  • Es cierto que el hecho de que un algoritmo se interponga entre médico y paciente puede conllevar una pérdida de credibilidad de la propia institución sanitaria. Sin embargo, con la pandemia de la COVID-19 y la cantidad de información que se ha generado y compartido a la vez hemos visto que es imposible para el personal sanitario absorber tanto conocimiento en tiempo real: la situación actual muestra lo mucho que ayudaría apoyarse en las máquinas para facilitar diagnósticos.

SALA 4 | Movilidad sostenible a cambio de datos personales: los datos como bien común o como mercancía

  • Cuando cedemos datos a ciertas aplicaciones, suele ser a cambio de utilizar un servicio gratuito, y el negocio de la aplicación en cuestión (Facebook, Google…) que recopila nuestros datos, consiste en venderlos a anunciantes interesados en maximizar su inversión en publicidad. ¿Y si el usuario -como dueño de sus datos- pudiera acceder al listado de empresas a quienes se venden sus datos y pudiera decidir qué anunciantes quiere tener?
  • ¿Cómo usuarios, podríamos exigir ser remunerados por dejar utilizar nuestros datos a empresas privadas?
  • Como ciudadanos, si quien accede y utiliza mis datos es el Gobierno y con el fin de tomar decisiones de políticas públicas, ¿se podrían considerar esos datos un bien común?

Sin duda, una de las principales conclusiones fue que el futuro deseable al que aspiramos se dibuja bastante distinto al que nos espera si no se plantean a tiempo cuestiones éticas sobre tecnologías cuyo desarrollo es mucho más rápido que la legislación y el propio debate público.

Con el ánimo de seguir avanzando en esta línea, hemos abierto un espacio digital en el que seguir canalizando el debate. ¿Nos acompañas?

Gracias por su colaboración a: Dolores Herrera, directora de cumplimiento del grupo Iberdrola; David Pastor, investigador en Inteligencia Artificial y Data para el Desarrollo, Universidad Politécnica de Madrid; Jesús Salgado, profesor de la Universidad Politécnica de Madrid y colaborador catedra ética y revolución digital itdUPM; María Asunción Gilsanz, directora del Máster en Inteligencia Artificial de la Universidad Europea de Madrid y Directora de Transformación y Sistemas de Tecnologías de la Información en Mediterráneo Vida; Francisco Fernández Ferreras, profesor del Dpto. Ingeniería de organización, Administración de empresas y Estadística de la UPM; Carlota Tarazona, estudiante de la UPM; María Ángeles Huerta, profesora de la ETSI Industriales y miembro del equipo de integración del itdUPM; Cecilia López, Andrea Amaya, Mónica del Moral y Simona Perfetti, miembros del equipo de integración del itdUPM.

Con el apoyo de: 

Responder