Síguenos en

  • Ir a Cermi en facebook.
  • Ir a Cermi en twitter.
  • Ir a Cermi en Linked in.
  • Ir a Cermi en Instagram.
  • Ir a Cermi en Youtube.

CERMI.ES semanal el periódico de la discapacidad.

viernes, 07 de febrero de 2020cermi.es semanal Nº 377

Ir a Cermi en Instagram.

"4,32 millones de personas con discapacidad,
más de 8.000 asociaciones luchando por sus derechos"

Opinión

Amenazas para las Personas con Discapacidad de una IA que no considere esta diversidad

¿Inteligencia Artificial en abierto o cerrado?

Por Joan Pahisa, Doctor en Informática y experto en Tecnología Accesible e I+D de Fundación ONCE

07/02/2020

Joan Pahisa, Doctor en Informática y experto en Tecnología Accesible e I+D de Fundación ONCESi una persona a lo largo de su vida tiene muy poco contacto con personas con discapacidad, ¿cuál es la posibilidad de que conozca su realidad? Muy baja. Esto mismo pasa con la inteligencia artificial, que aprende de grandes cantidades de datos, y si en ellos no tiene ejemplos de personas con discapacidad y de otros colectivos subrepresentados en muchos ámbitos de la sociedad, tenderá a ignorarlos en estos ámbitos y, por lo tanto, en las decisiones que tome no los tendrá en cuenta.
 
Actualmente se utilizan algoritmos de inteligencia artificial basados en el aprendizaje automático para crear asistentes virtuales como Siri, para desarrollar sistemas de navegación autónoma, para aumentar la eficiencia de procesos industriales y reducir el consumo de energía, para mejorar los diagnósticos en medicina, para analizar el sentimiento en mensajes de redes sociales o para facilitar la tarea de selección de candidatos en procesos de contratación, entre muchos otros casos. 
 
A priori, la mayoría de ellos tienen un impacto positivo en las personas: favorecer el acceso a la información, reducir accidentes, mejorar la salud; pero centrémonos en los grises, en los peligros de la inteligencia artificial, no en el sentido de una revolución de las máquinas, sino en el de dejar de lado a colectivos vulnerables y a una de las riquezas intrínsecas del ser humano, la diversidad, a partir de un par de casos.
 
Primero. Los algoritmos de análisis de los sentimientos en textos y mensajes tienden a valorar las palabras relacionadas con la discapacidad como negativas, al fin y al cabo, muchas de ellas se utilizan como insulto. “Ciego”, “sordo”, “enano”, son solo algunos ejemplos de palabras que están a la orden del día en los comentarios sobre política, deportes o trivialidades de cualquier periódico o red social que se precie. 
 
Precisamente, en una de estas redes, influida por dichos algoritmos, hace unos meses se tomó la decisión de restringir el alcance de los mensajes publicados por perfiles de personas con discapacidad, LGTBQ o con sobrepeso. Aunque de forma bienintencionada, ya que la medida pretendía reducir el ciberacoso, en vez de sancionar a las cuentas que cometían el agravio, se perjudicó a las víctimas coartando el alcance de su voz y, en consecuencia, limitando la cantidad de contenido generado desde la diversidad, contenido que, a la vez, sirve para alimentar a los mismos algoritmos y para sensibilizar a la sociedad desde la normalidad. Días después, gracias a las quejas de los colectivos de usuarios, la decisión fue revocada.
 
Segundo. En el reciente proceso de selección para un puesto de responsabilidad dentro de una gran empresa había cientos de candidatos y, entre ellos, había dos que sobresalían por formación, conocimientos y por años de experiencia. Uno de ellos había tardado dos años más en finalizar sus estudios. Este mismo tenía un grado de discapacidad del 65%. Un algoritmo analizó su idoneidad basándose en el perfil de las personas que ocupan puestos similares en la actualidad. La presencia de la discapacidad es testimonial, así que hubo un perfil que no pasó ni el primer corte. El otro llegó a la fase de entrevistas y acabó consiguiendo el puesto.
 
Cualquier persona familiarizada con la discapacidad, hubiera sabido que es casi imposible acabar unos estudios en el tiempo previsto por todas las barreras que se tienen que sortear en el camino, ya sean arquitectónicas, legales, logísticas o sociales. Además, la experiencia adquirida para resolver estas barreras, la capacidad de encontrar maneras alternativas para llevar a cabo las mismas tareas y la resiliencia de hacer frente a las adversidades son intangibles muy valiosos en multitud de puestos de trabajo que ni los algoritmos, ni muchas de las personas implicadas en los procesos de selección, son capaces de apreciar.
 
De los dos casos anteriores, uno de ellos es real y el otro podría serlo si no se insiste en que los algoritmos sean transparentes, para que se sepa cómo llevan a cabo la toma de decisiones, y supervisados, para que se puedan corregir los sesgos presentes en los datos. 
 
Y aquí es donde radica uno de los mayores problemas: disponer de datos que no solo reflejen la realidad, sino una sociedad con igualdad de oportunidades a la que se debería aspirar. Y la siguiente disyuntiva: si no se recogen datos sobre las personas con discapacidad, ya sea por cuestiones de protección de datos o por inexistencia de los mismos, los algoritmos nunca podrán aprender de ellos pero, al mismo tiempo, mientras estos datos no sean bien tratados, es decir, mientras los algoritmos los consideren como variables negativas, proporcionarlos puede acentuar aún más las desigualdades.
 
Es innegable que la tecnología, alentada por el creciente empuje de la inteligencia artificial, tiene un enorme potencial para ayudar a las personas con discapacidad. Algoritmos que leen textos y reconocen imágenes por sí solos, dispositivos que transcriben conversaciones a personas con problemas de audición, casas domóticas que permiten controlar luces, persianas o termostatos a distancia, robots asistenciales e innumerables soluciones más que ya facilitan la independencia de muchas personas. ¡Y muchas más que habría si los productos dirigidos al público en general se desarrollaran bajo los preceptos del diseño universal!
 
Por el contrario, como hemos visto, la tecnología y la inteligencia artificial pecan de los mismos prejuicios que sus creadores y que la sociedad en la que vivimos y, si no se actúa, se corre el peligro de que se conviertan en barreras. La “esperanza” es que, con el envejecimiento de la población, cada vez habrá más personas con discapacidad y, por lo tanto, más datos y más potencial de negocio que incentive este cambio. De todos modos, es preciso adelantarse: los productos y los algoritmos que se diseñan ahora tienen que estar preparados para ese futuro, si no, cuando llegue el futuro, seguirán irremediablemente anclados en el pasado.
  • facebook
  • twitter
  • linked in
  • enviar a un amigo
  • imprimir noticia

Con el apoyo de:

  • Logotipo de El Goberno de España - Ministerio de Sanidad, Consumo y Bienestar Social, Secretaría de estado de servicios sociales. Abre una ventana nueva.
  • Logotipo de la Fundación ONCE. Abre una ventana nueva.
  • CERMI. Innovación social en discapacidad. Abre una ventana nueva.
  • Logotipo de El Goberno de España - Ministerio de Asuntos sociales, unión europea y cooperación. Abre una ventana nueva.
  • Logotipo de la Hablamos de Europa Abre una ventana nueva.

    ¿Dónde estamos?

    Calle Recoletos, 1 Bajo, 28001 Madrid - España