Efectividad, eficacia e imparcialidad de la inteligencia artificial

Cynthia Rojas Ureña | Política y sociedad / ENFOCÁNDONOS EN LO IMPORTANTE

La inteligencia artificial, desde la perspectiva monetizada, se ha analizado principalmente desde la eficiencia, la efectividad, así como el aumento de la productividad. Sin embargo, hay otra forma de analizarla, y es según el punto de vista sociológico y antropológico, el cual más que académico meramente complementa al primero. No se debe olvidar que el pensamiento es social y nace en parte de las interacciones de las personas.

La sociología se ha puesto al corriente de los tiempos y ha desarrollado áreas de investigación como la sociología informática, la cibersociología, la inteligencia artificial social, así como sistemas expertos. La ingeniería del conocimiento se viene desarrollando desde 1975, arrancando con sistemas expertos y agregando cada vez más capacidades cognitivas a partir de la década de los 90 (Brent, 1986), ya para 1994 se tenían censados más de 2 500 sistemas expertos en diferentes áreas, entre las cuales se mencionan negocios, manufactura, medicina, ingeniería, ciencias aplicadas, militar, espacio, transporte, educación, transacciones bancarias, control de tráfico, problemas de horarios, programas, planificación, optimización de objetivos, diagnóstico médico, agentes secretos (Brent, 1996). Es decir, la inteligencia artificial ha sido un proceso evolutivo que viene transformándose desde hace décadas y ahora, gracias al bajo costo del procesamiento y el desarrollo de más y mejores lenguajes de programación, entre otros factores, permite el desarrollo más rápido de estas tecnologías.

Dada la rapidez con la que la transformación digital y la IA incursionan en más sectores de la industria y de la vida privada de la sociedad, se hace imprescindible el trabajo multidisciplinario que asegure imparcialidad, eliminación de sesgos y prejuicios de quienes programan los algoritmos.

Durante este año se realizó una investigación en Estados Unidos, la cual tenía como objetivo conocer la opinión de los ciudadanos con respecto al uso de algoritmos computaciones en inteligencia artificial (IA), se encontró que la gran mayoría de la muestra expresa preocupación sobre la justicia y efectividad de los programas cuando toman decisiones importantes con respecto a la vida de las personas y sus consecuencias (Smith & Aaron, 2016).

Entre los hallazgos más relevantes de dicha investigación se tienen los siguientes:

1. Numerosas empresas ahora ofrecen puntajes de crédito no tradicionales. Las mismas construyen sus calificaciones utilizando miles de puntos de datos sobre las actividades y comportamientos de los clientes, bajo la premisa de que «todos los datos son datos de crédito».

  • El 68 % califica como inaceptable que sea un algoritmo automatizado quien le asigne un puntaje financiero.
  • Los entrevistados consideran que tomar datos de su huella digital en la red y usarlo para fines de calificación crediticia viola su privacidad.
  • Consideran injusto y preocupante el uso de este tipo de algoritmos.
  • Los resultados varían entre etnias, los afroamericanos y los hispanos son más propensos que los blancos a encontrar el concepto de puntaje de financiamiento de consumo justo para los consumidores. Solo el 25 % de los blancos piensa que este tipo de programa sería justo para los consumidores, pero esa proporción aumenta al 45 % entre los afroamericanos y al 47 % entre los hispanos.

2. Una amplia cantidad de estados utilizan evaluaciones de riesgo penal para estimar la probabilidad de que una persona condenada por un delito vuelva a ser culpable en el futuro.

  • El 56 % de los entrevistados consideran su uso inaceptable y 42 % aceptable.
  • Los resultados muestran que los entrevistados se sienten preocupados sobre este tema, pues indican que las personas son todas diferentes y que un algoritmo programado no estaría dejando espacio para el crecimiento personal y el desarrollo.
  • Los afroamericanos expresan mucha más preocupación por el algoritmo de puntuación de libertad condicional que los blancos o los hispanos. Aproximadamente seis de cada diez afroamericanos (61% ) piensan que este tipo de programa no sería justo para las personas en libertad condicional, significativamente mayor que la proporción de blancos (49 %) o hispanos (38 %) que dicen lo mismo.

3. Varias empresas multinacionales están utilizando actualmente sistemas basados en IA durante las entrevistas de trabajo para evaluar la honestidad, el estado emocional y la personalidad general de los solicitantes. La selección automatizada del currículum es una práctica de recursos humanos común y de larga data para eliminar candidatos que no cumplen con los requisitos para un puesto de trabajo.

  • El 57 % considera inaceptable que sea un algoritmo sea quien escoja o deseche candidatos para puestos de trabajo.
  • El 67 % considera inaceptable, injusto y con alto riesgo de parcialidad el hecho que se utilice el análisis de video automatizado para realizar entrevistas de trabajo.
  • El uso de este mecanismo se considera que remueve el elemento humano de decisiones importantes.

Algunos de los puntos más destacados mencionados por los entrevistados son:

• El 75 % de los entrevistados están dispuestos a compartir sus datos si a cambio reciben información sobre eventos donde asistir.
• Solo el 35 % estarían dispuestos que al compartir sus datos a cambio de recibir mensajes de campañas políticas.
• El 58 % opina que los algoritmos siempre reflejarán los sesgos de las personas que los diseñaron, mientras que el 40 % cree que es posible que los programas de computadora tomen decisiones que estén libres de sesgos humanos. En particular, los estadounidenses más jóvenes apoyan más la idea de que se pueden desarrollar programas informáticos libres de sesgos. La mitad de los jóvenes de 18 a 29 años y el 43 % de los de 30 a 49 años sostienen este punto de vista, pero esa proporción cae al 34 % entre las personas de 50 años o más.
• En la siguiente tabla se resumen los resultados con respecto a la percepción de efectividad e imparcialidad de la investigación.

Porcentajes obtenidos de la investigación, elaboración propia con datos de Smith & Aaron (2016).

El desarrollo de algoritmos hasta el momento es realizado por seres humanos, con alta probabilidad de sesgos y prejuicios. Como se pudo constatar en la investigación realizada por Smith & Aaron (2016), la percepción con respecto a la efectividad y la fiabilidad es importante, ya que refleja el pensamiento social de una cultura. En nuestro continente latinoamericano es necesario el desarrollo de investigaciones de este tipo, ya que permiten conocer la realidad en primera persona, pues como se pudo confirmar, la cosmovisión cambia por raza y geografía.

En la actualidad, muchas organizaciones, tanto comerciales como aquellas sin fines de lucro, se encuentran desarrollando estrategias e importantes inversiones para generar valor a sus clientes mediante la IA y otras tecnologías utilizadas en el proceso de transformación digital. Por ello, toda estrategia de este tipo requiere tomar en cuenta la combinación del componente sociológico con la tecnología, de manera tal que los usuarios perciban tanto efectividad como imparcialidad y justicia en los procesos automatizados. Para disminuir el riesgo es importante el desarrollo e implementación de proyectos piloto, verificación, medición y calibración tecnológica alineada a la percepción (social), que permitan ajustar la estrategia, así como contar con el personal interdisciplinario que permita interpretar los resultados y proponer ajustes durante la ejecución. Este equipo debe comprender que las ecuaciones de la transformación digital poseen más componentes que los cuantitativos, el modelo matemático debe incorporar al mundo social, la información empírica y las teorías sociológicas. De lo contario, se corre el riesgo de afectar la experiencia del usuario, el cual, dada la interconectividad, no dudará en expresarlo en las redes sociales. Esto podrá producir un efecto dominó negativo en la percepción del servicio, producto o nombre de la empresa, poniendo en riesgo la inversión de la estrategia y la percepción que se tiene de la empresa en el colectivo social.


Imagen principal tomada de Sintetia.

BRENT, E. (1986). «Knowledge-based Systems: A qualitative formalism». Qualitative Sociology, 256-282.
Lozares, C. (2004). La simulación social, ¿una nueva manera de investigar en ciencia social? Revista sociologia, 165-188.
Mckinsey. (2018, noviembre). Applying artificial intelligence for social good. Recuperado de McKinsey.
Smith, & Aaron. (2016). Public Attitudes Toward Computer Algorithms. USA: Pew Research Center.

Cynthia Rojas Ureña

Ingeniera en Sistemas con más de 20 años de experiencia en el sector, máster en Resolución de Conflictos y Mediación en España, máster en Administración de Negocios con énfasis en Gestión Tecnológica y doctora en Ciencias de la Administración de la UNED en Costa Rica. Apasionada lectora e investigadora de temas relacionados con tecnología, sociedad y ciencias empresariales. Fiel creyente que la tecnología sigue siendo un medio para la sociedad y no un fin en sí misma.

Enfocándonos en lo importante

Un Commentario

Maritza Rojas 08/12/2018

Muy tècnico y bien fundamentado. A esto nos enfrentamos como sociedad y si con esa inteligencia hay menos sesgos es importante ponerle atención a los resultados. La tecnología debe ayudarnos a construir una mejor sociedad

Dejar un comentario