fbpx

¿Por qué es tan importante la ética en el desarrollo de la Inteligencia Artificial?

03 Mar 2022

A día de hoy seguramente todos habremos escuchado alguna noticia relacionada con sesgos o fallos en los algoritmos, llegando a criminalizar este tipo de tecnología. Lo cierto es que la discusión de la ética sobre la Inteligencia Artificial y los modelos de Machine Learning toma cada vez más importancia en todos los sectores, a nivel social, tecnológico y regulatorio. Se trata de una tecnología muy diferente a otras, pues aprende por si misma y es capaz de hacer predicciones, pero si ese aprendizaje no se hace de manera adecuada, las decisiones pueden estar sesgadas. La Inteligencia Artificial puede contribuir de manera muy positiva en la vida de las personas y la actividad de las compañías, pero para ello deberá de estar basada en unos principios éticos.

Problemas de sesgos en los algoritmos

Para entender el alcance del problema de la ética en la Inteligencia Artificial, podemos ver algunos fallos en los algoritmos que provocan un impacto muy negativo:

  • El mismo director del Cervantes considera que los algoritmos podrían empobrecer las lenguas (por ejemplo en el área de la traducción). Destaca también la importancia de los matices ante la IA y los posibles sesgos hacia dinámicas machistas o racistas.

Es importante tener en cuenta que estos sesgos no tienen la misma importancia según dónde se produzcan. Aunque éticamente es importante evitarlos en cualquier contexto, hay sectores o ámbitos determinados en los que pueden afectar de manera más grave a la vida de las personas. Es el caso del sector bancario, por ejemplo. Un sesgo en el algoritmo podría producir que una persona de determinada nacionalidad, sexo o raza, no tenga acceso a un crédito, y esto es algo grave. Y lo mismo en el caso de los programas de recursos humanos: el algoritmo podría estar reduciendo las oportunidades laborales de algunas personas y eso es algo que no puede producirse. Por ello, aquellos sectores o áreas en las que el algoritmo pueda afectar de manera importante a la vida de las personas deben de tener especial delicadeza a la hora de desarrollar sus modelos de Machine Learning.

Avances a nivel regulatorio en el ámbito de la ética y la Inteligencia Artificial

Las Administraciones han comprendido el problema de la ética en la Inteligencia Artificial, ya se están produciendo cambios y actualizaciones en la regulación y en los planes de los gobiernos.

Por ejemplo, en el año 2020 el Gobierno de España publicaba su Estrategia Nacional de Inteligencia Artificial, en la que dedica uno de sus apartados a la Inteligencia Artificial, tanto a nivel ético como normativo. Por su parte, la Comisión Europea presentó en Abril de 2021 una propuesta de regulación sobre la Inteligencia Artificial, para contar con un marco común para todas las empresas.

Pero, ¿Cómo creamos un modelo de Machine Learning que cumpla con la ética?

La respuesta a esta pregunta podemos realizarla de muchas maneras, y en cualquiera de los casos siempre cabría la posibilidad de cuestionar si se está cumpliendo realmente con el aspecto ético. La dificultad se encuentra en que el concepto de la ética es muy subjetivo. Determinar si un modelo de Machine Learning es ético, bien sea en su propio uso o en el diseño en base a unos datos libres de sesgo, es algo que difícilmente puede comprobarse mediante una fórmula matemática.

Volvamos por un momento al ejemplo del fallo en los algoritmos utilizados en los sistemas de reclutamiento. En este caso, el sesgo crea una discriminación hacia la mujer, debido a que la mayoría de profesionales con carreras técnicas son hombres. Por ello, cabe plantearse cómo educar a esa Inteligencia Artificial, e incluso si tiene sentido utilizar un Modelo de Machine Learning para elegir los candidatos más adecuados para un puesto de trabajo tecnológico. ¿Es ético el uso de un algoritmo para decidir en un caso como este?

Estas son cuestiones de principios que nosotros, como empleados pertenecientes a cualquier organización, debemos plantearnos antes de evaluar los posibles réditos económicos de esta tecnología.

Desde VASS buscamos siempre la sostenibilidad de nuestras acciones, y esto incluye la sostenibilidad de la tecnología que desarrollamos para nuestros clientes. Por eso tenemos muy en cuenta esta problemática y utilizamos una metodología que asegura que en todos los proyectos que realizamos se vigilen los sesgos y se minimicen al máximo posible.

Previo al desarrollo de cualquier proyecto de Machine Learning, se deben revisar concienzudamente los datos que se van a utilizar. Los datos representan por lo general hechos y decisiones pasadas, por lo que si dichas decisiones se tomaron dentro de una sociedad con sesgos, los datos contendrán esos mismos sesgos, reforzándolos al utilizarlos para la creación de modelos. Entre los diferentes sesgos debidos a los datos que podemos encontrarnos, existen dos particularmente relacionados con la ética que debemos de tener en cuenta:

  • Sesgos de muestreo. Los datos suelen ser una muestra de la totalidad de la información, por lo que pueden no ser representativos de la realidad. Esto puede penalizar en algunos casos a algunos conjuntos, ya sea por exceso o por defecto de representación. Incidiendo sobre el mismo ejemplo comentado previamente, parecería razonable encontrar una muestra de datos desbalanceada en favor de un mayor número de hombres con habilidades técnicas. ¿Y si “sobremuestreáramos” los datos de las mujeres haciendo que la muestra entre ambos sexos sea más igualitaria?
  • Sesgos debido a variables protegidas o Proxy. En este caso, un conjunto de datos puede inducir el sesgo de un algoritmo si se entrena con variables protegidas (como el sexo, la nacionalidad o la raza) o con variables proxy (es decir, variables altamente relacionadas con la variable protegida). Cuando se dan este tipo de situaciones, es importante prestar atención a los datos antes de realizar un modelo para evaluar si es conveniente incluir dichas variables protegidas. Pero igual de relevante es revisar la interpretabilidad del modelo predictivo. Es decir, entender si el modelo ha dado mucho peso a estas variables a la hora de realizar la predicción.

Principios éticos para el desarrollo de la Inteligencia Artificial en las compañías

Debemos comprender que la Inteligencia Artificial y los modelos de Machine Learning no son una ciencia exacta. Por un lado, porque dependen de la fiabilidad de los datos previamente introducidos y, por otro, porque no tienen la percepción humana de ética o moral. Además, existe una brecha entre los conceptos que una máquina puede comprender y predecir y la aplicación en el mundo real.

Es importante que las compañías comprendan esto y trabajen para incorporar la ética a la tecnología, como parte de la sofisticación de la misma. De hecho, es muy probable que en el futuro estos principios éticos no sean ni siquiera opcionales, sino que existirán regulaciones que obligarán a controlar y eliminar los sesgos. Por tanto, las compañías que quieran estar preparadas para el futuro tendrán que profundizar en la aplicación de la ética.

Carlos Anton

Head of Innovation Analytics

Share This