fbpx

Sócrates y la Inteligencia Artificial. Retos éticos para nuestro futuro

10 Mar 2021

Hace más de 2000 años, en la antigua Grecia, se empezó a discutir sobre la ética y la moral. En este momento, lejos de difuminarse, ese debate está de rabiosa actualidad gracias a las nuevas tecnologías. La Inteligencia Artificial forma parte de nuestro día a día y cada vez somos más dependientes de la misma, está en nuestros móviles, en los productos que nos recomiendan, en los coches, en los asistentes de voz, chatbots… La lista es inimaginable, pero… ¿Qué pasa cuando esa IA no sigue unos patrones éticos?

Problemas derivados de la AI

Hace unos años, un usuario de Google Photos se sorprendió al descubrir que la aplicación confundía a sus amigos de color con gorilas. El algoritmo era incapaz de encontrar las diferencias y los ingenieros de Google pasaron a eliminar a los chimpancés, monos y gorilas de sus búsquedas para subsanar el error, pero esto parece más bien un parche que una solución.

Bot Tay fue un chatbot de Microsoft Corporation que se diseñó para navegar por Twitter y publicar Tuits, pero pasadas unas horas sus publicaciones se tornaron misóginas y racistas, obligando a la empresa a desactivarlo 16 horas después de su lanzamiento. Lo intentaron más tarde con un bot políticamente correcto llamado Zo que en principio no se posicionaba sobre ninguna religión para no ofender a ninguna minoría, pero sí estaba dispuesta a dialogar sobre el cristianismo. Al final, este bot también fue desactivado por no cumplir con las expectativas.

Desde luego que no son casos aislados, son solo ejemplos de los más sonados, pero abre un debate realmente interesante.

Un modelo de machine learning o una red neuronal no es antiética per se, pero sí el uso que se hace del mismo. Uno de los grandes problemas no es el uso propiamente dicho, sino cómo están alimentadas esas redes, ya que si tienen sesgos, el resultado puede llegar a ser catastrófico.

Retos éticos de la inteligencia artificial

Se abren nuevos retos éticos que habrá que estudiar y tratar, tanto por tecnólogos y expertos, como por la sociedad en general, para poder integrar esta revolución digital en nuestro día a día sin menoscabo para nuestro futuro.

Actualmente, tu propio automóvil de conducción autónoma puede tomar la decisión en una situación concreta de estrellarse poniendo en peligro tu vida, para salvar de un inminente atropello a varios peatones.

Los sistemas de puntuación para ciudadanos basados en Big Data y en algoritmos que analizan tu actividad, multas, pagos, transferencias, pueden marcar una vida para siempre si se producen errores como los anteriormente mencionados.

Quizás detenernos un poco para establecer esos principios que ya planteó Sócrates hace ya mucho tiempo, haga que avancemos aún más rápido y con paso firme.


Soluciones para eliminar el sesgo y fomentar la transparencia

Desde luego las soluciones a corto plazo pasan por un tratamiento del dato exquisito, evitar las cajas negras (modelos completamente opacos que otorgan una predicción sin conocer el porqué de esta) en la medida de lo posible, eliminar los diferentes sesgos del programador, crear un código deontológico impulsado por las empresas del sector y educar a nivel ético de las nuevas tecnogeneraciones para evitar volver a cometer los mismos errores.

Estas sencillas premisas pueden ser el germen de un futuro mucho más ético.

En VASS somos conscientes de la importancia que tiene desarrollar Inteligencia Artificial sin incurrir en los problemas éticos comentados, sin importar el sector o el caso de uso de negocio. Nuestra metodología de proyectos fomenta la transparencia e “interpretabilidad” de los modelos predictivos que llevamos a nuestros clientes. ¿Quieres conocer más sobre ella? En los próximos meses impulsaremos una serie de acciones para dar a conocer las medidas que estamos planteando para afrontar este desafío.

“La inteligencia artificial y Sócrates son actualmente una ecuación indivisible”

Hector García

Data & AI Business Consultant

Share This