Inteligencia artificial y responsabilidad social corporativa

Cada día que pasa nos llegan más noticias de nuevas tecnologías que harán (o incluso hacen ya) de manera más eficiente tareas realizadas antes por humanos, pero que traerán consigo diversos debates y riesgos asociados.
107

La mayoría de los empleos que existen hoy en día podrían desaparecer en décadas. A medida que la inteligencia artificial supera a los humanos en más y más tareas, los reemplazará en más y más empleos.

Si nos basamos en las tendencias y nuevas invenciones tecnológicas, informáticas y del conocimiento, el horizonte no parece muy halagüeño para el mantenimiento del empleo, pero la mayoría de la población activa en España parece que no se siente amenazada en ese aspecto.

Según el informe de Infojobs publicado el mes de mayo y titulado Estado del mercado laboral en España, el 76% de población activa no cree que la automatización y nuevas tecnologías vayan a poner en peligro su puesto de trabajo.

Sin embargo, el resultado es diferente si el encuestado está o no trabajando. El 40% de parados que contestaron la encuesta cree que su futuro laboral está en riesgo a causa de la automatización, mientras que en el caso de los ocupados se reduce al 20%.

Tanto si los cambios son muy profundos o de menos calado como si se realizan en un plazo más corto o largo de tiempo, se van a acabar dando, y ello va a tener un impacto muy importante no sólo en pérdidas de empleos sino también en cómo gestionan las empresas esas pérdidas de empleo y otros problemas que pueden venir asociados del uso de nuevas tecnologías, y que van a afectar a su transparencia y a la confianza y credibilidad que transmiten a sus grupos de interés y por ende a su sostenibilidad.

La llamada industria 4.0 ya ha llegado y parece que las empresas no están muy preocupadas aparentemente sobre cómo deberán modificar su responsabilidad social corporativa para hacer frente a los retos y debates que se deberán poner sobre la mesa.

Sin ir más lejos, una búsqueda en Google por palabras clave “inteligencia artificial y responsabilidad social corporativa” o añadiendo “industria 4.0” no da resultados que profundicen mínimamente en el tema, lo cual me parece bastante preocupante.

Inteligencia artificial, ¿se puede rendir cuentas sobre algo que nadie entiende?

Para aquellos poco versados en estos temas, el título de este apartado puede sonar absurdo, ¿cómo puede ser que no se entienda cómo funciona la inteligencia artificial? Pues, lamento decirles a quienes no lo sepan que ni es absurdo ni me lo he inventado yo.

El desarrollo de sistemas basados en inteligencia artificial y en el llamado deep learning (aprendizaje profundo) crea “cajas negras” (por su opacidad, no confundir con las de registro de datos de aviones y similares) que generan buenos resultados, pero que los humanos no sabemos muy bien cómo se ha llegado a ellos, tal y como podemos leer en este artículo de Business Insider.

El desarrollo de sistemas basados en inteligencia artificial generan buenos resultados, pero los humanos no sabemos muy bien cómo se ha llegado a ellos.

Existen ya, por ejemplo, algoritmos basados en esa tecnología para decidir si se otorga una hipoteca o un préstamo, quién es la persona idónea en un proceso de selección, o en qué acciones y en qué importe se debe invertir en bolsa para sacar un buen rendimiento.

Esos algoritmos no son para nada sencillos, y parten de la base de que tras una programación inicial se van proporcionando casos que el algoritmo deberá resolver. Esos resultados son valorados y validados por humanos y la información sobre si se ha hecho bien o mal es reintroducida en el algoritmo, de manera que él mismo aprende y se reprograma para dar con soluciones que al final del aprendizaje son incluso más certeras que las humanas, pero que han convertido al algoritmo en algo que no se puede escudriñar y no podemos saber las razones exactas que han llevado a esa solución o resultado.

En resumen, en lugar de escribir código se alimenta con datos al algoritmo genérico y él mismo construye su propia lógica basada en los datos recibidos.

Salvando las distancias viene a ser como enseñar a una persona, que nos dará resultados correctos al final del aprendizaje pero a la que no podemos escudriñar su cerebro para saber cómo ha llegado a un resultado concreto.

A la persona le podremos preguntar por qué y cómo ha llegado a una decisión o resultado y nos lo podrá decir, pero la máquina no, será simple y llanamente una caja negra que escupe resultados.

Entre los problemas que puede crear el pasar a depender de decisiones tomadas por cajas negras se encuentran las que Enrique Dans comenta en su blog.

Una de ellas es la falta de transparencia. Hace falta que las tareas que anteriormente hacían humanos y para las que se están creando algoritmos de inteligencia artificial sean transparentes. Necesitamos saber por qué no se nos concede un préstamo para poder mejorar nuestras opciones a que nos sea otorgado, o por qué un coche autopilotado ha decidido estrellarse contra un árbol, o cualquier otra decisión que nos sea de importancia y haya sido tomada por una inteligencia artificial.

La otra es la posible introducción de sesgos. Podríamos pensar que los algoritmos serán más objetivos que las personas a la hora de decidir cosas, pero sólo lo serán en base a que hayan sido alimentados de manera objetiva, tanto al inicio como a medida que el algoritmo va aprendiendo.

Como vemos es un tema muy complejo y además a partir del verano del año que viene la Unión Europea podría exigir que las empresas sean capaces de dar a los usuarios una explicación de las decisiones que toman los sistemas automatizados.

Lo anterior podría ser imposible, incluso para sistemas que parecen relativamente simples en la superficie, como las aplicaciones y los sitios web que utilizan el aprendizaje profundo para publicar anuncios o recomendar canciones.

Los ordenadores que ejecutan esos servicios han sido programados y han aprendido de formas que no podemos entender. Incluso los ingenieros que construyen estas aplicaciones no pueden explicar completamente su comportamiento.

A partir del verano del 2018 la Unión Europea podría exigir que las empresas sean capaces de dar a los usuarios una explicación de las decisiones que toman los sistemas automatizados.

¿Está la RSC preparada para este nuevo horizonte tecnológico?

La inteligencia artificial plantea una serie de preguntas sobre temas sociales, económicos, políticos, tecnológicos, legales, éticos y filosóficos.

Aunque los algoritmos anteriormente comentados pueden ser usados por empresas como pueden ser bancos, fabricantes de automóviles, etc., éste no es un tema que tenga que ver sólo con el sector privado sino que también afecta al sector público, al Estado, a las administraciones, a los ejércitos, o a otros entes en los que puedan ser usados (virtualmente cualquiera).

Más allá de ese sector público y su propia idiosincrasia, ¿podrán las empresas rendir cuentas sobre estas nuevas tecnologías? ¿cómo redefinirán su responsabilidad social corporativa para tratar nuevos paradigmas como el que se perfila con la entrada masiva de la inteligencia artificial en nuestro día a día? ¿cómo gestionarán la introducción de robots y la consecuente expulsión de sus plantillas de los trabajadores humanos?

Muchas preguntas para las que aparentemente hay pocas respuestas, al menos realizadas de manera pública, y que van más allá del debate de si las empresas deberían de pagar impuestos por sus robots o si toda la gente que no trabaje tendría que recibir una renta básica asegurada.

Nos espera un futuro cercano tan apasionante como a la vez inquietante, y el hecho de que no esté muy lejos y sea poco tranquilizante debería dar un toque de atención a los estamentos oficiales y a las organizaciones para regular de la mejor manera posible la transición a este nuevo modelo de economía.

Y también las empresas se deberían poner manos a la obra para realizar cambios en sus políticas de RSC y en la manera que se relacionan con sus grupos de interés, porque los ámbitos a tratar pueden introducir temas concretos que hasta ahora nadie se planteaba.

Como siempre, la transparencia con la que se haga y la rendición de cuentas que se dé de las actividades y las decisiones tomadas contarán mucho para que la empresa sea creíble para los stakeholders.

Viendo lo mucho que la inteligencia artificial tiene de funcionamiento opaco y el gran número de personas que perderán sus trabajos debido a ella, me parece que las empresas van a tener una ardua tarea por delante si quieren ser de verdad socialmente responsables.

Para ir abriendo boca podemos echar un vistazo a las nueve principales cuestiones éticas que plantea la inteligencia artificial y realizar un ejercicio mental de cómo deberán atajar las organizaciones aquellas que cuestiones que les afecten.

107
Comentarios
  1. RPS

    Magnífico. Por fin alguien que empieza a escribir sobre este tema. A los que lo que visualizamos así el futuro nos llaman catastrofistas, en realidad lo que estamos tratando es de empezar a buscar soluciones (eminentemente éticas) a este nuevo escenario al que no nos hemos enfrentado nunca y que tiene su equivalente mas cercano en la revolución industrial pero con alcance elevado a la n-potencia.

  2. Lourdes Nagore

    Muchas gracias, me ha encantado tu artículo.

    Gracias a la inteligencia artificial vamos a ser capaces de aumentar la productividad, identificar enfermedades mucho antes y remplazar trabajos rutinarios. Creo que en vez de intentar criticar esta revolución 4.0 lo que tenemos que remplantearnos es el concepto del trabajo. Los proyectos pilotos de renta básica en Canadá están demostrando que podremos desarrollarnos en lo que de verdad nos apasiona. Estoy de acuerdo que hay una cuestión ética muy grande pero no podemos no mencionar la parte positiva de la inteligencia artificial. La transformación de los puestos de trabajo ya se ven hoy en día con los youtubers o los community managers. La respuesta está en reinventar el trabajo.

  3. Albert Vilariño

    Muchas gracias, RPS y Lourdes Nagore por vuestros comentarios.

    Saludos cordiales.