En busca de una inteligencia artificial en la que confiar

Sentar las bases de cómo minimizar los riesgos de la inteligencia artificial (IA) a la vez que se maximicen los beneficios de esta es una necesidad a la que los estamentos oficiales parece que empiezan a dar respuesta.
24

Es este, el de la innovación tecnológica y sus retos, un tema del que existe una necesidad, más pronto que tarde, que se piense, se regule, se legisle y se dé respuesta a dilemas derivados de la implantación de esta tecnología cada vez más cercanos en el horizonte.

Como parte de esa necesidad de respuesta, el denominado Grupo de expertos de alto nivel sobre inteligencia artificial (AI HLEG) de la Comisión Europea se ha puesto manos a la obra para elaborar un borrador de las Directrices éticas sobre IA que deberá producir un documento final este año 2019.

Estas Directrices quieren ir más allá de una simple enumeración de principios y valores esenciales, y pretenden servir de guía para su aplicación real en sistemas de inteligencia artificial, ofreciendo diversos niveles de abstracción.

El grupo de expertos en IA está formado por 52 representantes de la sociedad civil, la industria y la universidad, y tiene como objetivo principal asesorar a la Comisión sobre los próximos pasos que abordarán los desafíos y oportunidades a mediano y largo plazo relacionados con la IA a través de recomendaciones que se incorporarán al proceso de desarrollo de políticas, al proceso de evaluación legislativa y al desarrollo de próximas estrategias digitales.

Los expertos abogan por un enfoque de la inteligencia artificial centrada en el bienestar de los seres humanos pero desde la confiabilidad. Las personas deben poder confiar en la IA ya que es la única manera de que se puedan beneficiar completamente de ella.

En las relaciones humanas, la confianza es clave para llegar a conseguir un mutuo beneficio para todas las partes en la situación que sea (por ejemplo, comprar, vender, negociar, etc.), y no lo va a ser menos si en lugar de tratar con personas se está haciendo con máquinas o software dirigidos por algoritmos que no se pueden tocar, que en muchos casos son opacos a los ojos en cuanto a su funcionamiento, y que van a jugar un enorme papel en la vida dentro de poco tiempo.

A continuación se exponen algunos puntos que son considerados por los expertos como principales a la hora de debatir sobre la inteligencia artificial, su relación con los seres humanos y la confianza de estos en ella.

La confiabilidad incluye la confianza en la tecnología; en las reglas, leyes y normas que rigen la inteligencia artificial, y en los modelos de negocios de los servicios, productos, y fabricantes de IA.

Componentes de la inteligencia artificial confiable

La confiabilidad manifestada por los expertos incluye la confianza en la tecnología (a través de la forma en que está construida y utilizada por los seres humanos); la  confianza en las reglas, leyes y normas que rigen la inteligencia artificial, y la confianza en los modelos de negocios de los servicios, productos, y fabricantes de IA.

Además, se entenderá como IA confiable aquella que cumpla dos premisas concretas:

  • Deberá respetar los derechos fundamentales, las leyes vigentes y los principios y valores esenciales, de manera que se garantice un “fin ético”.
  • Deberá ser fiable y sólida técnicamente hablando, ya que un escaso dominio tecnológico puede provocar daños involuntarios, aunque las intenciones sean buenas.

Las dos premisas anteriores se traducen en diversos requerimientos que deben de cumplirse.

Por ejemplo, uno de los requerimientos esenciales (los expertos los ponen en el borrador en un orden alfabético para remarcar la importancia de todos ellos) es el diseño para todos.

Los sistemas deben diseñarse de manera que todos los ciudadanos puedan usar los productos o servicios, independientemente de su edad, estado de discapacidad o estado social. De manera particularmente importante considerar la accesibilidad para personas con discapacidades, que son una categoría horizontal de la sociedad, presente en todos los grupos sociales.

La no discriminación es otro requerimiento y se refiere a la variabilidad de los resultados de la IA entre individuos o grupos de personas en función de la explotación de las diferencias en sus características que pueden considerarse de manera intencional o no (como el origen étnico, el género, la orientación sexual o la edad), y que pueden afectar negativamente a tales individuos o grupos.

El respeto a la privacidad es también muy importante. La privacidad y la protección de datos deben estar garantizadas en todas las etapas del ciclo de vida del sistema de IA, según las Directrices éticas sobre IA.

Lo anterior incluye todos los datos proporcionados por el usuario, pero también toda la información generada por este a lo largo de sus interacciones con el sistema de inteligencia artificial.

Más requerimientos enunciados en el borrador son la rendición de cuentas, la gobernanza de los datos, la gobernanza de la autonomía de la IA, el respeto por la autonomía humana, la robustez, la seguridad o la transparencia.

Otros requerimientos a la inteligencia artificial son la rendición de cuentas, la gobernanza de los datos, la gobernanza de la autonomía de la IA, el respeto por la autonomía humana, la robustez, la seguridad o la transparencia.

¿Cómo asegurar que la IA se ha desarrollado centrada en los humanos?

De igual manera que esos anteriores requerimientos asegurarían que la inteligencia artificial es confiable, también existen una serie de principios para asegurarse de que se ha desarrollado alrededor del ser humano, teniéndolo en cuenta de una manera central.

Estos cinco principios, que suenan un poco a los libros de Asimov y las películas de ciencia ficción, son:

  1. El principio de beneficencia requiere que los sistemas de IA deben diseñarse y desarrollarse para mejorar el bienestar individual y colectivo, y generando prosperidad, creación de valor y maximización de la riqueza y sostenibilidad.
  2. El principio de la no maleficencia señala que los sistemas de IA no deberían dañar a los seres humanos. Por diseño, esos sistemas deben proteger la dignidad, integridad, libertad, privacidad y seguridad de los seres humanos en la sociedad y en el trabajo, sin amenazar el proceso democrático, la libertad de expresión, las libertades de identidad o la posibilidad de rechazar los servicios de IA.
  3. El principio de autonomía dice que los seres humanos que interactúan con los sistemas de IA deben mantener una autodeterminación plena y efectiva sobre ellos mismos.
  4. El principio de justicia proclama que los sistemas de IA deben ser justos, y los desarrolladores e implementadores deben garantizar que las personas y los grupos minoritarios se mantengan libres de sesgos, estigmatización y discriminación.
  5. Por último, el principio de explicabilidad dice que la transparencia es clave para construir y mantener la confianza de los ciudadanos en los desarrolladores de los sistemas de IA y en los sistemas en sí mismos, ya que tanto la transparencia tecnológica como el modelo de negocio importan desde un punto de vista ético.

Los expertos destacan que, en situaciones particulares, pueden surgir tensiones entre los principios cuando se consideran desde el punto de vista de un individuo en comparación con el punto de vista de la sociedad, y viceversa.

¿En qué no se han puesto de acuerdo los expertos?

Como en todo tipo de guías y documentos realizados por muchos participantes, en este también ha habido discrepancias entre ellos y preocupaciones no resueltas que esperan sean solucionadas con una consulta a los grupos de interés.

Entre esas preocupaciones críticas están por ejemplo las relacionadas con la identificación sin consentimiento de personas individuales por entidades públicas o privadas, las implicaciones derivadas de que en un momento dado un humano no sepa que está interactuando con una máquina en lugar de con otro humano, o los sistemas de armas letales autónomos.

24
Comentarios