Arranca el proyecto GuIA para aterrizar la ética en la inteligencia artificial

OdiseIA, la Secretaría de Estado de Digitalización e inteligencia artificial, IBM, Google, Microsoft y Telefónica se unen en un evento que presenta el inicio de un proceso para establecer medidas reales y concretas sobre la ética en la inteligencia artificial.
HAZ27 noviembre 2020
<p>Carme Artigas, secretaría de Estado de Digitalización e Inteligencia Artificial. </p>

Carme Artigas, secretaría de Estado de Digitalización e Inteligencia Artificial.

GuIA (Guía de mejores prácticas para el uso ético de la inteligencia artificial), es una iniciativa impulsada por OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial) que pretende aterrizar, de forma realista, las medidas necesarias para conseguir un uso responsable y ético de la inteligencia artificial en España.

Con este objetivo, ha organizado un evento de presentación este viernes en el que han participado el Gobierno, a través de la Secretaría de Estado de Digitalización e Inteligencia Artificial, Google, IBM, Microsoft y Telefónica, para ofrecer sus estrategias reales respecto al uso ético de la inteligencia artificial.

Al final del proceso, que ha comenzado con este evento, OdiseIA publicará una GuIA práctica aplicable a todas las organizaciones incluyendo empresas grandes, pymes, administración pública y otras organizaciones que quieran hacer un uso confiable de esta tecnología. La GuIA tendrá en cuenta las particularidades de cada sector.

“En los últimos años ha habido una proliferación de principios éticos de AI y para muchas organizaciones es difícil saber qué principios son más adecuados para su sector. Además, existe poca experiencia compartida sobre cómo aterrizar estos principios en el día a día. Difundir estas experiencias al tejido empresarial y administración pública es el objetivo de la iniciativa GuIA”, asegura Richard Benjamins, cofundador de OdiseIA.

Este tema es especialmente importante ahora que vivimos la eclosión de la inteligencia artificial y la mayoría de las disciplinas aún no están maduras y son vulnerables, como cualquier niño o adolescente que empieza a tomar decisiones relevantes. “OdiseIA nace con el objetivo de pasar a la acción en el uso responsable de la IA. Queremos ayudar a impulsar la IA España, pero fomentando la concienciación de empresas y organizaciones sobre la necesidad de tomar medidas reales éticas en su aplicación. Solo así se conseguirá la aceptación social y minimizar los riesgos, señala Idoia Salazar, presidenta de OdiseIA.

Para Carme Artigas, secretaría de Estado de Digitalización e Inteligencia Artificial, la integración de la IA en la sociedad supone importantes retos, no solo desde un punto de vista tecnológico, sino también a nivel normativo, ético y social. En este sentido, la Secretaria de Estado ha destacado la necesidad de impulsar una IA que sitúe a la persona en el centro, avanzando hacia un modelo que permita explorar al máximo todas las posibilidades que ofrece la IA a través de un marco ético que garantice los derechos fundamentales de la ciudadanía y un entorno de confianza en la nueva era digital.

En el evento todos los actores consensuaron la necesidad, que se materializa en GuIA, de aterrizar los conceptos éticos que envuelven a la inteligencia artificial. La importancia de cubrir el espacio vacío que existe entre las declaraciones de principios globales que sirvieron para arrancar las reflexiones éticas en la IA, y la realidad aterrizada en casos de uso y procesos de negocio concretos. Resuelta además a través de tecnologías concretas.

Compromiso por parte de las empresas tecnológicas

Las tecnológicas están poniendo un gran esfuerzo. Su compromiso en esta disciplina es público e importante, conscientes de su relevancia. Muchos de ellos publican sus estudios y herramientas para que las empresas que hacen uso de su tecnología lo hagan de una manera responsable.

Pilar Manchón, Senior Director of AI Research Strategy de Google, ha destacado que “es extremadamente importante que haya un diálogo como este donde queden reflejados tanto los distintos retos y oportunidades en IA, como un rango amplio y diverso de perspectivas que enriquezcan el debate y garanticen un uso ético de estas herramientas. Esperamos que el resultado del estudio consiga ayudar a todo tipo de organizaciones públicas y privadas a hacer un uso responsable, ético y seguro de la tecnología, sin que ello inhiba su capacidad de innovación y su posicionamiento y competitividad en el mercado global. Para ello es imprescindible educar a la ciudadanía, desmentir mitos y alcanzar un estándar de transparencia y prácticas éticas que generen confianza. Esto nos permitirá avanzar con paso firme hacia metas aspiracionales, por ejemplo en precisión y ‘explicabilidad’, que a día de hoy están más allá del estado del arte. En definitiva, queremos aportar nuestro granito de arena para democratizar el acceso a la IA, y que cada vez sean más las personas que contribuyan a crear herramientas de IA en beneficio de la sociedad”.

De igual manera, Enric Delgado Samper, CTO de IBM Spain, Portugal, Greece and Israel, ha comentado que “En IBM solo defendemos, trabajamos y colaboramos por una IA en el que valores como la equidad, la transparencia y la confianza estén siempre en el centro de su desarrollo y aplicación. El valor de un sistema de IA no está en su potencia tecnológica per se, sino en su capacidad para contribuir al progreso justo de las personas y servir al bien común. Desde esa base ética, su potencial para ayudarnos y potenciar las mejores capacidades y los mejores valores del ser humano es inmenso”.

También David Carmona, Artificial Intelligence & Innovation General Manager en Microsoft, ha declarado que “el desarrollo de inteligencia artificial responsable va más allá de identificar los desafíos y establecer unos principios; requiere también implantar nuevas prácticas en el ciclo completo de desarrollo así como herramientas y tecnologías especificas en áreas como privacidad, transparencia o control de los algoritmos”.

En el evento ha participado Francisco José Montalvo, Chief Data Officer de Telefónica, que ha señalado: “Desde la publicación de sus Principios de IA en 2018, Telefónica está trabajando en su implementación en el día a día de la compañía. Ha definido programas de formación para los empleados, herramientas técnicas, un cuestionario ético y un modelo de gobernanza. Además, el uso de la IA se engloba dentro de un marco más amplio de diseño responsable cubriendo la privacidad, la seguridad, la sostenibilidad, la ética, la accesibilidad y el cliente”.

Comentarios