La ética llama a las puertas de la inteligencia artificial

Accenture y Valverdedelcamino Retina organizan un encuentro donde diferentes expertos tecnológicos debaten sobre las buenas prácticas tanto en el uso del ‘big data’ como en máquinas inteligentes

Sin datos no hay inteligencia artificial y sin inteligencia artificial los datos valen menos. Unidos logran que las nuevas tecnologías avancen a un ritmo de vértigo. Que superen el mantra tan manido de que el big data es el nuevo petróleo del mundo —“padecemos datadiógenes. Almacenamos trillones de información sin explotar”, afirmó Isabel Fernández, responsable de inteligencia Artificial Aplicada de Accenture”— o que el machine learning será la próxima gran batalla geopolítica. La ética, en cambio, permanece más silente. Oculta ante tanto eslogan. Goza de menos espacios de debate para determinar cómo trabajar con datos y máquinas inteligentes sin traspasar fronteras discutibles. Pese al ocultismo, la conversación ha encontrado algunos espacios donde instalarse.

“Estamos empezando el apartado ética de estas tecnologías. Todavía ni siquiera existen normas específicas, pero van a llegar más pronto que tarde”, aseguró Roberto Marijuan, responsable de IT Digital en Iberdrola de Iberdrola, durante un encuentro organizado por Accenture y Valverdedelcamino Retina. Pese a ser un tema incipiente, la consultora senior de Mastercard, Delphine Charlot, puso sobre la mesa de discusión el propio ejemplo de su compañía para demostrar cómo incorporar la ética. “Tenemos un consejo del uso ético de la inteligencia artificial donde valoramos los impactos y riesgos que tiene su utilización sobre los usuarios”, explicó.

En CaixaBank también juega un papel trascendental. Sin rango orgánico, tal y como comentó Pere Nebot, director corporativo de Servicios Informáticos del banco, en su organización se rigen por tres principios básicos en todo lo que atañe a los datos y la ética: mantener la ciberseguridad, asegurarse de que la inteligencia artificial es justa y ser escrupulosos con la información de los clientes. “Todo esto es una gestión responsable. No tiene que haber un único ámbito que gestione ambas tecnologías, sino un conjunto de áreas”, añadió. Este argumento lo secundó María José López, responsable legal de Novartis en España, aunque matizó el aspecto ético. “Los códigos internos y la autorregulación son armas poderosas en esta evaluación multidisciplinar de dos soluciones tecnológicas que van de la mano”, precisó.

Los poderes públicos no permanecen ajenos al debate. La Unión Europea, por ejemplo, ha comenzado a pronunciarse sobre ciertas recomendaciones y la nueva Comisión tiene previsto establecer algún tipo de normativa al respecto. En España, aunque la legislación permanece en blanco, intenta que forme parte de la agenda política. El asesor del gabinete del ministro de Ciencia, Innovación y Universidades, Manuel González, expresó la necesidad de hacer sostenible tanta nueva tecnología. “La ética no es algo dado. Es un proceso histórico donde la sociedad redefine su sensibilidad. Los foros cívicos han de tomar la palabra en este debate”, sostuvo.  

La formación, más necesaria que nunca

Con la sociedad situada en medio del intercambio de argumentos, González ahondó en un tema recurrente como la formación. “Si la ciudadanía no cuenta con la educación necesaria, no jugará el papel que le corresponde ante las decisiones éticas. Ha de decidir cómo afrontar estas cuestiones”, zanjó. Para no teorizar en exceso, Nebot mandó un mensaje claro y práctico del camino que tienen que recorrer las personas cuando de big data hablamos: “Al igual que no dejan una tarjeta de crédito en mitad de la calle, ganarán consciencia de que no pueden hacer lo mismo con los datos, no pueden estar desprotegidos”. Al final, lo que subyace en el fondo de las diferentes iniciativas, en opinión de Charlot, es hallar guías que mejoren el uso responsable de la tecnología.

La mayoría de ponentes tampoco quiso pasar por el alto los sesgos inconscientes que a veces dominan a los datos y la inteligencia artificial. Si desarrollamos una máquina que trabaja con información machista o xenófoba, poca inteligencia tendrá la solución. Fernández fue muy clara al respecto. “Los algoritmos deben aprender a trabajar con esto. De alguna forma tenemos que limitar su uso y reconocerlo inmediatamente para corregirlo”, concluyó. El consenso acerca de que este debate no puede postergarse más tiempo resultó evidente. La técnica sin ética, pese a que parezca relegada a un segundo plano, no es una opción. Ya llama a las puertas de la inteligencia artificial. Al menos así quedó patente durante el encuentro.

Retina

06/12/2019
07
Las ONG’s, ante el muro de la innovación

Las ONG’s, ante el muro de la innovación

El tercer sector llega tarde a la revolución digital, aunque algunas organizaciones, como es el caso de Unicef, han conseguido transformarse y sirven de ejemplo para aquellas más rezagadas

Normas