MWC 2019: ¿es ética la inteligencia artificial?

Los malos usos de las nuevas tecnologías pueden generar afectaciones globales

Santiago La Rotta
4 min
Els sous baixos, primer problema per retenir treballadors de les TIC

BarcelonaInteligencia artificial (IA) es, quizá, uno de los términos tecnológicos más manoseados del momento. En relativamente poco tiempo hizo un tránsito notable: de los bordes de la investigación y la ciencia ficción a la sala de la casa o la palma de la mano de cualquier persona con un teléfono inteligente.

Esta tecnología se ha convertido en un comodín que bien puede resolver problemas de consumo energético en centros de datos, automatizar procesos en las empresas o hacer análisis de riesgo para aseguradoras. Esto sin mencionar el funcionamiento de un motor de búsqueda como Google.

Y en esta suerte de optimismo generalizado han llegado primero las soluciones y, poco a poco, comienzan a aparecer los problemas: los desarrollos son más rápidos que las adaptaciones sociales. Una historia vieja, pero no por eso menos lesiva.

A la par de temas como el desarrollo de redes 5G (una especie de santo grial para las telecomunicaciones futuras), la inteligencia artificial es uno de los focos del Mobile World Congress (MWC), que arranca el próximo lunes con una nutrida agenda de conferencias y charlas que orbitan alrededor de esta tecnología, sus oportunidades y, notablemente, sus abismos.

Este tipo de conferencias han ido ganando terreno en distintos eventos del sector en la medida en la que el mercado ha ido creciendo. La firma de consultoría IDC calcula que, para 2022, el gasto global en sistemas de IA será de más de 77.000 millones de dólares; el año pasado esta cifra estuvo alrededor de los 24.000 millones.

Una porción de este gasto está impulsado por los gobiernos: China tiene comprometidos 2.100 millones de dólares para la construcción de un parque industrial que albergará unas 400 compañías de IA a las afueras de Pekín, además de los 300.000 millones de dólares que invertirá en una iniciativa para desarrollar tecnologías avanzadas, entre ellas, la inteligencia artificial.

De acuerdo con un informe de CIFAR, una organización canadiense encargada de la estrategia de IA de Canadá, al menos 18 países han diseñado planes nacionales para el desarrollo de inteligencia artificial. Los cálculos de la Comisión Europea estiman que la cifra anual de inversión para no rezagarse en este sector debe alcanzar los 24.000 millones de dólares para 2020.

La administración Trump lanzó recientemente una iniciativa para estimular la investigación de IA en Estados Unidos (sede de los gigantes del sector, Google y Facebook). El anuncio no estuvo desprovisto de críticas: no hay detalles sobre nueva financiación para el proyecto y la participación de sociedad civil y de expertos no gubernamentales parece que fue algo escasa.

La ética de la IA

“A gran escala, considerando los impactos que la IA puede tener, estamos hablando de reescribir partes del contrato social: la tecnología no puede diseñarse y desarrollarse a espaldas del público porque nos confronta con lo que somos como especie, nos obliga a pensar de nuevo quiénes somos”, dice Paula Boddington, investigadora de la Universidad de Cardiff, en Reino Unido, y autora de 'Towards a Code of Ethics for Artificial Intelligence'.

Este libro gira alrededor de una premisa básica: el desarrollo de esta tecnología debe hacerse bajo un marco que asigne pesos y responsabilidades, que esclarezca la toma de decisiones de un sistema que bien puede asignar calificaciones crediticias para usuarios del sistema financiero o establecer rankings de desempeño entre profesores de un sistema público de educación.

Bajo la visión de Boddington, la IA “es una tecnología que impulsa el rango de acción del humano y en algunos casos pueden reemplazarnos en algunas tareas. Y esto incluye una discusión ética, moral y de responsabilidades frente a la sociedad. Hay que entender cómo funciona porque si no, cómo explicamos los resultados. Ahora, tampoco podemos aspirar al control total en el desarrollo de la inteligencia artificial, pues hay muchos aspectos que se salen de las manos. Lo que sí es importante es entender el marco general: ¿quién es responsable cuando la máquina dice que no?”.

De fondo, lo que a Boddington le preocupa es cómo se mantiene la cadena de responsabilidad en un sistema altamente complejo, que puede impactar a los individuos a escala global. No es una preocupación enteramente nueva, hay que aclarar.

Académicos como Cathy O’Neil, doctora en matemáticas de Harvard y autora del libro 'Weapons of math destruction', argumentan que en la medida en la que dependemos más de procesos automatizados para calcular, por ejemplo, qué tan probable es que un preso reincida, también se incrementan las probabilidades de que estos sistemas fallen. “Siempre habrá errores porque los modelos son, por naturaleza, simplificaciones”, asegura la investigadora en su texto.

El Centro para la Democracia y la Tecnología en Estados Unidos (CDT) ha publicado varios documentos advirtiendo sobre los riegos en la asignación de responsabilidades cuando se usa tecnología de firmas privadas para procesos públicos. Dorothea Lange, una de sus investigadoras, aseguró que es fundamental conocer quién diseña estos complejos sistemas porque esto ayuda a establecer transparencia y confianza de cara a los ciudadanos. “Detrás de ‘el sistema’ hay una persona o un grupo de ellas, es importante saber quiénes son porque ayuda a saber cómo fue construida una tecnología que toma decisiones por nosotros”.

Boddington asegura que el uso de inteligencia artificial puede ser muy beneficioso e, incluso, deseable. En un punto, puede que una máquina haga un mejor trabajo que los humanos al conducir un vehículo; esta, de paso, es una de líneas clásicas de los diseñadores de tecnologías de conducción autónoma.

“Pero este no es el caso para todos los escenarios. Hay muchos otros asuntos que deben quedar en manos de los humanos. Si utilizamos la IA de forma indiscriminada, lo que puede pasar es que destruyamos lentamente la cadena de responsabilidades. No estoy hablando de culpa, sino de responsabilidad”, asegura Boddington.

Y concluye: “Creo que hay preguntas serias que no nos estamos haciendo y puede que las estemos evadiendo en medio de la euforia por los beneficios potenciales de una tecnología que puede ser revolucionaria”.

stats