¿Cómo construir inteligencia artificial para el beneficio humano?

Expertos debaten en el marco del MWC, que arrancó este lunes

Santiago La Rotta
5 min
El MWC presentará al menos media docena de conferencias sobre inteligencia artificial

Barcelona“Una de las grandes preguntas que se hacen en este tipo de eventos es si la inteligencia artificial (IA) nos va a destruir. No es una visión particularmente optimista, pero esta retórica tiene sus peligros. Lo que creo es que si esta tecnología nos salva o nos hunde como especie está totalmente en nuestras manos: es una elección que debemos tomar. No es un asunto saldado e impuesto”, dice Tabitha Goldstaub, una de las integrantes del consejo británico para IA, durante una de las conferencias de apertura del MWC.

En cierta forma, la introducción de la posibilidad de elegir cómo diseñar la IA es una variable novedosa en el debate de qué hacer con una tecnología con el potencial de tener impactos en la vida diaria de millones de personas.

De acuerdo con Ángel Gurría, secretario general de la OCDE (Organización para la Cooperación y el Desarrollo Económico) casi 50 % de los empleos en los 36 miembros de este grupo están en alto riesgo de ser automatizados o de sufrir cambios drásticos por cuenta de tecnologías como la IA, según cifras que entregó durante su intervención en el evento, que arrancó este lunes.

Eventos como el MWC sirven de punto de encuentro para que académicos, empresarios y autoridades dialoguen sobre el futuro de la tecnología. Uno de los consensos que parece haber en torno a la IA es que su desarrollo debe tener una firme base en valores humanos: no sólo se trata de vencer barreras técnicas, sino también demográficas, políticas, culturales.

“La verdad, creo que la histeria que hay alrededor de la inteligencia artificial no responde a la realidad: en el corto plazo, el público en general ha exagerado sus posibilidades y beneficios y, en el largo, no ha comenzado a soñar siquiera con lo que puede hacer. El punto es que una compañía con buenos valores hará una buena implementación de esta tecnología. Pero no podemos creer ciegamente en las empresas. Ya sabemos cómo acaba eso. Necesitamos regulación y supervisión de los gobiernos y las autoridades. Garantizar que haya responsabilidades claras”, dice Ali Parsa, físico y CEO de Babylon Health, una compañía que implementa IA para mejorar la atención en salud en Reino Unido.

La empresa de Parsa puede ser un buen ejemplo de los cambios que puede introducir una tecnología como la IA en el contacto diario con usuarios, así como de sus potenciales problemas.

Babylon Health tiene un motor de inteligencia artificial que se encarga de hacer la primera consulta con una persona que no se siente muy bien: mediante preguntas y respuestas evalúa los síntomas de un usuario, emite un primer diagnóstico y, de acuerdo al escenario, remite al usuario a una videollamada con un médico o directamente a un consultorio.

En el proceso de atender al usuario, la herramienta adquiere una gran cantidad de información del paciente, que le transfiere al médico que lo examina primero de forma remota (un asunto que, según Parsa, ahorra tiempo y permite al especialista concentrarse más en la persona, menos en el papeleo). Según las cifras de la empresa (que maneja unas 1.000 citas médicas presenciales diarias en Londres), el análisis de estos datos resulta en que sólo uno de cada 10 pacientes termina debe ir presencialmente a un consultorio. En el discurso de Parsa esto ahorra tiempo y recursos valiosos en un sistema de salud.

Aquí surgen algunas preguntas acerca de la validez de los diagnósticos hechos por una herramienta de inteligencia artificial, por ejemplo. Pero también hay interrogantes acerca de la seguridad de estos datos. En últimas, la herramienta crea una suerte de mapa del estado de salud de un usuario, con información que no sólo se clasifica como privada, sino vital.

“El auge de la IA se explica por el incremento en el volumen de los datos, la abundancia de información que hoy impulsa sectores enteros de la economía. Las redes neuronales (pieza fundamental de los desarrollos de IA actuales) fueron propuestas hace 15 años, pero sólo ahora podemos tener suficiente material para alimentarlas y entrenarlas. Y ahora también es cuando debemos vigilarlas”, opina Matei Zaharia, catedrático de la Universidad de Stanford.

Y esta vigilancia se está materializando en guías y preceptos de desarrollo para la inteligencia artificial: documentos hechos por expertos, consejos asesores y consultores que definen las piezas más generales de cómo diseñar sistemas más inteligentes sin dejar las cuestiones humanas por fuera.

“En la OCDE tenemos un grupo de asesores que elabora recomendaciones para el desarrollo de esta tecnología y esperamos tener nuestro documento final para presentar en las reuniones del G7 y G20 este año”, cuenta Gurría. Y añade “sé que la Comisión Europea está trabajando en su propio set de reglas y acá me enteré de que la Unesco está redactando un documento similar. Me parece muy bien porque cada grupo tiene enfoques diferentes, pero lo que esto quiere decir, colectivamente, es que hay una preocupación de que la tecnología, y sus efectos, se salgan de nuestras manos”.

Ahora bien, uno de los aspectos positivos de introducir el factor humano en la ecuación tecnológica es que esto permite aplicar las herramientas de IA, por ejemplos, para problemas que requieren el esfuerzo de toda la humanidad.

“Como parte de los objetivos de desarrollo sostenible de la ONU hay una serie de tareas que bien podrían involucrar tecnología en su solución. Por ejemplo, creo que una inteligencia artificial que ayuda a predecir los comportamientos de compra de un consumidor podría también ayudar a predecir en dónde se presentará un incendio forestal. Una red neuronal que identifica la cara de las personas en una foto podría también distinguir tipos de desechos en un relleno sanitario para reciclar más y mejor. Son posibilidades que están ahí, al alcance de la decisión que hagamos”, argumenta Goldstaub.

“Una de las formas de hacer que el desarrollo en tecnología sea más incluyente y más humano es comenzar a ampliar el espectro de las personas que diseñan las herramientas, que programan los algoritmos, que construyen las interfaces. Es vital tener más participación de otras poblaciones en la industria porque el mundo es más grande que Silicon Valley”, dice Mariéme Jamme, fundadora de iamtheCODE, un programa que le enseña a programar a niñas en países con economías emergentes y en desarrollo.

Jamme asegura que, si bien la regulación y la supervisión de los Estados es necesaria, otra de las tareas pendientes de la industria es incorporar más visiones y perspectivas en la construcción de herramientas que suelen diseñarse en una oficina, pero que tienen impactos globales.

“Al final del camino, estas son decisiones cuyas consecuencias recaerán en todos nosotros. Es importante participar en ellas desde varios puntos de vista, con distintas perspectivas. La experiencia humana es muy variada y lo mejor que nos puede pasar es tener tecnología que trate de estar conectada con esta diversidad”, concluye Goldstaub.

stats