Ir al contenido
_
_
_
_

Pilar Manchón, directora de IA de Google: “En cada revolución industrial los trabajos se transforman, no se destruyen. Esta vez es mucho más rápido”

La responsable de estrategia de investigación de la multinacional defiende que la inteligencia artificial crea un mundo mejor

Raúl Limón

Pilar Manchón, nacida en Sevilla hace 53 años, es directora de Estrategia de Investigación en Inteligencia Artificial (IA) de Google. Desborda optimismo y lo contagia. Al frente de una de las herramientas más perturbadoras y transformadoras creadas por la humanidad, admite la existencia de disfunciones, pero prefiere hablar de la IA como un instrumento “capaz de hacer una sociedad mejor”, de llevar al conjunto de la especie humana a un “nuevo Renacimiento”. Durante una escala en su ciudad natal, concede esta entrevista con el objetivo de sembrar, de influir en las nuevas generaciones sobre las posibilidades de la IA para crear un nuevo mundo.

Pregunta. Un grupo de expertos acaba de pedir a la ONU el establecimiento de “líneas rojas” para evitar los perjuicios de la IA.

Respuesta. Siempre hemos sido pioneros en temas de seguridad: que la inteligencia artificial lleve a desarrollos avanzados, innovadores y muy ambiciosos, pero que se hagan de una manera responsable y segura. Fuimos los primeros en lanzar los principios de desarrollo de la inteligencia artificial y creo que definen muy bien el marco de desarrollo, innovación y colaboración. La inteligencia artificial es una fuerza positiva que nos va a ayudar a construir un mundo mejor. Pero, por supuesto, es necesario hacerlo con mesura, con sentido común y tomando las medidas necesarias para que salga bien. Siempre hemos antepuesto la seguridad a la velocidad, a pesar de ir al ritmo del mercado, que es lo más difícil. Estas iniciativas [la carta a la ONU] son muy diversas y aúnan voces de muchos científicos que hay que escuchar.

P. ¿La humanización de la IA pone en peligro las relaciones personales?

R. Siempre miro al mundo de la interacción hombre-máquina desde el punto de vista de los procesos cognitivos humanos. La humanización es un proceso natural. Todos asignamos características humanas, ya sean de comportamiento o de fisiología, a animales o a cosas. Ocurre de forma natural. ¿Hacerlo con la inteligencia artificial puede cruzar una línea roja de alguna manera? En algunos casos es muy beneficioso, como en algo tan doloroso como la soledad. Pero abusar de eso y perder la noción de que estás interaccionando con un sistema artificial genera un riesgo. La mejor política es asegurar que los desarrollos son siempre transparentes y que todo el mundo sea consciente de que está hablando con una inteligencia artificial para que sea la persona quien tome sus decisiones y determine las líneas rojas ante ciertos comportamientos. Y, por supuesto, educar a los usuarios, porque cualquier herramienta se puede utilizar mal o de manera negligente o hacer daño; por eso aprendemos a conducir. Pero no se puede demonizar la antropomorfización, sino que hay que entenderla como un proceso natural que nos puede ayudar en algunos casos y que mal utilizada o gestionada puede llegar a ser perjudicial.

La humanización de una máquina es un proceso natural que nos puede ayudar en algunos casos y que mal utilizada o gestionada puede llegar a ser perjudicial

P. Pero es más fácil usar la IA que educarnos a hacerlo de forma responsable. Stuart Russell, profesor e investigador de computación en la Universidad de California (UC) Berkeley, compara la situación actual con disponer de un coche muy rápido sin volante ni frenos.

R. La cuestión es quién sabe conducir, quién debe conducir y qué vehículo. Hay muchos tipos y el nivel de riesgo es diferente. Solo personas totalmente educadas, que tienen que dar información y que disponen de todo el nivel de control pueden asumir los riesgos de cualquier herramienta. Las IA tienen muchísimas diferencias en función de quién y para qué la quiere usar. Lo más importante es que empresas como Google dediquemos gran parte de nuestros recursos a hacer las cosas bien y a educar sobre para qué sirve esta herramienta, cómo deben usarse o cómo optimizarlas y que sean las personas las que evolucionen. Si a un niño de cuatro años le das una calculadora antes de que empiece a entender las matemáticas, no aprenderá. Pero si lo haces cuando tiene los fundamentos para hacer operaciones, aceleras los procesos de un pensamiento mucho más complejo. La IA aumenta nuestras capacidades, es un potenciador humano.

P. ¿Los agentes, capaces de actuar en nombre del usuario, suponen la concesión de un poder peligroso a las máquinas?

R. Cualquier herramienta mal usada o utilizada con fines erróneos causa perjuicios. La clave es la barrera que ponemos, la educación que proporcionamos y los niveles de control. Llevo mucho tiempo investigando la confianza desde el punto de vista cognitivo, qué significa confiar en un agente digital. Confiamos en el ordenador, en el dispositivo o en el coche para que desarrollen un rendimiento esperado. Pero el agente habla contigo en lenguaje natural y se relaciona contigo a un nivel en el que, antes, solo los humanos lo hacían y eso genera una situación compleja. Llevamos toda la vida entrenando para relacionarnos con personas, leer sus expresiones, entender el tono con el habla, el contexto y todo lo demás. Y ahora tienes una inteligencia artificial que te lo dice todo de manera perfecta, en el momento correcto y con el tono adecuado. Está hecha para ti, se adapta como un guante y te aporta un servicio, pero no es humana. Ante algo así tenemos reacciones que todavía requieren una adaptación. Como cuando vas al cine y te tragas un montón de cosas que sabes que no son ciertas, pero te metes en la película voluntariamente y te enojas o lloras o ríes. Pero luego sales y sabes que no es cierto. En Japón puedes alquilar personas para que te den abrazos o se hagan pasar por parientes o amigos. Imagina que ese familiar fingido es una entidad digital. Tú sabes perfectamente que no es cierto, que son servicios que te están dando. Usarlos es una elección personal, pero no tiene por qué ser malo, salvo que haya malas intenciones en el proveedor del servicio que está intentando aprovecharse de una circunstancia vulnerable. Ahí entra la gobernanza, la legislación, las auditorías de herramientas.

Está hecha para ti, se adapta como un guante y te aporta un servicio, pero no es humana. Ante algo así tenemos reacciones que todavía requieren una adaptación

P. ¿Nos acercamos a una inteligencia artificial capaz de superar a la humana?

R. Ahora tenemos IA infrahumana, es decir, que está por debajo de lo que podemos hacer. En el momento en el que pueda hacer las mismas cosas que los humanos, pasaremos directamente a la superhumana. Nos imaginamos un mundo en el que habrá una transición lenta entre una y otra, pero en tecnología no es necesariamente así. A veces, un salto cualitativo importante cambia el paradigma, la velocidad y todo. La cuestión es si tenemos claro qué queremos tener, independientemente de cómo lleguemos. Tenemos una herramienta que es casi como una varita mágica, que me ayuda a crear un mundo nuevo y mejor, a identificar las cosas que podrían mejorar y cómo hacerlo o cómo reconstruirlas o a crecer más profesional y personalmente o a estar más sano o a desarrollar la creatividad o a tener acceso a educación. La IA es una herramienta que te permite construir una sociedad mucho mejor que la que tenemos. Pero, para poder llegar ahí, tenemos que ver y manifestar qué significa y no solamente cómo lo hacemos. Tenemos un potencial enorme para conseguirlo. La herramienta está ahí, va evolucionando y va a darnos más poder, si somos capaces de gestionarlo con sentido común, para construir esta sociedad mejor.

La IA es una herramienta que te permite construir una sociedad mucho mejor que la que tenemos

P. Sin embargo, hay visiones más pesimistas

R. Hay un dicho [atribuido al pionero industrial Henry Ford] que me gusta: tanto si piensas que puedes como si piensas que no puedes, tienes razón. De tu confianza o desconfianza en la posibilidad de hacer va a depender en gran medida tu éxito o tu fracaso. Tenemos una oportunidad enorme de crear un mundo que, aunque no será perfecto, va a ser mejor. Con la inteligencia artificial podemos. Creo que sí y tenemos pruebas de que está ocurriendo. Estamos dando saltos gigantescos en el ámbito de la ciencia. Miles de investigadores están usando Alphafold [sistema de IA desarrollado por Google DeepMind que predice la estructura de una proteína a partir de su secuencia de aminoácidos] para avanzar en biología, en medicina o en el desarrollo de nuevos medicamentos. Si aplicamos la IA a todos los campos del saber, avanzaremos a una velocidad nunca vista. Ese potencial está ahí. Pueden ir algunas cosas mal, por supuesto, pero la forma de prevenirlo es educar a la gente para que sepa usar las herramientas de forma correcta e identificar los errores. Tenemos comités de expertos multidisciplinares donde nos ponemos el gorro de malos para ver cómo se podría usar mal una herramienta, con el objetivo de detectar un daño potencial, los riesgos asociados y cómo prevenirlos. En Google hemos suspendido el lanzamiento de herramientas superinteresantes porque esos comités, en su momento, observaron posibles peligros que superaban a los beneficios. Nos las quedamos en casa hasta que las propiedades, la sociedad, la regulación o el ecosistema sean lo suficientemente maduros.

Si aplicamos la IA a todos los campos del saber, avanzaremos a una velocidad nunca vista

P. ¿Pero eliminará empleo?

R. Por cada puesto de trabajo que se destruyó con la creación de internet se crearon 2,6. No eran los mismos, pero en cada revolución industrial los trabajos se han transformado, no destruido. Lo distinto esta vez es que está ocurriendo mucho más rápido, más horizontal y de una manera mucho más profunda y los humanos no somos precisamente buenos para adaptarnos de forma rápida a cambios drásticos. Pero es lo que tenemos que hacer.

P. ¿Y si la IA se hace accesible para cualquiera con malas intenciones?

R. Todo con lo que se pueden hacer cosas maravillosas se va a poder utilizar mal. Pero, por esa regla, la sociedad no avanzaría. Si la gente empieza a comprender el potencial de la IA, influenciamos a los que tenemos alrededor y formamos, motivamos e inspiramos, sobre todo, a los jóvenes para crear cosas maravillosas, tenemos la oportunidad de crear un mundo mejor.

P. ¿Y los sesgos?

R. ¿Quieres quitarle el sesgo a la IA o quieres ponerle el tuyo? Al final, no estamos quitando el sesgo, sino queriendo imponer lo que yo pienso de acuerdo con los valores de mi sociedad o de mi comunidad o de mi partido político o de mi culto religioso. Es complejo hacer eso con grandes modelos en los que mis valores no son los mismos que los tuyos. Primero tenemos que decidir cómo hacemos eso, hasta dónde queremos llegar, y luego generar las herramientas que nos puedan llevar ahí. Yo abogo por unos valores no negociables, que son, por ejemplo, los derechos humanos. Pero hay otros valores con los que tú y yo podemos tener posiciones totalmente opuestas. La fórmula es transparencia, control y educación.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Raúl Limón
Licenciado en Ciencias de la Información por la Universidad Complutense, máster en Periodismo Digital por la Universidad Autónoma de Madrid y con formación en EEUU, es redactor de la sección de Ciencia. Colabora en televisión, ha escrito dos libros (uno de ellos Premio Lorca) y fue distinguido con el galardón a la Difusión en la Era Digital.
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_