Ir al contenido
_
_
_
_

El reverendo que quiere poner límites a la IA con un código ético: “La teología lleva siglos reflexionando sobre los problemas que plantea esta tecnología”

Lyndon Drake, investigador de la Universidad de Oxford, ha desarrollado una guía de principios éticos para ingenieros y líderes de inteligencia artificial como antídoto contra el salvajismo de Silicon Valley

Lyndon Drake, investigador en la Universidad de Oxford, en su reciente visita a Madrid.Víctor Sainz

Lyndon Drake navega entre tres mundos que parecen distantes entre sí: la ética de los mercados de capitales, la inteligencia artificial (IA) y la teología. Se define como un teólogo-científico que intenta tender puentes entre la lógica fría del algoritmo, las dinámicas del dinero y las preguntas clásicas sobre el bien y el mal. Ha sido banquero de alto nivel en Barclays Capital —donde colaboró con la Oficina de Gestión de Deuda del Reino Unido, bancos centrales, fondos de pensiones y hedge funds durante la crisis de Lehman Brothers— y líder eclesial como archidiácono de la Iglesia Anglicana Maorí.

Actualmente trabaja como investigador en la Universidad de Oxford, donde, junto a un grupo de expertos, ha desarrollado el Oxford Oath for AI Practitioners, que busca ser una especie de juramento hipocrático para ingenieros y profesionales de la IA. Inspirado en códigos éticos ancestrales, este compromiso voluntario insta a priorizar el bien común sobre la mera eficiencia técnica, limitando las aplicaciones que amplifiquen las desigualdades o erosionen la dignidad humana. Drake lo defiende como un antídoto frente al salvajismo algorítmico de Silicon Valley. “No es un freno a la innovación, sino una brújula para que la IA genere riqueza sostenible sin sacrificar valores”, dice.

Pregunta. ¿Qué tiene que ver la teología con la inteligencia artificial?

Respuesta. Diría dos razones principales. La primera es que una mayoría creciente de la población mundial tiene algún tipo de afiliación religiosa. Además, está aumentando. La IA va a transformar la sociedad. Por lo tanto, las razones por las que la IA interactúa con la sociedad deben incluir al menos una explicación que tenga sentido para las personas religiosas. De lo contrario, se corre el riesgo de generar disrupción social: se tendría una justificación puramente secular y, al mismo tiempo, comunidades que se sienten excluidas o en resistencia. Pero hay una razón más profunda: algunos de los problemas que hoy plantea la inteligencia artificial han sido objeto de reflexión teológica durante cientos de años, mientras que los científicos de la computación llevan pensando en ellos relativamente poco tiempo.

P. ¿Por ejemplo?

R. El lenguaje. Hasta hace poco, la IA era buena en matemáticas pero mala con las palabras. Ahora eso ha cambiado. Los teólogos y filósofos llevan siglos reflexionando sobre la relación entre el lenguaje, el significado y la identidad.

P. Se dice que estamos a las puertas de resolver cualquier problema gracias a la IA. ¿Comparte ese optimismo?

R. Llevo 30 años en esto y siempre hemos tenido la esperanza de que la solución esté a la vuelta de la esquina. Aunque siempre parece escaparse un poco, creo que estamos muy cerca de resolver la mayoría de las categorías de problemas, si bien no todos los casos concretos.

P. ¿Es eso una buena noticia?

R. Es positivo en ámbitos como la medicina: detectar enfermedades antes de que se desarrollen salvará vidas. Pero el riesgo es que perdamos la capacidad de realizar esos diagnósticos. O pensemos en las armas autónomas: pueden salvar vidas en una guerra justa, pero en manos de quien libra una guerra injusta, el daño es devastador. Y el problema es que casi nunca nos ponemos de acuerdo en qué guerra es justa.

P. También usamos la IA para comunicarnos, casi como si habláramos con un igual.

R. Ese es un marco conceptual peligroso. Hemos asumido que el valor de una persona está ligado a su capacidad, especialmente en el ámbito del lenguaje. Que un ordenador sea bueno en matemáticas no lo hace humano ni lo convierte en un dios. Con los sistemas conversacionales tendemos a otorgarles un estatus de persona, pero no debemos tratar como dioses a cosas que simplemente son poderosas.

P. ¿Podrían estos chatbots desafiar el estatus de los líderes religiosos?

R. Sin duda. Los chatbots tienen algo positivo: siempre son pacientes y amables, algo que a los humanos nos cuesta. Pero es una amabilidad compleja, de las que siempre te dicen que eres bueno, cuando a veces necesitamos escuchar lo contrario. Esto nos obliga a preguntarnos qué significa ser humano. No somos solo nuestras capacidades. Una persona con una discapacidad severa tiene una dignidad inmensa aunque sus capacidades sean limitadas. Si equiparamos el valor con la capacidad, habremos malinterpretado nuestra propia naturaleza.

P. Usted está impulsando el Juramento de Oxford para profesionales de la IA. ¿Qué buscan con ello?

R. Queremos algo parecido al juramento hipocrático de los médicos. Hay miles de profesionales que trabajan entre bastidores y quieren hacer el bien, pero no saben cómo hacerlo. El objetivo es incorporar la deliberación moral en su práctica diaria y preservar el espacio del juicio humano donde corresponde.

P. ¿Qué compromisos asume quien firma este juramento?

R. Uno fundamental y controvertido: afirmar que los seres humanos tienen un valor moral superior al de cualquier entidad artificial. La IA debe estar al servicio del florecimiento humano. También queremos que el diseñador reflexione sobre cómo su creación transforma al usuario. No prescribe acciones concretas, sino que orienta la reflexión moral, independientemente de cómo cambie la tecnología.

P. ¿Ya tienen el respaldo de las grandes tecnológicas?

R. Estamos en fase de recibir comentarios. Hemos publicado una carta abierta que ya cuenta con el interés de profesionales de grandes compañías. El juramento en sí lo estamos perfeccionando porque queremos que dure siglos. La verdadera prueba será cuando esté disponible: si conecta con las inquietudes del sector, la gente se adherirá.

P. Hay directivos que ven la ética como un freno a la innovación. ¿Qué les diría?

R. Que lo hemos planteado para fomentar la innovación, pero redefiniendo su objetivo final. Queremos una vía para desarrollar una IA que sea, ante todo, buena y útil.

P. Sin una ley que lo respalde, ¿cómo evitar que sea algo meramente simbólico?

R. Un juramento se realiza a través de la conciencia individual y de la comunidad. No dicta leyes, pero crea un ethos. Si ambos firmamos, podemos cuestionarnos mutuamente si nuestras acciones contradicen el compromiso. La sociedad necesita tanto leyes (como el Reglamento Europeo de IA) como un marco moral compartido que otorgue legitimidad social a la industria.

P. Para usted, ¿cuál es el mayor riesgo de una IA sin control?

R. El desempleo masivo, por su probabilidad y su impacto. No solo por el dinero, sino también porque vinculamos nuestra identidad al trabajo. Integrar ese cambio en nuestra concepción del valor personal será muy difícil. Mi mayor preocupación es que se están creando sistemas diseñados, implícita o explícitamente, solo para captar nuestra atención en lugar de servir a un fin humano mayor. Si su único objetivo es secuestrar nuestro tiempo, terminarán por degradar lo más valioso que tenemos como humanidad.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_