A veces, el rabino Joshua Franklin sabe exactamente de qué quiere hablar en sus sermones semanales de Shabat; otras veces, no tanto. Fue en uno de esos días de no tanto, en una fría tarde de finales de diciembre, cuando el líder espiritual del Centro Judío de los Hamptons decidió recurrir a la Inteligencia Artificial.
Franklin, de 38 años, pelo oscuro ondulado y aire afable, sabía que el nuevo programa ChatGPT de OpenAI podía escribir sonetos al estilo de Shakespeare y canciones al estilo de Taylor Swift. Ahora se preguntaba si podría escribir un sermón al estilo de un rabino.
Así que le dio una consigna: “Escribe un sermón, con voz de rabino, de unas 1.000 palabras, que relacione la porción de la Torá de esta semana con la idea de intimidad y vulnerabilidad, citando a Brené Brown” – la autora superventas e investigadora conocida por su trabajo sobre vulnerabilidad, vergüenza y empatía.
El resultado, que compartió esa tarde en el moderno santuario de madera rubia de la sinagoga y más tarde publicó en Vimeofue una charla coherente, aunque repetitiva, que muchos en su congregación supusieron que había sido elaborada por rabinos famosos.
“Estáis aplaudiendo”, dijo Franklin tras revelar que el sermón que acababa de pronunciar había sido compuesto por un ordenador. “Estoy aterrorizado”.
A medida que experimentos como el de Franklin y la reciente e inquietante conversación entre un columnista tecnológico y el nuevo chatbot de Microsoft demuestran hasta qué punto algunos programas de inteligencia artificial se asemejan inquietantemente a los humanos, pensadores e instituciones religiosas se adentran cada vez más en la conversación sobre los usos éticos de una tecnología en rápida expansión que algún día podría desarrollar una conciencia propia, al menos según sus apóstoles de Silicon Valley. Recurriendo a un amplio abanico de mitos, desde Ícaro a la Torre de Babel o el cuento del genio capaz de conceder todos nuestros deseos con resultados desastrosos, lanzan una antigua advertencia sobre lo que ocurre cuando los humanos intentan jugar a ser Dios.
Antes de pronunciar el sermón que ChatGPT había escrito, el rabino Franklin dijo a su congregación que lo que estaba a punto de leer había sido plagiado.
“Amigos”, comenzó, leyendo el sermón escrito por la IA, “nos reunimos hoy para estudiar la porción de la Torá de la semana, Vayigashconsideremos la importancia de desarrollar la intimidad en nuestra relación con los demás”.
El sermón robótico continuó relatando la historia de cuando José, el hijo de Jacob, se reunió con sus hermanos después de muchos años. Aunque le habían traicionado en el pasado, José les saludó con calidez y amor.
“Al acercarse a ellos con franqueza y vulnerabilidad es capaz de curar viejas heridas y crear lazos más profundos y significativos con sus hermanos”, leyó Franklin. “Esta es una poderosa lección para todos nosotros”.
Fue un sermón adecuado, pero no el que Franklin habría escrito. “Lo que se perdió fue la idea de cómo encontramos a Dios en encuentros significativos con otros”, dijo más tarde. “Cómo la comunidad y la relación crean a Dios en nuestras vidas”. En otras palabras, la sensación de que el sermón había surgido de la experiencia vivida por un ser humano que anhelaba, buscaba y sufría, y no de una fórmula algorítmica.
Es posible que algún día los líderes espirituales sean sustituidos por robots a medida que la IA siga mejorando, (todo es posible).
Pero la mayoría de los teólogos dicen que hay otras preocupaciones éticas relacionadas con la IA que son más acuciantes. Les preocupa la creciente desigualdad financiera a medida que la automatización elimina miles de puestos de trabajo, y cuestionan nuestra capacidad de ejercer el libre albedrío a medida que confiamos cada vez más en algoritmos informáticos para que tomen decisiones por nosotros en medicina, educación, sistema judicial e incluso cómo conducimos nuestros coches y qué vemos en la televisión.
En un plano más existencial, cuanto mejor imite la inteligencia humana la IA, más se cuestionará nuestra comprensión de la sensibilidad, la conciencia y lo que significa ser humano. ¿Queremos que los robots manejados por IA se conviertan en nuestros sirvientes? ¿Tendrán sentimientos? ¿Y estamos obligados a tratarlos como si los tuvieran?
Estos dilemas éticos pueden parecer nuevos, pero en el fondo representan cuestiones con las que tradiciones religiosas como el judaísmo, el islam y el cristianismo han lidiado durante milenios, dicen los líderes religiosos.
Aunque las instituciones religiosas no siempre se han comportado éticamente en el pasado, tienen siglos de experiencia analizando enigmas morales a través de la lente de sus propios sistemas de creencias, dijo el P. James Keenan, teólogo católico del Boston College.
“Se puede afirmar que todas estas grandes tradiciones son problemáticas, pero también tienen sus diferencias.conocimientos y sabiduría”, afirmó. “Tienen una historia detrás que merece la pena aprovechar”.
Desde los primeros días de la investigación en IA, en la década de 1950, el deseo de crear una inteligencia similar a la humana se ha comparado con la leyenda del golem, una criatura mítica del folclore judío, creada por poderosos rabinos a partir de barro y magia para cumplir las órdenes de su amo. El golem más famoso es el que supuestamente creó en el siglo XVI el rabino Judah Low ben Bezulel de Praga para proteger al pueblo judío de los ataques antisemitas. El gólem también sirvió de inspiración para el Frankenstein de Mary Shelley.
Durante siglos, la idea de una criatura animada hecha por el hombre y carente de chispa divina o alma, ha formado parte del imaginario judío. Los rabinos han discutido sobre si un golem puede considerarse una persona, si puede contarse en un minyan (el quórum de 10 hombres necesario para la oración pública judía tradicional), si se le puede matar y cómo se le debe tratar.
De estos debates rabínicos surgió una postura ética sobre la inteligencia artificial mucho antes de que se inventaran los ordenadores, dijo Nachson Goltz, profesor de Derecho de la Universidad Edith Cowan de Australia, que ha escrito sobre la Perspectiva judía sobre la IA. Aunque se considera permisible crear entidades artificiales para que nos ayuden en nuestras tareas, “debemos recordar nuestra responsabilidad de mantener el control sobre ellas, y no al revés”, escribió.
El rabino Eliezer Simcha Weiss, miembro del Consejo del Gran Rabinato de Israel, se hizo eco de esta idea en un discurso reciente. “En todas las historias del gólem, éste es finalmente destruido o desmantelado”, dijo. “En otras palabras, la lección que enseñan los rabinos es que todo lo que hace el hombre tiene que ser controlado por el hombre”.
Los rabinos también concluyeron que, aunque un gólem no podía considerarse una persona de pleno derecho, seguía siendo importante tratarlo con respeto.
“La forma en que tratamos estas cosas nos afecta”, dijo Goltz. “La forma en que las tratamos determina el desarrollo de nuestros propios caracteres y establece el curso futuro de nuestro propio ejercicio de la agencia moral”.
Otro cuento con moraleja del folclore judío y musulmán gira en torno al djinn, una entidad no humana hecha de fuego sin humo, que en ocasiones puede ser atada por los humanos y encadenada a su voluntad. Este es el origen de la historia del genio que puede concedernos lo que queramos, pero que no puede volver a meterse en la botella.
“Las historias del genio son un ejemplo de lo que ocurre cuando le pides a un no humano que conceda deseos humanos”, explica Damien Williams, profesor de filosofía y ciencia de datos de la Universidad de Carolina del Norte en Charlotte. “Lo que sale por el otro lado parece chocante y punitivo, pero si realmente lo rastreas, simplemente están concediendo esos deseos hasta el límite de sus implicaciones lógicas”.
El Islam proporciona otra lente ética a través de la cual observar el desarrollo de la IA. Una máxima legal de la jurisprudencia islámica afirma que repeler el daño siempre tiene prioridad sobre la obtención de beneficios. Desde este punto de vista, una tecnología que ayuda a algunas personas pero deja a otras sin trabajo se consideraría poco ética.
“La mayoría de estas tecnologías se diseñan y despliegan en muchos casos porque sí, y los daños que se producen son a veces probabilísticos”, afirma Junaid Qadir, profesor de ingeniería eléctrica de la Universidad de Qatar que organizó una conferencia sobre Ética Islámica e IA. “No sabemos lo que será, la tecnología tiene sus propios efectos no deseados”.
En general, la tradición islámica fomenta un enfoque cauteloso de la nueva tecnología y sus usos, dijo Aasim Padela, profesor de medicina de urgencias y bioética en el Colegio Médico de Wisconsin.
“Las cosas que intentan hacerte rival de Dios no se consideran un propósito a perseguir”, dijo. “Intentar buscar la inmortalidad mediante una transferencia cerebral, o hacer un cuerpo mejor que el que tienes, esos impulsos hay que frenarlos. La inmortalidad está en el más allá, no aquí”.
“La Regla de San Benito”, un libro escrito en el siglo VI como guía para la vida monástica, ofrece una respuesta a las preguntas sobre cómo podemos interactuar éticamente con la IA, tanto ahora como en el futuro, cuando podríamos encontrarnos con robots con rasgos humanos, dijo Noreen Herzfeld, profesora de teología e informática en la Universidad de San Juan y el Colegio de San Benito en Minnesota.
En la sección del libro dedicada al bodeguero -la persona encargada de las provisiones del monasterio-, San Benito le dice que trate a todo el que se le acerque con una palabra amable, y que trate todos los objetos inanimados de su almacén “como si fueran vasos consagrados del altar.”
“Para mí eso es algopodemos aplicar a la IA”, afirma Herzfeld. “Las personas siempre son lo primero, pero debemos tratar a la IA con respeto, con cuidado, porque todas las cosas terrenales deben tratarse con respeto. La forma en que tratas las cosas forma parte de tu propio carácter y de cómo tratas a la Tierra y a otros seres humanos”. “
La Iglesia católica se ha manifestado especialmente a favor de una ética de la IA que beneficie a la humanidad, que centre la dignidad humana y que no tenga como único objetivo un mayor beneficio o la sustitución gradual de las personas en el lugar de trabajo.
“De hecho, si el progreso tecnológico aumenta la desigualdad, no es verdadero progreso”, dijo el Papa Francisco en un Vídeo de noviembre de 2020 anunciando su intención de oración para que la robótica y la inteligencia artificial puedan servir siempre a la humanidad.
El objetivo del Vaticano no es frenar el desarrollo de la inteligencia artificial, pero la Iglesia sí cree que la cautela es esencial, dijo Paolo Benanti, monje franciscano y uno de los principales asesores del Papa en materia de nuevas tecnologías.
“Por un lado, no queremos limitar ninguno de los impulsos transformadores que pueden conducir a grandes resultados para la humanidad; por otro lado, sabemos que todas las transformaciones necesitan tener una dirección”, escribió en un correo electrónico. “Tenemos que ser conscientes de que si la IA no se gestiona bien, podría dar lugar a transformaciones peligrosas o indeseables”.
Con ese fin, los líderes del Vaticano ayudaron a elaborar el Llamamiento de Roma por la ética de la IAun compromiso firmado por primera vez en 2020 por representantes de la Academia Pontificia para la Vida, IBM, Microsoft y el Ministerio de Innovación italiano, entre otros, para defender la creación de tecnologías de IA que sean transparentes, inclusivas e imparciales. El 10 de enero, líderes de las comunidades judía e islámica se reunieron en el Vaticano para añadir también sus firmas.
Pedir a las empresas tecnológicas que den prioridad a los objetivos humanitarios frente a los intereses corporativos puede parecer una propuesta improbable, pero no hay que subestimar la influencia de la jerarquía religiosa en la ética de la IA, afirma Beth Singler, profesora de religiones digitales de la Universidad de Zúrich.
“Puede ayudar a las masas de creyentes a pensar de forma crítica y utilizar su voz”, afirmó. “Cuanto más conversación mantengan voces carismáticas significativas como el Papa, más aumentará la posibilidad de que la gente pueda, desde la base, apreciar lo que está pasando y hacer algo al respecto”.
Benanti estuvo de acuerdo.
“Los miles de millones de creyentes que habitan el planeta pueden ser una fuerza tremenda para convertir estos valores en algo concreto en el desarrollo y la aplicación de la IA”, dijo.
En cuanto a Franklin, el rabino de los Hamptons, dijo que su experimento con ChatGPT le ha dejado finalmente la sensación de que el auge de la IA podría tener un lado positivo para la humanidad.
Mientras que la inteligencia artificial puede ser capaz de imitar nuestras palabras, e incluso leer nuestras emociones, lo que le falta es la capacidad de sentir nuestras emociones, entender nuestro dolor a nivel físico, y conectar profundamente con los demás, dijo.
“Compasión, amor, empatía, eso es lo que mejor sabemos hacer”, dijo. “Creo que el chat GPT nos obligará a perfeccionar esas habilidades y a ser, si Dios quiere, más humanos”.