Entrevista

Yuval Noah Harari alerta del peligro de una humanidad sin empatía

  • De ello y de otros peligros que acechan a la sociedad y al individuo habla el autor de 'Sapiens' en su último libro, '21 lecciones para el Siglo XXI', que como su anterior obra salta directamente a la cima de títulos más vendidos en cada país en el que se publica.

Yuval Noah Harari. Yuval Noah Harari.

Yuval Noah Harari.

El historiador y escritor israelí Yuval Noah Harari (Israel, 1976), autor del superventas Sapiens, cree que la fusión de la bioingeniería y la tecnología de la información brindará a los gobiernos y las empresas las herramientas necesarias para manipular más a la gente en el futuro. De ello y de otros peligros que acechan a la sociedad y al individuo habla en su último libro, 21 lecciones para el Siglo XXI, que como su anterior obra salta directamente a la cima de títulos más vendidos en cada país en el que se publica.

Harari es catedrático de historia de la Universidad Hebrea de Jerusalén y es invitado a dar charlas en todo el mundo. Habla maravillas de la meditación, a la que dedica dos horas al día, y evita comer carne y productos lácteos por el sufrimiento que padecen los animales.

-Usted señala en su libro Homo Deus que la ciencia ha demostrado que el hombre carece de libre albedrío. Al mismo tiempo escribe libros para que la gente piense sobre el futuro y tome mejores decisiones. ¿Cómo explica esto?

-Los humanos tienen voluntad, solo que ésta no es libre. No puedes escoger lo que deseas tener. Los humanos toman ciertamente decisiones, pero estas decisiones nunca son independientes. Cada decisión depende de una cantidad de condiciones biológicas, sociales y personales que uno no puede escoger a voluntad. No elegiste tus genes, tu género, tus padres, tus vecinos, tu cultura. Intenta seguir a nivel consciente el curso del próximo pensamiento que se te viene a la cabeza. ¿De dónde provenía? ¿Decidiste libremente pensar esto en particular y entonces lo pensaste? Obviamente que no fue así.

"Los humanos toman ciertamente decisiones, pero estas decisiones nunca son independientes"

-¿Qué se deduce de esto?

-La idea de que los humanos son sujetos completamente independientes que escogen libremente sus propios pensamientos y deseos es ridícula desde el punto de vista científico y peligrosa desde el punto de vista político. En siglos anteriores, el peligro era reducido porque ningún Gobierno o corporación contaba con los conocimientos biológicos y el poder informático necesarios para controlar sus pensamientos y deseos. Pero ahora, algunos gobiernos y corporaciones están obteniendo el poder para hackear y manipular a la gente. Y lo más fácil es manipular a la gente que cree que no puede ser manipulada porque tiene "libre albedrío".

-¿Cuál es su advertencia concreta?

-Trato de alertar a la gente de que son animales susceptibles de ser hackeados. Precisamente por el hecho de que la gente no es completamente independiente puedo tratar de influir en sus decisiones. ¿Y por qué importa esto? Porque algunas decisiones causan un montón de sufrimiento mientras que otras decisiones ayudan a evitar sufrimiento. La gran cuestión para mí es cómo liberarnos del sufrimiento. Una condición muy importante para evitar el sufrimiento es librarnos de las ilusiones que tenemos en cuanto a nosotros mismos, incluida la ilusión de que nuestros deseos reflejan nuestra "voluntad libre".

"La idea de que los humanos son sujetos completamente independientes que escogen libremente sus propios pensamientos y deseos es ridícula desde el punto de vista científico y peligrosa desde el punto de vista político"

-¿Qué ventajas traería esto?

-Si los entendemos podemos reaccionar de forma menos obsesiva a nuestros deseos. Los seres humanos le dan tanta importancia a sus deseos que intentan controlar y formar el mundo entero de acuerdo a sus deseos. Si entienden que sus deseos no son productos del libre albedrío entonces ojalá se dejen dominar menos por ellos. Si nos comprendemos a nosotros mismos y comprendemos nuestros deseos, tal y como son verdaderamente, el mundo será un lugar mucho mejor que si tratamos constantemente de realizar todo deseo que se nos ocurra.

-Usted argumenta que no la identidad, la conciencia o la inteligencia elevan al hombre por encima del animal, sino las creencias en mitos comunes, las historias: la religión, la nación, el humanismo, el dinero. ¿Cuál será la próxima gran historia que dé estabilidad a un mundo cambiante?

-No lo sabemos. Si lo supiésemos ya estaríamos creyendo en esto. Una historia ficticia funciona bien siempre y cuando se piense que es realidad.

-Usted predijo que la fusión de biotecnología e inteligencia artificial daría a luz a una nueva forma de ser humano. Y que podría haber seres humanos que serían tratados por una pequeña élite como son tratados los animales. ¿Cómo se podría frenar esta evolución?

-Tenemos que entender mucho mejor la mente humana. Los gobiernos, las corporaciones y los ejércitos emplearán probablemente una tecnología para mejorar las capacidades que necesitan y al mismo tiempo descuidarán otras necesidades humanas y partes desconocidas del potencial humano. Por ejemplo, los gobiernos y las corporaciones probablemente alentarán el desarrollo de la inteligencia y la disciplina mientras que tendrán escaso interés en desarrollar la empatía o la espiritualidad. El resultado serán humanos muy inteligentes y disciplinados que carecen de empatía y profundidad espiritual.

"Los gobiernos y las corporaciones probablemente alentarán el desarrollo de la inteligencia y la disciplina mientras que tendrán escaso interés en desarrollar la empatía o la espiritualidad"

-¿Y eso qué quiere decir?

-Se lo hemos hecho a vacas. Hemos criado vacas dóciles que producen enormes cantidades de leche pero son mucho menos ágiles y curiosas que sus antecesoras salvajes. Ahora estamos creando humanos que funcionan como chips eficientes en un gigantesco mecanismo de procesamiento de datos pero que a duras penas desarrollan el potencial humano. En efecto, podríamos perder una gran parte de nuestro potencial humano sin siquiera ser conscientes de que lo teníamos. Para impedir esto necesitamos invertir en la investigación y el desarrollo de la mente humana por lo menos tanto como en la investigación y el desarrollo de nuevas tecnologías.

-Si entendí bien sus textos, ¿usted considera que el cambio climático, es decir la crisis ecológica, representa la peor amenaza?

-La crisis ecológica es uno de tres grandes peligros que afronta ahora la humanidad. Estos tres peligros son el cambio climático, la guerra atómica y la disrupción tecnológica. Incluso si consiguiésemos prevenir el cambio climático y la guerra atómica, la inteligencia artificial y la bioingeniería enfilan hacia la disrupción del mercado laboral, del orden global e incluso de nuestros propios cuerpos y mentes.

Yuval Noah Harari Yuval Noah Harari

Yuval Noah Harari

-¿Es esto inevitable?

-Lo que pase verdaderamente no es inevitable sino que depende de nuestras propias decisiones. Pero para prevenir los peores desenlaces necesitamos la cooperación global. Ninguno de estos problemas podrá ser solucionado por una nación en particular. El Gobierno alemán no puede proteger a Alemania de la guerra nuclear o del calentamiento global si no coopera con los gobiernos de China, Estados Unidos y otros numerosos países.

-¿Qué significa esto en concreto?

-Si tienes miedo al potencial disruptivo de la inteligencia artificial y la bioingeniería no puedes esperar que el Gobierno de Alemania, por ejemplo regule por su cuenta estas tecnologías. Imagínate que Alemania prohíbe la producción de sistemas de armas autónomos y prohíbe los bebés humanos generados por la ingeniería genética. ¿De qué sirve si Estados Unidos construye robots asesinos y China cría superhombres mejorados genéticamente? Pasará poco tiempo hasta que Alemania, o cualquier otro país, se vea tentada de violar su propia prohibición por temor a quedar relegada. En vista del inmenso potencial, estas tecnologías disruptivas sólo pueden ser reguladas a través de la cooperación global.

-Usted habla de las debilidades y del ocaso de la democracia liberal. ¿Lucharía por salvarla?

-Tengo un serio dilema personal en cuanto al liberalismo. Creo que el pensamiento liberal tiene fallos, que no dice la verdad sobre la humanidad y que necesitamos ir más allá para poder sobrevivir y desarrollarnos en el siglo XXI. El liberalismo no ofrece respuestas a las cuestiones que plantea el avance de la inteligencia artificial y de la bioingeniería. El liberalismo parte del supuesto de que los humanos tienen libre albedrío, de que los sentimientos humanos son la autoridad última tanto moral como política y de que nadie puede comprenderme mejor de lo que yo me puedo entender a mí mismo. Pero la inteligencia artificial y la bioingeniería harán posible hackear a seres humanos, controlar el deseo humano y moldear sentimientos humanos. El liberalismo no sabe cómo lidiar con esto.

-¿Y por otra parte?

-Por otro lado, la narrativa liberal actual sigue siendo fundamental para el funcionamiento del orden global y está siendo atacada por fanáticos religiosos y nacionalistas. Estos fanáticos creen en fantasías nostálgicas que son mucho más peligrosas y nocivas que el relato liberal. Deberíamos defender el liberalismo de estas fantasías peligrosas y yo personalmente dedico mucho tiempo y energía a defender el liberalismo. Es uno de los grandes costes que trae aparejada esta ola actual de nostalgia. Nos obliga a volver a librar viejas batallas de siglos anteriores en lugar de concentrarnos en los nuevos desafíos del siglo XXI.

Comentar

0 Comentarios

    Más comentarios