Mi primer libro fue sobre el impacto de la computación en la sociedad (“Un Mundo Cercano: El Impacto Político y Económico de las Nuevas Tecnologías”, Santiago, 1984). No tuvo una segunda edición, ya que las novedades que parecían lejanas se materializaron con enorme rapidez y antes que se entendiera bien lo que iría a pasar, las consecuencias se hicieron sentir en todo el mundo y a todo nivel en pocos años.


Hago este recuerdo, ya que lo que se anticipa para la materialización de la Inteligencia Artificial (IA) es que va a tener lugar con mayor rapidez y que el impacto, va a ser mayor.


¿Cuán asustados (o tranquilos) debemos estar? De partida, ayudaría que no se repitiera el optimismo exagerado que acompañó a la computación en los 90s, que solo cosas buenas podrían salir de ella, por lo que no hubo mucha regulación.


Peor, tampoco aparecieron nuevos conceptos para analizar adecuadamente lo que estaba ocurriendo. Para el cambio se utilizaron nombres nuevos, pero el análisis estuvo lleno de categorías antiguas.


La IA se divide en débil y fuerte. Hemos conocido ciertas aplicaciones de la primera para, por ejemplo, una tarea especifica: sería el caso de la popular Alexa. Lo que se avecina sería la segunda, y se nos dice que ahora, la fuerte, puede aprender y tomar decisiones autónomas.


La primera duda es si lo que se anticipa es exactamente igual a lo que hacen los seres humanos, ¿o será que para “aprender” o “pensar” necesitaremos conceptos distintos a lo que nosotros hacemos? El punto es que, aunque nos cueste mirar a las máquinas y algoritmos en esa forma, no hay duda de que son un producto tan humano como una obra de arte o una novela, ya que fueron creadas por nosotros.


El lenguaje crea realidades y hasta la biblia nos dice que primero estaba el verbo. Entonces, ¿debiéramos seguir trasladando a la IA características y funciones humanas, usando palabras y definiciones aplicables solo a nosotros? ¿Qué obliga a utilizar el verbo “pensar” o la palabra “inteligencia”?


A veces no se alcanza a teorizar y la historia tiene variadas instancias de revoluciones tecnológicas en que todo cambia antes que nos demos cuenta. Incluso ocurrió con la primera revolución industrial en Gran Bretaña en el s.18.


Se nos dice que lo de ahora será cualitativamente distinto, con un impacto superior a todo lo conocido. Entramos a territorio desconocido, pero ¿será verdad que impactará la propia evolución de nuestra especie en la tierra? Si es así, para protegernos, ¿bastaría con impedir que la IA tenga acceso al armamento nuclear?


Leo a alguien que respeto mucho como Yuval Noah Harari que nos dice en The Economist que la IA puede ser una especie de arma de destrucción masiva para nuestro mundo mental y social, en el sentido que las nuevas herramientas amenazarían nada menos que la supervivencia de la civilización humana, partiendo por la capacidad de generar lenguaje, sean palabras, sonidos o imágenes, toda vez que el lenguaje es la materia de la que está hecha toda la cultura humana.


He aprendido de libros como Sapiens o Homo Deus, pero poco después de la aparición de “21 Lecciones para el Siglo XXI”- a diferencia de los otros- el libro perdió protagonismo, ya que allí no figuraba la pandemia del CV-19, aunque no se puede criticar a Harari por ello, ya que aparentemente nadie pudo anticipar lo mal preparado que se estaba y la forma que sería afectado todo el mundo.


Si menciono lo anterior es por un hecho, nos gusta anticipar el futuro, aunque sea extremadamente difícil predecirlo con toda certeza. Sin embargo, con un poco de imaginación podemos señalar características esperables. Es lo que está ocurriendo con la IA, que está corriendo las fronteras de lo posible y de lo probable.


Y, de hecho, en toda revolución tecnológica, muchos y distinguidos sabios se han desprestigiados por decir que tal o cual invento o desarrollo era imposible, demostrando la historia de la tecnología que la imaginación es básica para lo que puede venir, aunque en un momento no se disponga de los inventos necesarios, tal como ocurrió con Leonardo De Vinci o Julio Verne.


Aquí me detengo y regreso al tema de esta columna, como debemos prepararnos para la IA y cuan asustados o tranquilos deberemos estar, ya que, en estos mismos días, nada menos que un reconocido pionero de la IA advierte que es una amenaza existencial para la humanidad, y para poder dedicarse a alertar de los riesgos, Geoffrey Hinton renuncia a Google para poder disponer del tiempo para hacerlo.


Y no es el único, ya que su CEO Sandor Pichai habla de los peligros y que el impacto será más intenso que el de la electricidad o el fuego. Es decir, hay a la vez optimismo y preocupación, y como otras veces, habrá ganadores y perdedores en países y empresas.


¿Qué hacer y cómo actuar?

En carta, Elon Musk, Harari y cientos de expertos piden “pausar” por seis meses la “carrera” de la IA. Proponen establecer una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades regulatorias. ¿Se puede hacer o ya es tarde? ¿Por lo demás, quien sería esa autoridad y quien tiene el poder para nombrarla? Aún más difícil, ¿quién logra que el mundo entero obedezca? El realismo dice que es demasiado lo que está en juego, sobre todo, las recompensas para los exitosos o los primeros, tal como ocurrió con la computación.


Por cierto, habrá un reacomodo profundo en los trabajos del futuro, con muchas ocupaciones que aparecerán y otras que desaparecerán, lo que no me asusta, ya que ha ocurrido muchas veces.


Nuevos trabajos y profesiones emergen siempre, y sin ir más lejos, basta comparar el listado de ocupaciones del Departamento del Trabajo estadounidense, donde en la década del 80, en comparación con la anterior, se agregaron más de dos mil nombres mientras que sobre tres mil perdieron importancia.


No nos asustemos tanto por el plano laboral, toda vez que ciencia y tecnología no son neutrales, por lo que siempre tendrán impacto en la sociedad.


Quienes me dan miedo son gobiernos y empresas, y he extendido mi preocupación también a las sociedades democráticas y desarrolladas, no solo aquellas dictatoriales, toda vez que antes de la pandemia no me hubiera preocupado al mismo nivel, pero después de la restricción de libertades que trajo consigo, me preocupo más.


Basta al respecto observar al Foro de Davos donde se propuso el 2022 que la IA limite las “opiniones odiosas”, ya que podría detectar lo que se considera peligroso en algún momento, antes que esas opiniones lleguen a las plataformas.


A eso, otros le suman ideas para una especie de pasaporte digital, que en su versión china podría seguir la huella de cuanta conformidad tiene cada individuo con las normas para así ser recompensado o disciplinado, o en la versión occidental del extremismo climático, para seguir su huella de carbono y que los gobiernos actúen sobre los hábitos de consumo para la “salvación” planetaria.


Después de la pandemia, no solo me preocupan las dictaduras y autoritarismos, sino también gobiernos democráticos, además de grandes empresas.


En Rusia tienen temor a los oligarcas. En USA a las grandes tecnológicas, y no solo por la colaboración que le han prestado por razones comerciales al gobierno chino. En USA, también preocupa a un sector su alianza con el FBI, denunciada por los nuevos dueños de Twitter como también que hayan censurado a personas que les parecían que esparcían noticias falsas, no tanto por Trump, sino por tratarse nada menos que del presidente de USA, existiendo aquí un antes y un después.


Me da miedo el poder económico, cuando se utiliza para influir y condicionar el proceso democrático. Postulo que no debemos repetir lo que ocurrió con el optimismo exagerado de los 90s, incluyendo legislación que les permite no ser responsables de lo que aparece o se difunde en sus plataformas, regalía que no tiene la prensa tradicional o la TV.


Se necesita vigilancia y regulación. Yo no le tengo miedo a la IA, le tengo miedo a lo que gobiernos y empresas gigantescas pueden hacer con ella. También me preocupa la programación, ya que allí se pueden introducir sesgos, desde los dueños a los programadores.


Hay que desterrar la ingenuidad, y no solo para dejar a la IA fuera de todo lo relacionado con la bomba atómica.


La pregunta es ¿qué se puede hacer?

De partida, hay que hacerlo a nivel mundial, y lo primero a anotar es que para estos efectos la ONU no funciona bien como tampoco lo hizo en la pandemia.


Un solo país, individualmente tampoco, incluyendo a Estados Unidos, que hoy no tiene el super poder del que dispuso después de la caída de la ex URSS. Tampoco tiene la voluntad.


¿Que se necesitaría? Aunque suene raro decirlo después de Ucrania, un acercamiento de las potencias. Si se hizo durante la Guerra Fría, se puede hacer ahora, es decir,


  • 1.-la firma de un tratado global, que construya sobre la experiencia que el mundo tiene a mano, es decir, lo que se hizo no solo con la bomba, sino en general con la energía nuclear, ya que Hiroshima dio origen a un temor aun superior al que hoy existe en relación con la IA. Podemos decir, que no se pudo evitar toda proliferación, pero ha funcionado en forma razonable.


Además, no se dispone de otra experiencia similar.


  • 2.- En segundo lugar, a nivel nacional los países deberán incorporar en sus respectivas constituciones la protección de lo que viene, es decir, algoritmos y estrategias de protección de los derechos elementales, que nos proteja de la manipulación de los procesos que tienen lugar en nuestro cerebro.


¿Qué nos falta? La presencia de la ética, no una cualquiera, sino una de principios más que de valores, ya que estos últimos se modifican con los cambios sociales, mientras que los principios son pocos e inmutables, es decir, se deberá actuar con el ejemplo ético de las Tres Leyes de la Robótica de Isaac Asimov y sus directrices de cómo estos deberán comportarse con los humanos.


Por último, aunque exista un marco regulatorio para protegernos de quienes quieran jugar a ser dioses, a cada persona le aumentan las probabilidades que en algún momento deberá decidir si le cree o no a un dispositivo no humano que le va a decir que está pensando. -infobae