Con el lanzamiento del Chat GPT-4 el mundo entero tuvo acceso una de las inteligencias artificiales más avanzadas del momento. En particular el chat es lo que se conoce como un modelo de lenguaje natural. Los avances en la materia son enormes, más si tenemos en cuenta que el lanzamiento se da a sólo tres meses de que se lanzó la anterior versión, Chat GPT-3, mucho menos potente. En cuestión de días millones de usuarios en todo el mundo comenzaron a probar las funcionalidades de un chat que puede hacer resúmenes, trabajos de redacción, programar aplicaciones básicas, contestar con éxito la mayoría de los exámenes de nivel secundario e incluso algunos de nivel universitario en materias como derecho y agronomía.
Ante esta irrupción más de mil empresarios/as y científicos/as del sector, como el mediático Elon Musk, sacaron una solicitud advirtiendo los riesgos que implica seguir explorando estas tecnologías sin el control adecuado y pidiendo que se frene la investigación por seis meses. Es que en los últimos años se desarrolla una carrera silenciosa entre varios laboratorios privados por posicionarse a la punta de la Inteligencia Artificial. Por ahora Open AI, la empresa que desarrolló Chat GPT-4, parecería ir ganando. Pero ¿A qué costo? Los principales argumentos esgrimidos sobre el peligro de esta tecnología van desde la paranoia inspirada por clásicos de la ciencia ficción como “Yo Robot” hasta la preocupación concreta por los efectos sociales que una automatización del trabajo intelectual puede conllevar.
¿La IA amenaza nuestros trabajos?
En un informe, basado en los desarrollos actuales, Goldman Sachs prevé que podrían perderse hasta 300 millones de puestos de trabajo en los próximos 10 años debido a la implementación de esta tecnología. Más allá de lo arriesgado de esta previsión, y de la discusión que siempre existe en economía sobre el balance entre los puestos que se pierden y los que se crean con un avance tecnológico, hay empresas que ya están comenzando a considerar recortes. Es el caso de la plataforma de contenido viral Buzzfeed que con la versión anterior de Chat GPT despidió a la mitad de su personal de redacción.
Con otra perspectiva, el diario El Mundo (España) está considerando introducir la herramienta como complemento al trabajo de sus redactores. Su última portada se hizo viral al mostrar a dos figuras políticas de España, Pablo Iglesias y Yolanda Díaz, en una foto imposible: caminando juntos y tomados del hombro. Al pie de la imagen una “letra chica” aclaraba que la misma no es real y fue fabricada por una inteligencia artificial. La polémica se desató en redes con una pregunta de fondo: ¿En qué confiar si cualquier usuario de una IA, o medio, puede crear una imagen falsa en segundos?
¿Entonces, dónde queda la realidad?
Una de las frases más repetidas desde que se desató la guerra en Ucrania es que “lo primero que muere es la verdad”. El conflicto, que enfrenta a “occidente” con una potencia militar y cultural como Rusia puso de nuevo sobre la mesa esta característica de toda gran guerra. Los medios rusos fueron censurados en las principales plataformas occidentales y otro tanto ocurre en Rusia con los medios europeos y norteamericanos. El discurso público, las noticias a las que puede acceder un ciudadano común, tanto en uno como en otro lado se separan cada vez más de la información objetiva. Esta realidad no es nueva pero ¿empeora con la Inteligencia Artificial?
Si bien es preocupante la masividad que puede cobrar la fabricación de imágenes e incluso texto para noticias falsas, más preocupante aún es que se intensifique el fenómeno de burbuja que ya generamos en nuestro primer contacto con la Inteligencia Artificial: las redes sociales. En las redes una inteligencia artificial “el algoritmo” selecciona el contenido creado por otras personas para personalizar nuestro feed y hacerlo más deseable. Debido a esto terminamos interactuando con gente que comparte nuestros gustos, intereses, elecciones políticas, etc. ¿Cómo cambiaría esto si el contenido pudiera generarse específicamente para cada usuario? ¿Cuánto se puede fragmentar la realidad que percibimos diariamente a través de nuestros smartphones si la construye una IA?
Para el historiador israelí Yuval Harari el lenguaje, en palabras, imágenes o sonidos, es la llave maestra de los que nos hace humanos: la cultura. En una carta publicada recientemente en New York times sostiene que los llamados Modelos de Lenguaje Grande (como Chat GPT) son cada vez más capaces de absorber toda la cultura humana (se alimentan de internet) y en base a ella escupir una serie de artefactos culturales de toda índole, desde obras de arte y temas musicales hasta discursos políticos y religiosos. ¿Cómo nos posiciona esto? La realidad y nuestra forma de percibirla es construida por lo que aprendemos y con quiénes intercambiamos. Pero ¿Qué pasa si quién nos enseña y nos muestra la realidad es una inteligencia artificial? Estas son algunas de las preocupaciones que comparten en nuestra región científicos y científicas que se nuclean en el Khipu “Encuentro Latinoamericano de Inteligencia Artificial”.
Una Inteligencia Artificial latinoamericana y al servicio de las personas
El espacio Khipu, cuyo nombre hace referencia a un antiguo sistema de cuenta y cálculo inca basado en nudos y cuerdas, publicó recientemente la Declaración de Montevideo con una visión latinoamericana sobre la Inteligencia Artificial. Advirtiendo los riesgos que ya desarrollamos y otros como el de pérdida de diversidad cultural, postulan que la Inteligencia Artificial debe ponerse al servicio del ser humano. También llaman a desarrollarla respetando una perspectiva democrática y de derechos humanos, a la vez que atendiendo fuertemente a su impacto medioambiental. En esta misiva escrita desde el sur del mundo enfatiza en la necesidad de respetar e integrar en la creación de Inteligencia Artificial la diversidad cultural de nuestro continente, incorporándonos tanto en el diseño como entrenamiento de estos sistemas. La pregunta es ¿Qué pueden hacer nuestros países frente a los cambios que ya están ocurriendo?
Desde el espacio, que nuclea a los y las mejores especialistas de nuestro continente, hacen un llamado a formar criterios y estándares que permitan determinar los potenciales y riesgos de las inteligencias artificiales. A su vez este es un llamado a los estados a implementar políticas públicas por un lado de regulación de la actividad y por otro de formación de especialistas del más alto nivel que sean capaces de llevarlas adelante y generar desarrollos al servicio de nuestros pueblos.
Elegir es humano
La Inteligencia Artificial ya cambió al mundo y la reacción de muchos y muchas es una genuina pregunta por lo humano ¿quiénes somos?, ¿qué nos distingue?, ¿qué poder de decisión tenemos? La carrera por llegar primeros, y quedarse con el mercado, entre los laboratorios de Inteligencia Artificial en Estados Unidos pareciera mostrar que las decisiones fundamentales las tomará una mano invisible. Lo que hagamos con esta tecnología no puede agotarse ni centrarse en las oportunidades para ganar dinero y poder de unas pocas empresas casi en un único país. De nosotros, y de la eficacia de nuestras instituciones, depende que podamos ganar soberanía o perderla con su irrupción, la elección es nuestra.
por Joaquín Elias Gatti Yapur
✉ joaquinepuyen@gmail.com