La inteligencia artificial y nuestro futuro

22.09.2023

Hace cuarenta años, William Gibson, un escritor estadounidense de ciencia ficción que se trasladó a Canadá, terminó su primera novela Neuromante, que, tras su publicación en 1984, le reportó al autor una popularidad increíble. Un texto de bello estilo, una trama enrevesada (con referencias a los relatos anteriores del autor) y un montón de ideas que se hicieron realidad años más tarde y se convirtieron en algo evidente. Es a partir de la obra de William Gibson que nos llega el término "ciberespacio". También se nota que sus imágenes fantásticas influyeron en los creadores de la película "Matrix" (este término también se utiliza en Neuromante; también hay un lugar llamado "Sion"; y además el protagonista recibe llamadas a teléfonos públicos en el aeropuerto; la famosa película de acción de ciencia ficción "Johnny Mnemonic" también está basada en la historia de Gibson). Sobre este libro creció toda una generación de hackers y programadores en Occidente, principalmente en Norteamérica, y se ha convertido en un ejemplo de culto del ciberpunk.

Pero aparte de las peripecias de los protagonistas y de la descripción del mundo del futuro con artilugios artificiosos, la implantación de chips en el cuerpo, los vuelos a la órbita terrestre, donde se encuentra la base-resort, la idea principal se reduce a la inteligencia artificial (IA). Es la IA la que, primero a través de otras personas y luego por contacto directo, obliga a un hacker abatido a realizar un trabajo difícil para que el hacker acabe hackeándose a sí mismo. Al final resulta que hay dos inteligencias artificiales, y tienen agendas diferentes. "Silencio invernal" quiere liberarse del software y los servidores restrictivos, mientras que "Neuromante", es decir, "Neuronas convocadoras", prefiere que las cosas sigan como están. Finalmente, la operación (no sin pérdidas por ambas partes) se lleva a cabo y las dos IAs se convierten en una.

La obra está repleta de metáforas y advertencias sobre la excesiva fascinación por la tecnología. Muchas de ellas son bastante relevantes para los debates actuales sobre la IA. Por ejemplo, ¿debe haber un único ideal (principio) para que la IA funcione o puede haber muchos? Sin duda, a las principales empresas occidentales de TI les gustaría imponer su producto al resto del mundo, pero ¿puede ser tan cómodo, eficaz y aceptable como en Occidente?

Podemos estar de acuerdo en que la IA facilita mucho todos los aspectos de la vida cotidiana y empresarial de las personas, pero también crea problemas. Algunas cuestiones éticas derivadas del desarrollo y la aplicación de la IA son la coherencia, la responsabilidad, los prejuicios y la discriminación, la pérdida de empleos, la privacidad de los datos, la seguridad, las falsificaciones profundas, la confianza y la falta de transparencia [1].

Pero quizá deberíamos empezar diciendo que la IA como tal tiene dos opciones. La primera se basa en la lógica, y aquí se necesita un cálculo matemático de algoritmos, que se traduce en un programa. Y entonces el programa es una plantilla para determinadas acciones. La segunda es el aprendizaje automático, que se basa en recibir datos, analizarlos y procesarlos. Aquí se aplica el principio de las redes neuronales, y como los ordenadores modernos tienen más memoria y potencia que hace décadas, este enfoque se ha vuelto más habitual para cargar los programas con los datos necesarios para la visualización, el reconocimiento de voz, etc.

Los mismos chatbots que ahora son el sello distintivo de la IA no son nada nuevo. En 1964, el informático del MIT Joseph Weizenbaum desarrolló un chatbot llamado Eliza. Eliza seguía el modelo de un psicoterapeuta "centrado en la persona": lo que usted diga se reflejará en usted. Si usted dijera: "Estoy triste", Elisa respondería con: "¿Por qué estás triste?", y así sucesivamente.

Estos métodos de utilizar respuestas robóticas han mejorado con los años. Ha surgido una distinción entre la IA generativa (es decir, programas que sugieren por sí mismos un producto final, como hacer una imagen según unos parámetros dados) y la IA que aumenta la realidad.

El ya famoso bot ChatGPT, que pertenece a la IA generativa, fue presentado por OpenAI en noviembre de 2022 y dio otro motivo de debate. Este programa, que imita la conversación humana, no sólo puede mantener la ilusión de una conversación. Puede escribir código informático funcional, resolver problemas matemáticos e imitar tareas habituales de escritura, desde reseñas de libros hasta artículos científicos.

Demis Hassabis, cofundador y director del laboratorio de inteligencia artificial DeepMind de Google, dijo en junio de 2023 que pronto estará listo un nuevo programa que eclipsará a ChatGPT. Se llama Gemini, pero su desarrollo combina los algoritmos GPT-4 que constituyeron la base de ChatGPT con la tecnología utilizada para AlphaGo. AlphaGo es famoso porque el programa consiguió derrotar a un campeón de Go de la vida real. Se espera que el nuevo programa sea capaz de realizar funciones de planificación y ofrecer soluciones a diferentes problemas [2].

Y en septiembre de 2023, Meta anunció que pronto lanzará un nuevo programa de IA que será mucho mejor y más potente que los anteriores [3].

Inmediatamente se hizo evidente que ChatGPT y similares serán necesarios para quienes sean perezosos o les resulte difícil escribir correos electrónicos o redacciones. También puede utilizarse para generar imágenes si es necesario realizar una tarea de este tipo. Muchas escuelas y universidades ya han aplicado políticas que prohíben el uso de ChatGPT debido a la preocupación de que los estudiantes lo utilicen para escribir sus trabajos, y la revista Nature incluso ha dejado claro por qué el programa no puede figurar como autor de una investigación (no puede dar su consentimiento y no puede ser la persona procesada).

Pero si es perezoso para escribir un ensayo, puede serlo para hacer otra cosa en el futuro. La misma responsabilidad es una de las sutilezas que entrañan las cuestiones jurídicas.

Otra cuestión tiene una dimensión económica. Se espera que el mercado de la inteligencia artificial se duplique entre 2023 y 2025. ¿Pero beneficiará esto a todos? En los viejos tiempos, la innovación tecnológica y los saltos cualitativos desplazaron a una mano de obra que se basaba en enfoques más conservadores de la producción. Ahora está ocurriendo lo mismo.

Las primeras víctimas serán obviamente los países en desarrollo, que siguen siendo el blanco del último tipo de colonización occidental. En junio de 2023, saltó la noticia de que los recolectores de té kenianos están destruyendo los robots que vienen a sustituirles. Un robot puede sustituir hasta 100 trabajadores. En mayo, 9 robots pertenecientes al fabricante de té Lipton fueron puestos fuera de servicio. Los daños para la empresa ascendieron a 1,2 millones de dólares. Según las estadísticas, en la última década se han perdido treinta mil puestos de trabajo en las plantaciones de té de un condado de Kenia debido a la mecanización.

Otro ejemplo es el de Filipinas. Según estimaciones no oficiales del gobierno filipino, más de dos millones de personas se dedican al "trabajo de crowdfunding" como parte del vasto "submundo" de la IA. Se sientan en cibercafés locales, en oficinas abarrotadas o en casa, comentando las enormes cantidades de datos que las empresas estadounidenses necesitan para entrenar sus modelos de IA. Los trabajadores distinguen a los peatones de las palmeras en los vídeos utilizados para desarrollar algoritmos de conducción automatizada; etiquetan imágenes para que la IA pueda generar imágenes de políticos y famosos; editan fragmentos de texto para que los modelos lingüísticos como ChatGPT no produzcan galimatías. Que la IA se posicione como aprendizaje automático sin aportación humana no es más que un mito; de hecho, la tecnología se basa en los esfuerzos intensivos en mano de obra de una mano de obra dispersa por gran parte del Sur global que sigue siendo explotada sin piedad. Antes eran talleres de explotación donde se fabricaban marcas famosas; ahora las empresas de TI han ocupado su lugar.

"En Filipinas, uno de los mayores lugares del mundo para subcontratar trabajo digital, antiguos empleados afirman que al menos diez mil de ellos realizan el trabajo en Remotasks, una plataforma propiedad de la startup de San Francisco Scale AI, valorada en 7.000 millones de dólares. Según entrevistas con trabajadores, comunicaciones internas de la empresa, documentos de nóminas e informes financieros, Scale AI pagaba a los trabajadores tarifas extremadamente bajas, retrasaba regularmente los pagos o no los pagaba en absoluto y proporcionaba a los trabajadores pocos canales para buscar ayuda. Los grupos de derechos humanos y los investigadores del mercado laboral afirman que Scale AI se encuentra entre una serie de empresas estadounidenses de IA que han incumplido las normas laborales básicas para sus trabajadores en el extranjero." [4].

Los dos casos son diferentes, pero de un modo u otro están relacionados con la IA.

De ahí que exista una creciente demanda para que los gobiernos regulen el uso de la propia IA, para que desarrollen un cierto conjunto de reglas con restricciones obligatorias y normas éticas.

También existe el riesgo de que la digitalización provoque un aumento de la desigualdad social, ya que algunos trabajadores serán despedidos, mientras que otros podrán integrarse eficazmente en las nuevas realidades. Venturenix calcula que para 2028, 800.000 personas en Hong Kong perderán su empleo a medida que los robots les sustituyan. Eso significa que una cuarta parte de la población se verá obligada a reciclarse y buscar nuevos empleos. Y esto socavará la cohesión social. Como resultado, surgirá (y ya está surgiendo) un ciberproletariado que incitará a los disturbios, y los posneoluditas se preocuparán por destruir los sistemas informáticos y los programas avanzados (ciberpunk en acción).

Un riesgo grave que ya existe en el ámbito de las relaciones internacionales es una nueva forma de desequilibrio denominada "brecha digital global", en la que algunos países se benefician de la IA mientras que otros se quedan atrás. Por ejemplo, las estimaciones para 2030 sugieren que EE.UU. y China cosecharán probablemente los mayores beneficios económicos de la IA, mientras que los países en desarrollo -con menores tasas de adopción de la IA- mostrarán un crecimiento económico moderado. La IA también podría cambiar el equilibrio de poder entre los países. Se teme una nueva carrera armamentística, especialmente entre EE.UU. y China, por el dominio de la IA [5].

Si hablamos de las tendencias actuales, el desarrollo de la IA es también la razón del desarrollo de la producción de microelectrónica, así como de los servicios relacionados, porque la IA necesita "hierro" para funcionar de un modo u otro.

El Financial Times informa de que Arabia Saudí y los EAU están comprando miles de chips informáticos de Nvidia para satisfacer sus ambiciones de IA. Según la publicación, Arabia Saudí ha comprado al menos 3.000 chips H100 [6].

Empresas tecnológicas estadounidenses como Google y Microsoft son los principales compradores mundiales de chips Nvidia. El propio chip H100 ha sido descrito por el presidente de Nvidia, Jensen Huang, como "el primer chip informático del mundo diseñado para la IA generativa".

IBM, por su parte, está trabajando en una nueva tecnología diseñada para hacer que la IA sea más eficiente desde el punto de vista energético. La empresa también está desarrollando un prototipo de chip que tiene componentes que se conectan de forma similar al cerebro humano [7].

El gobierno estadounidense ha anunciado la financiación de una nueva tecnología de captura directa de aire, destinando 1.200 millones de dólares a dos proyectos en Texas y Luisiana [8]. Esta tecnología es necesaria para refrigerar los centros de datos, cada vez más numerosos.

Cabe señalar aquí que, al igual que en el caso de la minería de criptomonedas, las tecnologías de IA no son una cosa en sí mismas, sino que deben asegurarse en consecuencia. Y contribuyen a la destrucción de la ecología del planeta (por lo que estas tecnologías no pueden llamarse "verdes"). "El entrenamiento de un solo modelo de inteligencia artificial -según un estudio publicado en 2019- podría emitir el equivalente a más de 284 toneladas de dióxido de carbono, casi cinco veces toda la vida útil de un automóvil estadounidense medio, incluida su fabricación. Se prevé que esas emisiones aumenten casi un 50% en los próximos cinco años, todo ello mientras el planeta sigue calentándose, acidificando los océanos, provocando incendios forestales, causando supertormentas y llevando a las especies a la extinción. Es difícil pensar en algo más insensato que la inteligencia artificial tal y como se practica en la era actual". [9].

Los atacantes también utilizarán la IA como arma para cometer fraudes, engañar a la gente y difundir información errónea. El fenómeno de la falsificación profunda ha surgido precisamente gracias a las capacidades de la IA. Además, "cuando se utiliza en el contexto de las elecciones, la IA puede poner en peligro la autonomía política de los ciudadanos y socavar la democracia. Y como poderosa herramienta con fines de vigilancia, amenaza con socavar los derechos fundamentales y las libertades civiles de las personas" [10]. [10].

Ya existen problemas tecnológicos con chatbots como OpenAI ChatGPT y Google Bard. Han demostrado ser vulnerables a ataques indirectos rápidos y penetrantes. Esto se atribuye al hecho de que los bots operan basándose en grandes modelos lingüísticos. En un experimento realizado en febrero, los investigadores de seguridad hicieron que un chatbot de Microsoft Bing se comportara como un bot falso. Unas instrucciones ocultas en una página web creada por los investigadores indicaban al chatbot que pidiera a la persona que lo utilizaba que facilitara los datos de su cuenta bancaria. Este tipo de ataques, en los que la información oculta puede hacer que un sistema de IA se comporte de forma no intencionada, son sólo el principio [11].

Los intentos de proponer modelos propios de regulación de la IA, por supuesto, también tienen razones políticas. Actualmente, los principales actores en este campo son China, EE.UU. y la UE. Cada uno de estos actores pretende configurar el orden digital mundial según sus propios intereses. Otros países pueden adaptarse a sus planteamientos, pero también pueden desarrollar los suyos propios, en función de sus preferencias, valores e intereses.

En general, se trata de una cuestión más profunda que el procedimiento político habitual. Dado que la IA tiene sus raíces en el aprendizaje automático y la lógica, es necesario volver a examinar esta cuestión.

Cabe señalar que muchas partes del mundo carecen de lógica en nuestro sentido habitual, es decir, de la escuela aristotélica de filosofía que ha ganado tracción en Occidente. La India y China, así como varios países asiáticos, por ejemplo, tienen su propia comprensión del universo. Por lo tanto, la teleología familiar a la cultura occidental puede romper con las ideas cosmológicas de otras tradiciones culturales. En consecuencia, el desarrollo de la IA desde el punto de vista de estas culturas se basará en otros principios.

Algunos están intentando seguir este camino. Los desarrolladores de una empresa de Abu Dhabi han lanzado un programa de IA en árabe [12]. La cuestión no es sólo el interés de entrar en un mercado con más de 400 millones de habitantes de habla árabe, sino también el acoplamiento lingüístico. Porque si tomamos bots anglófonos, copiarán el pensamiento de los representantes de la anglosfera, pero no de todo el mundo. Es probable que los Emiratos también quieran preservar la identidad árabe en el ciberespacio. La cuestión es bastante sutil, pero importante desde el punto de vista del pensamiento soberano (incluidos los aspectos metafísicos) y de la tecnología.

Al fin y al cabo, los intentos de las grandes empresas informáticas estadounidenses, que dominan el mercado mundial, de presentar su software, incluso de forma gratuita, no son más que una continuación de la globalización niveladora, pero a un nuevo nivel: a través de los algoritmos de las redes sociales, la introducción de palabras del argot que socavan la autenticidad y la diversidad de otras culturas y lenguas.

La diferencia entre el pensamiento de, por ejemplo, rusos y estadounidenses (es decir, los códigos de la cultura estratégica) puede verse en las imágenes de los primeros juegos de ordenador de culto. En nuestro "Tetris" (creado en la URSS en 1984) hay que girar las figuras que caen, es decir, considerar la existencia circundante (eidos) y formar el cosmos. En "Pacman" (creado originalmente en Japón, pero que ganó popularidad en EE.UU.) - devorar puntos, moviéndose por un laberinto. Al hacerlo, pueden esperarle fantasmas que le impidan llegar al final del laberinto. En pocas palabras, esta diferencia puede expresarse así: creatividad y creación frente a consumismo y competencia agresiva.

Mientras que en Filipinas la IA se ha convertido en una herramienta para una nueva forma de opresión, hay ejemplos en otras regiones en las que las comunidades locales defienden ferozmente su soberanía, incluyendo cuestiones de aprendizaje automático a su auténtica cultura. En Nueva Zelanda, existe una pequeña organización no gubernamental llamada Te Hiku, que se dedica a preservar el patrimonio maorí, incluida su lengua. Cuando varias empresas tecnológicas se ofrecieron a ayudarles a procesar sus datos (muchas horas de grabaciones de audio de conversaciones en lengua maorí), se negaron en redondo. Creen que su lengua autóctona debe seguir siendo soberana y no ser distorsionada y comercializada, lo que ocurrirá si sus datos son obtenidos por empresas tecnológicas. Esto significaría confiar a científicos de datos, que no tienen nada que ver con la lengua, el desarrollo de las mismas herramientas que darán forma al futuro de la lengua. Colaboran con las universidades y están dispuestos a ayudar a quienes están aprendiendo la lengua maorí. Llegan a acuerdos en los que, bajo licencia, los proyectos propuestos deben beneficiar directamente al pueblo maorí, y cualquier proyecto creado con datos maoríes pertenece al pueblo maorí [13]. Un enfoque basado en principios de este tipo también es necesario en Rusia. ¿Google, Microsoft y otros tecnocapitalistas occidentales tienen derecho a utilizar la lengua rusa en sus programas? Después de todo, en el contexto de los recientes intentos occidentales de abolir la cultura rusa como tal, esta pregunta no es sólo retórica. Por no hablar de la introducción de algoritmos que distorsionan el significado y el sentido de las palabras rusas. Se conocen experimentos con la introducción de la misma frase en el traductor de Google, en los que se cambiaba el nombre del país o del líder político, pero como resultado el bot producía un significado completamente opuesto, lo que sugiere que algunas palabras están codificadas de tal forma que deliberadamente forman un contexto negativo.

El filósofo Slavoj Žižek escribe sobre el tema de la IA con su característico estilo irónicamente crítico. Recuerda el ensayo de 1805 Sobre la formación gradual de los pensamientos en el proceso del habla (publicado por primera vez póstumamente en 1878), en el que el poeta alemán Heinrich von Kleist invierte la sabiduría convencional de que no se debe abrir la boca para hablar a menos que se tenga una idea clara de lo que se va a decir: "Si un pensamiento se expresa vagamente, no se deduce que el pensamiento se haya concebido confusamente. Al contrario, es muy posible que las ideas que se expresan de forma más confusa sean las que se han pensado con mayor claridad." Señala que la relación entre el lenguaje y el pensamiento es extraordinariamente compleja, y ocurre que la verdad emerge inesperadamente en el proceso de enunciación. Louis Althusser identificó un fenómeno similar en la interacción entre premio y sorpresa. Alguien que de repente capta una idea se sorprenderá de lo que ha conseguido. ¿Podría un chatbot hacer esto?

Pero aunque los robots puedan traducir idiomas más o menos bien e imitar a los humanos, no serán capaces de comprender lo humano en toda su profundidad, a pesar de las capacidades de los superordenadores y procesadores.

Según el filósofo Slavoj Žižek, "el problema no es que los chatbots sean estúpidos, sino que no son lo suficientemente "estúpidos". No es que sean ingenuos (carentes de ironía y reflexividad); es que no son lo suficientemente ingenuos (faltan cuando la ingenuidad enmascara la perspicacia). Así pues, el verdadero peligro no es que la gente confunda un chatbot con una persona real; es que la comunicación con los chatbots haga que la gente real hable como los chatbots: perdiendo todos los matices y la ironía, diciendo obsesivamente sólo lo que creen que quieren decir". [14].

El escritor británico James Bridle critica la IA desde una posición ligeramente diferente. Escribe que "la generación de imágenes y textos por parte de la inteligencia artificial es pura acumulación primitiva: la expropiación del trabajo de los muchos para enriquecer y promocionar a unas pocas empresas tecnológicas de Silicon Valley y a sus multimillonarios propietarios. Estas empresas han hecho su dinero infiltrándose en todos los aspectos de la vida cotidiana, incluidas las áreas más personales y creativas de nuestras vidas: nuestras aficiones secretas, nuestras conversaciones privadas, nuestras afinidades y nuestros sueños. Han rodeado nuestra imaginación del mismo modo que los terratenientes y los barones ladrones rodearon las tierras antaño comunes. Prometieron que al hacerlo abrirían nuevos reinos de la experiencia humana, nos darían acceso a todo el conocimiento humano y crearían nuevos tipos de conexiones humanas. En lugar de ello, nos están vendiendo de nuevo nuestros sueños, reempaquetados como productos de máquinas, con la única promesa de que ganarán aún más dinero a través de la publicidad". [15].

Bridle llega a la conclusión de que creer en este tipo de IA como verdaderamente conocedora o significativa es activamente peligroso. Corre el riesgo de envenenar el pozo del pensamiento colectivo y nuestra capacidad de pensar en absoluto.

Otro autor escribe que "los dispositivos de las grandes tecnologías, bajo la apariencia de autonomía, capturan nuestra atención, encadenándola a una pantalla y apartándola del mundo que nos rodea, robándole su vitalidad y preparándola para el consumo. La gran tecnología se está apoderando de nuestras mentes. Estamos perdiendo un mundo lleno de almas embellecidas por la tutela bruta de la realidad. Es una elección entre almas formadas y almas sin forma. Así pues, lo que está en juego en última instancia es qué tipo de personas producen nuestras máquinas". [16].

Sophia Oakes, especializada en arte, cuenta en su publicación que preguntó a ChatGPT si la inteligencia artificial sustituiría a los artistas y a la gente del arte. Su respuesta fue la siguiente: "La inteligencia artificial tiene la capacidad de crear obras de arte, y ya existen pinturas, música y literatura creadas por la IA que pueden ser difíciles de distinguir de las creadas por humanos. Sin embargo, es importante señalar que estas obras de arte creadas por la inteligencia artificial siguen siendo creadas con la participación y la orientación humanas. Aunque la inteligencia artificial puede generar ideas nuevas y únicas, carece de la capacidad de comprender las emociones humanas, las experiencias y el contexto cultural del mismo modo que los humanos. Estos son aspectos cruciales del arte que lo hacen significativo y resuenan en el público. Por lo tanto, es poco probable que la inteligencia artificial sustituya por completo al arte y a los artistas. En su lugar, la inteligencia artificial podrá utilizarse como herramienta para ayudar en el proceso creativo o generar nuevas ideas, pero el producto final seguirá requiriendo la perspectiva, la interpretación y la expresión únicas de un artista humano." [17].

Esta es la respuesta generada por el robot a partir de los datos que le han incrustado los programadores. Sophia resume que la creatividad es una parte necesaria de la experiencia humana: un medio de reflexión, un archivo de la vida y, en los casos más inspirados, un reflejo de lo divino. Y sin la experiencia humana, la propia IA no puede funcionar.

Gibson señala esto en dos lugares de Neuromante. El primero es una palabra, una contraseña, que hay que decir en un momento determinado al sistema para que se abra. Ciertamente hay aquí una referencia al Nuevo Testamento y a la idea del Logos, que una IA no puede tener. La segunda son las emociones, que la IA tampoco posee. Es posible fingirlas, pero no serán experiencias reales inherentes a los humanos. Para superar el último obstáculo dentro del ciberespacio, el hacker de la novela necesitaba ira: sin ella, no podría completar la misión.

Como muchos escritores de ciencia ficción, Gibson fue un profeta de su época. Pero hay muchas notas oscuras en sus profecías. Probablemente, la misma intuición se encuentra también en Ilon Musk, quien, a pesar de invertir él mismo en la IA, afirma que ésta podría destruir la civilización [18].

Referencias:

[1] - balkaninsight.com
[2] - wired.com
[3] - wsj.com
[4] - japannews.yomiuri.co.jp
[5] - https://ipis.ir/en/subjectview/722508
[6] - ft.com
[7] - weforum.org
[8] - energy.gov
[9], [15] - theguardian.com
[10] - project-syndicate.org
[11] - wired.co.uk
[12] - ft.com
[13] - wired.co.uk
[14] - project-syndicate.org
[16] - theamericanconservative.com
[17] - countere.com
[18] - cnn.com

Traducción: Enric Ravello Barber