Los impactantes abismos de la inteligencia artificial
Sustituir la realidad y analizarla en profundidad: los nuevos programas son capaces de ello.
La inteligencia artificial es una de esas tecnologías críticas que se están desarrollando rápidamente, y su aplicación se está llevando a cabo en una amplia variedad de campos. Aunque hay casos en los que estas innovaciones claramente no son beneficiosas, sino que se utilizan con fines destructivos.
El primer ejemplo está relacionado con la sustitución de la realidad en Venezuela. Dado que existe una posibilidad real de ser condenado a prisión por incitar a las protestas, los estrategas de la oposición han dominado un nuevo truco para la manipulación de los medios de comunicación: crearon presentadores de noticias virtuales como «Bestie» y «Buddy» para publicar informes críticos con el gobierno en las redes sociales. Este innovador enfoque con avatares virtuales, que forma parte del proyecto «Operación Retweet», les permite decir casi cualquier cosa, eludiendo responsabilidades. La «Operación Retweet», a su vez, forma parte de las iniciativas #VenezuelaVota y #LaHoradeVenezuela.
Por primera vez, apareció información al respecto el 16 de agosto en la CNN, que es el altavoz de los globalistas.
Los vídeos de la «Operación Retweet» se publican en plataformas de medios sociales como X (antes Twitter),YouTube, TikTok, Facebook e Instagram. En estas plataformas digitales, avatares de inteligencia artificial comparten información sobre temas de actualidad en Venezuela. El primer episodio, publicado el 14 de agosto, estuvo dedicado al número de detenidos tras las elecciones presidenciales y a cómo afecta la crisis política del país a la economía.
Obviamente, todo esto se muestra no desde la posición del Estado de Derecho y la soberanía, sino desde el punto de vista de la oposición y los intereses del principal instigador de la crisis actual: Estados Unidos.
Es bastante probable que el propio método fuera sugerido por patrocinadores del Departamento de Estado estadounidense.
La estrategia, en general, es bastante innovadora, incluso en materia de evasión de responsabilidades. Después de todo, si un presentador ordinario puede enfrentarse a un proceso penal por declaraciones que son claramente ilegales, ¿qué decir de un avatar virtual? Hay que buscar a su creador, periodistas, reporteros y editores, lo que complica claramente las acciones de investigación.
Una situación similar, pero con una dimensión ligeramente diferente, se está dando ahora en Corea del Sur. Hay un auge de deepfakes eróticos y pornográficos generados por IA.
En un delito reciente, varios estudiantes de secundaria de Busan crearon falsificaciones pornográficas de sus compañeros y profesores de su centro y las publicaron en una sala de chat de grupo en KakaoTalk. Se han dado casos similares en unos 150 institutos y colegios de todo el país. Según se ha publicado en las redes sociales, se han dado casos similares en unos 150 centros de enseñanza media y secundaria de todo el país. Esto sugiere un problema generalizado de delitos de deepfake perpetrados por adolescentes acostumbrados a los contenidos digitales.
Según las investigaciones del Hankyoreh, los delitos de deepfakes en unidades militares han alcanzado niveles graves. Se supo que algunos de los deepfakes que implicaban a mujeres soldados utilizaban fotografías de identificación y certificaciones oficiales del gobierno a las que sólo se podía acceder en la intranet militar. Dado que a esa intranet sólo pueden acceder personas con información privilegiada, esto sugiere que el alcance de tales delitos es realmente amplio.
Pero poco puede hacer el gobierno, por lo que el grupo coreano de defensa de los derechos de la mujer Womenlink afirma que las mujeres siguen «viviendo sin Estado» porque ya no creen que su país les proporcione la protección necesaria.
Sin embargo, la realidad falla no sólo por culpa de gamberros, como en Corea del Sur, o de activistas con motivaciones políticas, como en Venezuela.
En agosto de 2024, altos funcionarios electorales de Michigan, Minnesota, Nuevo México, Pensilvania y Washington enviaron una carta a Elon Musk quejándose de que el chatbot de inteligencia artificial de la plataforma X, Grok, produjo información falsa sobre los plazos de las votaciones estatales poco después de que el presidente Joe Biden abandonara la carrera presidencial de 2024.
Los secretarios de Estado pidieron que el chatbot dirigiera a los usuarios que hicieran preguntas relacionadas con las elecciones a un sitio web de información electoral.
Elon Musk se adelantó a las demandas de los funcionarios. Curiosamente, Alabama, Indiana, Ohio y Texas también fueron mencionados en la difusión de la información poco fiable sobre el momento de la votación, aunque no se recibió ninguna carta de los dirigentes de estos Estados.
La información falsa siguió repitiéndose durante 10 días. Se desconoce la razón por la que se facilitó dicha información.
Si estos casos ilustran una distorsión de la realidad y su sustitución, también existe el enfoque opuesto: un análisis exhaustivo y en profundidad de los datos. En teoría, puede utilizarse en diversos campos, pero ahora lo explotan activamente el ejército y los servicios de inteligencia estadounidenses.
El director de datos e innovación digital de la Agencia Nacional de Inteligencia Geoespacial (NGA, en inglés), Mark Munsell, afirmó que la NGA ha empezado recientemente a entrenar algoritmos de inteligencia artificial en su tesoro único de datos visuales y textuales. Durante décadas, la agencia de inteligencia estadounidense ha acumulado grandes cantidades de datos bien etiquetados, bien organizados y cuidadosamente examinados, incluido un archivo inigualable de imágenes por satélite. Para procesarlos, la agencia necesitaba dedicar mucho tiempo e implicar a un gran número de personal. Pero ahora estos archivos intentan combinarse con los informes de personas cuidadosamente seleccionadas sobre lo que ven en esas imágenes.
Existen grandes modelos lingüísticos que funcionan exclusivamente con texto: Se entrenan con texto, reciben datos de entrada en forma de texto y emiten respuestas en forma de texto. Otras formas de inteligencia artificial generativa pueden correlacionar texto e imágenes lo suficientemente bien como para convertir las indicaciones escritas de los usuarios en imágenes o incluso en vídeo.
Y ahora, el ejército y los servicios de inteligencia estadounidenses anuncian un nuevo enfoque y la próxima frontera: la IA multimodal. La capacidad crucial consiste en cruzar distintos tipos de información sobre la misma cosa, como una imagen o un vídeo con el pie de foto asociado que lo describe con palabras, de forma muy parecida a como el cerebro humano puede asociar una idea o un recuerdo con información procedente de todos los sentidos.
William Corvey, director del programa DARPA, señaló también en la mesa redonda de la Alianza de Inteligencia y Seguridad Nacional (INSA) que la IA multimodal puede funcionar incluso con sentidos de los que carecen los seres humanos, como las imágenes infrarrojas, las señales de radio y radar o el sonar.
«Imaginemos sistemas multimodales que puedan conciliar información visual y lingüística y otros tipos de modalidades de sensores que podrían estar disponibles para un robot pero no lo están para un ser humano». dice Corvey con admiración.
Los algoritmos modernos de IA han demostrado ser perfectamente capaces de trabajar con imágenes, vídeo y todo tipo de datos de sensores, no sólo texto, porque pueden abstraer todos y cada uno de ellos en las mismas representaciones matemáticas.
Por eso, el ejército estadounidense está tratando de utilizarlo para llevar diversos datos a un denominador común y a una orientación más clara. Y este enfoque se utiliza en todas partes.
El FBI está utilizando tecnología basada en IA para evaluar las pistas y asegurarse de que se identifican con precisión, se priorizan y se procesan a tiempo. El Open Source Enterprise de la CIA lanzó una herramienta interna de IA «estilo Chat-GPT» para permitir a los analistas tener «un mejor acceso a la inteligencia de fuente abierta», y la NSA abrió un «Centro de Seguridad de Inteligencia Artificial», centrado en defender «la IA de la Nación a través de la colaboración impulsada por Intel con la industria, el mundo académico, la Comunidad de Inteligencia (IC) y otros socios gubernamentales».
Aunque es de suponer que las nuevas tecnologías darán ventaja a las fuerzas de seguridad estadounidenses, hay que recordar la otra cara de la moneda: toda esta información se utilizará contra posibles adversarios, que en Washington incluyen a China, Rusia y otros países. Y desde su punto de vista, tal aplicación de la inteligencia artificial es también destructiva.