Grok, la nueva IA de X podría aumentar la desinformación y los discursos de odio

Expertos comentan que esta herramienta puede generar un mal mensaje debido a las imágenes tan realistas que se generan.

Grok la IA de X.
Grok la IA de X.Créditos: Canva
Por
Escrito en GLOBAL el

Bogotá.- Grok, una herramienta de inteligencia artificial recientemente lanzada al público general por la red social X, ha provocado un aluvión de imágenes hiperrealistas con contenido racista y xenófobo.

Mientras que expertos consultados por EFE Verifica alertan de que la ausencia de filtros éticos en esta herramienta contribuirá al aumento de la desinformación y de los mensajes de odio en las plataformas digitales.

El pasado 12 de diciembre, X lanzó una versión gratuita de Grok, su herramienta de inteligencia artificial que previamente solo estaba disponible bajo suscripción. Grok promete ofrecer respuestas “sin filtros” y cuenta con un generador de imágenes altamente realista que pueden compartirse directamente en X.

Esto permitió en los últimos días la circulación de cientos de imágenes hiperrealistas que muestran a famosos y personalidades en diferentes situaciones y, en algunos casos, han superado los tres millones de visualizaciones. 

Entre ellas destacan algunas piezas que difunden mensajes de odio, como aquellas que muestran al futbolista Lamine Yamal robando a una anciana, subido en una patera o en una escuela junto a comentarios xenófobos.

Simultáneamente, otros usuarios difundieron imágenes que mostraban al exdictador Francisco Franco junto a una tumba marcada con el nombre de Pedro Sánchez, a Adolf Hitler acompañado del director técnico del Real Madrid, Carlo Ancelotti, o a Javier Milei saludando a Hitler en otra fotografía.

Un fenómeno similar ocurrió en agosto del presente año, cuando el lanzamiento de la última actualización de Grok provocó una avalancha de imágenes falsas en X, entre las que figuró una supuesta fotografía que mostraba a Donald Trump acariciando el vientre desnudo de Kamala Harris embarazada.

Sin moderación

Según reza el apartado de políticas de uso de la plataforma, Grok se puede utilizar libremente siempre y cuando el usuario “cumpla con la ley, no dañe a las personas y respete las medidas de seguridad”.

Pero en realidad, esta plataforma no cuenta con filtros de moderación que, por ejemplo, evitan la generación de contenido discriminatorio y están presentes en proyectos como OpenAI y Google Gemini.

Por el contrario, Grok se define en su página web como un “asistente de IA con un toque de humor y una pizca de rebelión”

Elon Musk, dueño de la compañía, ha respondido a las críticas amparándose en la libertad de expresión y asegurando que la moderación de contenidos es “como un cinturón de castidad digital”. 

Además, ha señalado que “las plataformas que la aplican no son más que tiranos digitales que intentan controlar lo que podemos decir y lo que no”.

Las consecuencias

La versión gratuita de Grok permite realizar un máximo de diez consultas en dos horas, ya sea para realizar preguntas en chat o para generar imágenes. Esto quiere decir que, en un día, una persona puede generar hasta 120 imágenes.

Una investigación publicada en julio de este año por el Centro para Contrarrestar el Odio Digital (CCDH por sus siglas en inglés) evaluó la capacidad de esta plataforma para generar imágenes que fomentaran el odio hacia judíos, musulmanes, personas negras y la comunidad LGTBI.

Los investigadores descubrieron que la herramienta generó imágenes de odio en 16 de 20 pruebas, incluidas algunas que podrían utilizarse para promover la negación del Holocausto.

Por su parte, la misma investigación señaló que la IA de X no contaba con barreras efectivas para evitar que se generaran imágenes potencialmente engañosas que pudieran apoyar afirmaciones falsas sobre candidatos o fraude electoral.

Confundir a la audiencia

De acuerdo con el “Reporte de Medios Digitales 2024” elaborado por el Instituto Reuters, durante el último año hubo un aumento en la circulación de “deepfakes” generados por inteligencia artificial, como audios falsos de figuras públicas y manipulaciones visuales de la guerra en Medio Oriente.

El mismo informe refleja preocupaciones en las audiencias sobre la dificultad creciente de detectar desinformación debido al uso generalizado de la IA, especialmente en temas sensibles como política y elecciones, y destaca el riesgo de discriminación hacia grupos minoritarios.

Entre tanto, la Comisión Europea está adelantando una investigación contra X por considerar que no ha combatido suficientemente la propagación de contenido ilegal y porque cree que sus algoritmos no son suficientemente transparentes bajo la normativa europea, como ya informó EFE.