Grok: todo lo que debes saber del peligroso mix entre la IA, el consentimiento y la violencia digital
Una experta socióloga y sexóloga da las claves de la peligrosa situación que se ha generado en la red con el retoque de imágenes de contenido sexual
En la era digital y con la llegada de la IA a nuestras vidas están sufriendo una auténtica revolución. Más allá de los beneficios y espaldarazos que las nuevas aplicaciones de inteligencia artificial nos aportan, los casos en los que generan problemas a sus usuarios no dejan de crecer. Más allá de las suplantaciones de personalidad o las estafas que ya se están produciendo con la IA en la trastienda, recientemente se han producido diversos episodios en los que diferentes usuarios han visto usurpadas sus fotografías y, tras pasarlas por una conocida aplicación de inteligencia artificial, se han obtenido y distribuido transformadas en desnudos. Junto a esta polémica se ha unido el caso de Grok el chatbot de inteligencia artificial generativa desarrollado por xAI (empresa de Elon Musk), y que está integrado en la plataforma X, que responde preguntas con ingenio y acceso a datos en tiempo real, inspirado en una novela de ciencia ficción y diseñado para ser más "rebelde" que otros asistentes. Y, aunque busca ser útil, también ha generado controversias por su capacidad de generar contenido polémico.
“Lo ocurrido con Grok no es una anécdota tecnológica ni un simple fallo de moderación: es una muestra alarmante de cómo la inteligencia artificial, si no se regula con perspectiva de género y de derechos, puede convertirse en una herramienta de violencia simbólica y sexual contra las mujeres", asegura Cecilia Bizzotto, socióloga, sexóloga y portavoz de JOYclub España.
No solo eso, la experta deja claras las líneas rojas que se traspasan con este tipo de prácticas: "La posibilidad de generar imágenes sexuales o desnudos no consentidos mediante IA supone una vulneración directa del consentimiento, que es un principio básico en cualquier interacción sexual, digital o no. El consentimiento no se presume, no se automatiza y, desde luego, no puede ser sustituido por un algoritmo entrenado sin límites éticos claros", explica Cecilia
En la plataforma que representa se lleva defendiendo una sexualidad libre, diversa y positiva, pero siempre basada en el respeto, la voluntariedad y la autonomía personal y por ello, la sexóloga se muestra muy preocupada por esta situación: "este tipo de usos de la IA son profundamente preocupantes: porque normalizan la cosificación, refuerzan la cultura de la violencia sexual y amplifican dinámicas de poder que históricamente han afectado a las mujeres. No estamos hablando solo de imágenes falsas. Estamos hablando del impacto psicológico, social y profesional que puede tener para una mujer verse sexualizada sin su consentimiento, de la dificultad para defenderse en entornos digitales y de la impunidad con la que estas prácticas se expanden cuando la tecnología va por delante de la ética y la legislación", asegura.
Junto con los peligros que ya conocemos, existe una cara b no vista que resulta muy intrigante: "tipo de chatbots y herramientas refuerzan una idea muy peligrosa: que el deseo masculino puede satisfacerse sin tener en cuenta a la otra persona, incluso aunque esa ‘otra persona’ no exista como sujeto, sino solo como objeto digital. Ese mensaje es incompatible con cualquier modelo de relaciones sanas, igualitarias y libres"
Para finalizar, la socióloga apunta a la falsa creencia de la objetividad de la IA. La inteligencia artificial no es neutral. Refleja los valores de quienes la diseñan y de la sociedad que la permite. Por eso es urgente exigir responsabilidades a las plataformas, establecer límites claros y situar el consentimiento en el centro también del desarrollo tecnológico. La libertad sexual no puede construirse sobre la vulneración de derechos. Y el futuro digital no puede avanzar sacrificando la seguridad y la dignidad de las mujeres”.