Manipulación e Influencia Algorítmica
La capacidad de las IA generativas para anticipar y reaccionar a las búsquedas en internet plantea riesgos significativos de manipulación de la opinión pública. Dado su poder para sintetizar información de múltiples fuentes y ofrecer respuestas coherentes y estructuradas, los modelos de IA generativa, como los modelos de lenguaje de gran escala (LLM), podrían explotarse para influenciar en los resultados de búsqueda de temas específicos. Esta manipulación sutil podría lograrse de dos maneras principales:
Predicción de búsquedas populares y creación de contenido tendencioso
Mediante el análisis de tendencias de búsqueda y comportamiento en línea, estos modelos pueden anticipar qué términos serán más buscados en temas sensibles, como elecciones, temas de salud, o conflictos sociales. Una vez identificadas estas tendencias, podrían generarse grandes cantidades de contenido que promueva una narrativa específica. En contextos donde la IA se utiliza para realizar búsquedas o proveer resúmenes (como en aplicaciones de servicios públicos o en plataformas de consumo masivo), la respuesta de la IA puede estar inclinada para «favorecer ciertos puntos de vista» o productos. Este tipo de manipulación, conocido como «influencia algorítmica», genera preocupación porque el contenido parecería imparcial, dado que la IA se presenta como una entidad objetiva. Y como digo en mi intervención en el Parlamento de Andalucía: «la IA nos dice y nosotros «
Aplicación de algoritmos para priorizar resultados parcializados
En contextos más técnicos, como el diseño de modelos que procesan solicitudes de información en sectores específicos (salud, finanzas, educación), una IA podría ser programada o entrenada para priorizar ciertos resultados y omitir o subestimar otros. Esto plantea problemas éticos y de transparencia, especialmente cuando se trata de temas complejos, donde la parcialidad no es fácilmente detectable y los usuarios pueden no cuestionar la veracidad o el sesgo de las respuestas proporcionadas. La falta de criterio es un arma que explota eficientemente la influencia algoritmica.
Regulación y medidas preventivas
En Europa, el Reglamento de IA de la Unión Europea (AI Act) busca establecer un marco legal que prohíba el uso de técnicas de manipulación subliminal y explotación de vulnerabilidades de los usuarios. Las normas proponen también evitar que se genere contenido de «social scoring» y establecer obligaciones para que las IAs sean auditables y responsables en sus resultados. A nivel práctico, los expertos recomiendan implementar filtros y auditorías (y personalmente creo que el Gobierno Andaluz camina en este sentido, para suerte de nuestra comunidad) que permitan identificar cuándo y cómo una IA podría estar promoviendo narrativas específicas. Además, el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial aprobado y publicado en «BOE» núm. 210, de 2 de septiembre de 2023, promueve el establecimiento de órganos de vigilancia que evalúen estos posibles sesgos y su impacto en la población.
Es crucial crear conciencia sobre la necesidad de transparencia y de ser capaz de explicar los resultados proporcionados en los sistemas de IA, para que los usuarios puedan evaluar críticamente la información generada. Además, se debe fomentar una educación digital que empodere a los ciudadanos (enlace en la web de noticiasdealmeria.com) a reconocer cuándo una IA puede estar ofreciendo contenido potencialmente parcializado o manipulativo, lo cual es clave para una sociedad informada y menos vulnerable a la manipulación algorítmica.
