Se bienvenido a estas tierras digitales...
...especialmente si eres un molino....
AI: Investigación y ética.
Democratización de la innovación
Que dice, bueno, se publica en Harvard Business Review un Special Issue sobre «How to thrive in a GenAI world». Es decir, «Cómo prosperar en un mundo impulsado por la IA Generativa»
Vamos a tener que digerirla sí o sí. Y si lo hacemos bien, nos puede ayudar. Nos debe ayudar. Pero, hoy, me encuentro especialmente prolijo y voy a terminar las contribuciones planificadas para hoy con una contribución no prevista.
Estoy preparando la charla que impartiré mañana, 15 de noviembre, ya que con motivo de San Alberto, la Facultad de Ciencias Experimentales organiza un Simposio de Investigación en Ciencias Experimentales. Y trataré de invitar a que la innovación se democratice. Es decir, voy a exponer un «flujo» de trabajo y a recomendar herramientas que permitan favorecer la productividad del candidato a doctor (aka doctorando).
Ahora todos innovarán…
Según dice la revista, el que la GenAI nos descargue de tareas mundanas nos hará más creativos. Pero esto no es verdad. No nos hará más creativo. La GenAI nos va a dirigir los caminos. O a abrir nuevos que serían impensables. Y esto va en relación a lo que he aportado en el Parlamento de Andalucía (ver noticiasdealmeria.com) Y es que si la IA lo dice la prole lo hace.
En 2017, tras buscar soluciones (muchas) a un colega (Química Analítica – UGR) se nos ocurrió modificar la codificación de los QR para que expresara dinamismo en función de condiciones ambientales. Y fue un impacto en la ciencia (que no se supo aprovechar, todo sea dicho) tanto que hasta la UGR lo anunció por toda Granada:
Pero, volviendo de Estados Unidos, leía esta revista (Harvard Business Review) y me encuentro con lo siguiente:
Preguntale a la IA que te va a alumbrar el camino. Con caminos, hasta ahora, inescrutables para el humano. Pero la cosa no queda ahí:
Y claro, si le pides «ideas» la genAI trabaja para tí, y te proporciona sugerencias. Entre ellas está la idea que generaría la patente que desde 2021 (se gestó en 2017, pero chico, la burocracia) tenemos.
Esto debe hacernos cuestionar el origen de la información que alimenta a estos motores de generación de «conocimiento». Y considerar que no se está dando el crédito merecido a quienes han desarrollado patentes, y conocimiento sobre el que ahora se proporciona casi sin otro esfuerzo que el de escribir un prompt ingenioso. No dejo caer que la idea publicada en HBR haya germinado de nuestras aportaciones, no. De otras similares, probablemente, pero quien recoja las ideas podrá hacer avanzar la ciencia, lo que no tengo tan claro es a quién atribuirle el mérito.
Oiga, y entonces ¿los sistemas de acreditación académica que permiten la promoción en las universidades? Que justo se apoya en el reconocimiento del mérito… Si ya se está bloqueando el reconocimiento del mérito cuando se publica en revistas del JCR (que están marcadas -discutible legalmente- como predadoras; no obstante, evidente desde la perspectiva práctica), ¿qué se debe hacer de ahora en adelante con los progresos científicos a la vista de lo expuesto?
¿Se acabará el abuso a los becarios, de las «granjas» de becarios, produciendo para sus supervisores? Es fundamental replantear este sistema que parece un ciclo interminable de explotación. Los becarios, muchas veces, son quienes realmente llevan el peso de la investigación, mientras que quienes supervisan, en ocasiones, se llevan el reconocimiento y el crédito. Esto abre un sinfín de interrogantes sobre la ética en la academia y sobre cómo se valora el trabajo de los jóvenes investigadores.
No sólo toca analizar la sociedad que nos viene, toca reformular hasta el sistema universitario. Es necesario crear un marco más equitativo donde el mérito sea reconocido de manera justa y donde las nuevas ideas sean valoradas en su justa medida, sin el temor constante a que sean apropiadas sin el debido reconocimiento. La colaboración y la transparencia son claves en este sentido. La comunidad académica debe unirse para construir un futuro donde el conocimiento fluya libremente y se reconozca debidamente a todos sus contribuyentes. Este cambio implica revisar los criterios de publicación, el proceso de revisión por pares, y el valor que se le da a las contribuciones individuales dentro de los equipos de investigación. Solo así podremos avanzar de manera significativa en el ámbito científico y académico.
¿Qué es la Influencia Algorítmica?
Este post pretende aclarar el concepto de influencia algorítmica que es justo en el que he basado el argumento sobre la posibilidad de manipulación y desinformación al que nos sometemos cuando, sin criterio, accedemos a las IA generativas. Huelga decir que Estados Unidos (VASA-I) ha considerado la IA un asunto de Seguridad Nacional. Por lo que debemos concienciarnos de que su uso ha de ser muy responsable.
La influencia algorítmica se refiere al impacto que los algoritmos pueden tener sobre las decisiones, percepciones y comportamientos de las personas al priorizar o presentar información de manera «específica». Esto es particularmente relevante cuando los algoritmos determinan qué contenido, anuncios o noticias se muestran primero en las redes sociales, los motores de búsqueda o en plataformas de video como YouTube. Esta práctica puede influir en la opinión pública, el consumo y hasta el comportamiento electoral.
Lejos de suponer que sea una práctica marginal, algunos casos que se pueden citar son:
Caso de Facebook y la personalización de noticias:
En 2014, se reveló que Facebook había realizado un experimento con sus usuarios en el que manipulaba el contenido mostrado en el feed de noticias para estudiar cómo los cambios en las emociones del contenido podían afectar el estado emocional de los usuarios.
Durante este experimento, la plataforma «alteró» los algoritmos para mostrar más contenido positivo a unos usuarios y más contenido negativo a otros. Los resultados demostraron que los usuarios expuestos a contenido predominantemente negativo comenzaron a publicar más mensajes negativos, mientras que aquellos que veían contenido positivo compartieron más publicaciones positivas. Este tipo de manipulación sutil, aunque fue con fines de estudio, es un claro ejemplo de cómo los algoritmos pueden influir en el estado de ánimo y, potencialmente, en la conducta social.
Elecciones y publicidad política:
Durante la campaña presidencial de 2016 en Estados Unidos, la empresa Cambridge Analytica utilizó datos de Facebook para diseñar y personalizar anuncios políticos dirigidos a ciertos perfiles psicológicos de votantes. El algoritmo optimizaba los anuncios de forma tal que cada usuario viera mensajes diseñados para resonar con sus valores, miedos y prejuicios específicos. Este tipo de influencia algorítmica polarizó a los votantes y demostró cómo la personalización excesiva puede tener un impacto significativo en el comportamiento electoral y en la opinión pública.
YouTube y la radicalización:
Se ha demostrado que el algoritmo de recomendaciones de YouTube, que optimiza para maximizar el tiempo de visualización, tiende a sugerir contenido progresivamente más extremo. Por ejemplo, si un usuario comienza viendo videos sobre teorías de conspiración «inofensivas», el algoritmo podría recomendarle videos con contenido más radical o teorías conspirativas más intensas, con el objetivo de mantener al usuario en la plataforma. Esta estrategia puede llevar a una forma de «radicalización algorítmica«, donde el usuario, al consumir contenido más polarizante, se expone a ideas extremas que posiblemente no habría buscado por sí mismo.
Cómo funciona la influencia algorítmica
Los algoritmos están diseñados para optimizar ciertos resultados o KPI (Indicadores Clave de Rendimiento), tales como el tiempo de visualización, el número de clics o el nivel de participación. Estos objetivos pueden llevar a los algoritmos a mostrar contenido que provoque reacciones emocionales fuertes (positivas o negativas), ya que es más probable que este tipo de contenido retenga a los usuarios. La inteligencia artificial y el aprendizaje automático analizan los comportamientos pasados de los usuarios para identificar patrones, lo cual les permite predecir qué tipo de contenido los mantendrá más tiempo en la plataforma o logrará la interacción deseada.
Sin embargo, el problema surge cuando estas predicciones y optimizaciones priorizan contenido que puede ser engañoso, sensacionalista o parcial, incrementando la polarización y la desinformación. En efecto, los usuarios no solo están expuestos a información cuidadosamente seleccionada, sino que también son guiados hacia una versión filtrada de la realidad que refuerza sus prejuicios y creencias previas, sin permitir un acceso equitativo a puntos de vista alternativos.
Implicaciones y desafíos: campo regulatorio por delante.
La influencia algorítmica plantea preocupaciones éticas y de derechos humanos, especialmente en el contexto de la democracia y la libertad de información. Si bien el Reglamento de Inteligencia Artificial de la UE prohíbe ciertas prácticas de manipulación que explotan vulnerabilidades emocionales o psicológicas, los límites de lo que se considera manipulación o personalización aceptable aún están en debate. Además, es esencial que los algoritmos de las plataformas de redes sociales y motores de búsqueda sean más transparentes y que las personas puedan tener control sobre la personalización de su experiencia en línea.
La influencia algorítmica es un tema complejo, pero la aplicación de normas claras y la concienciación del usuario (vuelvo a repetirlo, es preciso no menoscabar la capacidad crítica de la población) pueden ayudar a reducir sus efectos negativos y a fomentar una interacción más equilibrada y transparente con la tecnología.
Manipulación e Influencia Algorítmica
La capacidad de las IA generativas para anticipar y reaccionar a las búsquedas en internet plantea riesgos significativos de manipulación de la opinión pública. Dado su poder para sintetizar información de múltiples fuentes y ofrecer respuestas coherentes y estructuradas, los modelos de IA generativa, como los modelos de lenguaje de gran escala (LLM), podrían explotarse para influenciar en los resultados de búsqueda de temas específicos. Esta manipulación sutil podría lograrse de dos maneras principales:
Predicción de búsquedas populares y creación de contenido tendencioso
Mediante el análisis de tendencias de búsqueda y comportamiento en línea, estos modelos pueden anticipar qué términos serán más buscados en temas sensibles, como elecciones, temas de salud, o conflictos sociales. Una vez identificadas estas tendencias, podrían generarse grandes cantidades de contenido que promueva una narrativa específica. En contextos donde la IA se utiliza para realizar búsquedas o proveer resúmenes (como en aplicaciones de servicios públicos o en plataformas de consumo masivo), la respuesta de la IA puede estar inclinada para «favorecer ciertos puntos de vista» o productos. Este tipo de manipulación, conocido como «influencia algorítmica», genera preocupación porque el contenido parecería imparcial, dado que la IA se presenta como una entidad objetiva. Y como digo en mi intervención en el Parlamento de Andalucía: «la IA nos dice y nosotros «
Aplicación de algoritmos para priorizar resultados parcializados
En contextos más técnicos, como el diseño de modelos que procesan solicitudes de información en sectores específicos (salud, finanzas, educación), una IA podría ser programada o entrenada para priorizar ciertos resultados y omitir o subestimar otros. Esto plantea problemas éticos y de transparencia, especialmente cuando se trata de temas complejos, donde la parcialidad no es fácilmente detectable y los usuarios pueden no cuestionar la veracidad o el sesgo de las respuestas proporcionadas. La falta de criterio es un arma que explota eficientemente la influencia algoritmica.
Regulación y medidas preventivas
En Europa, el Reglamento de IA de la Unión Europea (AI Act) busca establecer un marco legal que prohíba el uso de técnicas de manipulación subliminal y explotación de vulnerabilidades de los usuarios. Las normas proponen también evitar que se genere contenido de «social scoring» y establecer obligaciones para que las IAs sean auditables y responsables en sus resultados. A nivel práctico, los expertos recomiendan implementar filtros y auditorías (y personalmente creo que el Gobierno Andaluz camina en este sentido, para suerte de nuestra comunidad) que permitan identificar cuándo y cómo una IA podría estar promoviendo narrativas específicas. Además, el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial aprobado y publicado en «BOE» núm. 210, de 2 de septiembre de 2023, promueve el establecimiento de órganos de vigilancia que evalúen estos posibles sesgos y su impacto en la población.
Es crucial crear conciencia sobre la necesidad de transparencia y de ser capaz de explicar los resultados proporcionados en los sistemas de IA, para que los usuarios puedan evaluar críticamente la información generada. Además, se debe fomentar una educación digital que empodere a los ciudadanos (enlace en la web de noticiasdealmeria.com) a reconocer cuándo una IA puede estar ofreciendo contenido potencialmente parcializado o manipulativo, lo cual es clave para una sociedad informada y menos vulnerable a la manipulación algorítmica.





