Ir directamente al contenido

Se bienvenido a estas tierras digitales...

...especialmente si eres un molino....

La última barrera de nuestra privacidad (II).

25 diciembre, 2024

La privacidad, en la era digital, ha sido invadida por tecnologías que prometen mejorar la seguridad, pero que simultáneamente erosionan nuestra autonomía. La implementación masiva de herramientas como el reconocimiento facial refleja no solo avances técnicos, sino también un modelo de poder que redefine las relaciones entre ciudadanos, gobiernos y corporaciones. Este fenómeno, profundamente explorado en el libro «La era del capitalismo de la vigilancia» de Shoshana Zuboff (que me sorprende aún más en la segunda lectura), conecta con el dilema planteado en los artículos que comienzan a emerger tratando el tema de la privacidad, destacando cómo estas tecnologías no solo transforman nuestra privacidad, sino que también refuerzan un modelo económico centrado en la extracción y explotación de datos personales.

Zuboff describe el capitalismo de la vigilancia como un nuevo sistema económico en el que los datos sobre nuestras acciones, comportamientos y emociones se recolectan sin nuestro consentimiento explícito, se procesan y se comercializan para generar predicciones cada vez más precisas sobre nuestro futuro comportamiento. Este sistema opera bajo una lógica extractiva similar a la de los antiguos colonialismos, donde el territorio a conquistar es la experiencia humana misma (la potencia de esta afirmación todavía me deja impactado). El reconocimiento facial se inserta perfectamente en este paradigma, permitiendo una vigilancia omnipresente que convierte nuestros rostros en datos monetizables, mientras se presenta como una herramienta para reforzar la seguridad.

Estas tecnologías, inicialmente concebidas para prevenir actos terroristas por ejemplo, se han expandido para abarcar usos que van mucho más allá de su propósito original. Por ejemplo, bases de datos que se diseñaron originalmente para identificar criminales se utilizan ahora para monitorizar a disidentes políticos o controlar el acceso a servicios esenciales. Esto crea un sistema que no solo vigila, sino que también implementa disciplina y controla, moldeando el comportamiento humano a través del miedo a ser observado. Conviene en este punto traer a colación el sistema de crédito social chino y como raiz de este asunto al postulado de Jeremy Bentham y su panopticón. En este sentido, el reconocimiento facial se alinea con lo que Zuboff llama «instrumentación conductual», un proceso en el que la vigilancia constante modifica nuestras decisiones. Cuando las personas saben que están siendo observadas, sus acciones cambian; se autocensuran, evitan ciertas actividades o incluso lugares (Panopticón). Este efecto no solo amenaza la privacidad individual, sino también las bases mismas de la democracia (y esto ya es muy serio), ya que el espacio público, donde se deben ejercer derechos como la protesta o la libre expresión, se transforma en un entorno de control absoluto.

Íntimamente relacionado con lo expuesto, encontramos el problema de los sesgos en los algoritmos de reconocimiento facial, un punto que Zuboff considera central en el capitalismo de la vigilancia. Estas tecnologías no son neutrales; heredan y amplifican las desigualdades existentes, afectando desproporcionadamente a grupos marginados. Los algoritmos, entrenados con datos históricos, reproducen patrones discriminatorios que convierten a ciertos colectivos en objetivos privilegiados de la vigilancia. Esto refuerza sistemas de exclusión que ya están presentes en nuestras sociedades, consolidando un control asimétrico que beneficia a los más poderosos. Esto ocurre y ocurrirá siempre.

Además, Zuboff alerta sobre cómo el capitalismo de la vigilancia redefine el concepto de consentimiento. En su lógica, los usuarios «aceptan» ser vigilados como una condición para participar en la vida digital, pero este consentimiento es más aparente que real. De forma similar, el reconocimiento facial implementado en espacios públicos no deja espacio para el consentimiento informado; simplemente somos capturados por las cámaras, y nuestros datos se procesan sin nuestro conocimiento o control. Esto nos convierte en sujetos pasivos de un sistema que prioriza la monetización de nuestros datos sobre nuestras libertades fundamentales. En Reino Unido existe una iniciativa denominada Big Brother Watch (el que vigila al Gran Hermano) que pretende concienciar sobre este problema.

La promesa de seguridad, uno de los argumentos más utilizados para justificar estas tecnologías, se desmorona al observar sus implicaciones a largo plazo. Las tasas de falsos positivos y negativos no solo limitan la eficacia del reconocimiento facial, sino que también aumentan los riesgos de abuso. Zuboff complementa esta crítica al señalar que la obsesión por recopilar datos no siempre se traduce en un incremento real de la seguridad. Más bien, esta acumulación desmedida sirve para alimentar sistemas que se vuelven cada vez más opacos e incontrolables, concentrando el poder en manos de quienes poseen las infraestructuras tecnológicas. No nos sorprenderá que las compañias de seguros estén detrás de estos sistemas (como ávidos compradores de la información que atesoran).

La raíz de mi preocupación por esta desmedida tendencia a la biometria invasiva se encuentra en la ausencia de regulación adecuada pues es los que agrava estos problemas. Para Zuboff, la regulación es una de las pocas herramientas que pueden limitar el alcance del capitalismo de la vigilancia, imponiendo salvaguardas que devuelvan a los ciudadanos el control sobre sus datos. La implementación de estas regulaciones enfrenta la resistencia de actores con intereses económicos y políticos que se benefician de la expansión de estas herramientas. Abrimos el melón de la especulación … .

¿Estamos dispuestos a aceptar la pérdida de nuestra privacidad como el precio a pagar por la comodidad y la seguridad? Zuboff nos advierte que esta dinámica es evitable; es el resultado de decisiones tomadas por actores específicos, y como tales, pueden ser desafiadas y revertidas. Requiere una movilización colectiva que cuestione la narrativa dominante de que la tecnología es inherentemente buena y neutral. Y lo es, pero no lo es si el uso no es trasparente.

Impacto de la IA en la Innovación y Seguridad Empresarial

24 diciembre, 2024

El avance vertiginoso de la inteligencia artificial generativa ha traído consigo una disrupción (como me gusta esta palabra) sin precedentes en la manera en que concebimos la creatividad y la propiedad del conocimiento. En mi blog, en entradas como La última barrera de nuestra privacidad o Cuando los LLM decidan por nosotros, ya he tratado temas sobre cómo la IA desafía nuestros principios éticos y legales más fundamentales. Pero al respecto de cómo aprenden (entrenan) los modelos ¿no os preguntáis sobre el origen del conocimiento? ¿quién puede reclamar la autoría y propiedad de lo que genera la IA? En mi entrada Democratización de la innovación ya avancé algo sobre este tema.

Los modelos de IA actuales, como los que subyacen en herramientas de uso masivo, son el resultado de entrenamientos basados en enormes cantidades de datos, muchos de ellos obtenidos sin consentimiento explícito de sus creadores originales. Este proceso, aunque tecnológicamente impresionante, levanta cuestiones éticas profundas. Por ejemplo, ¿es legítimo que una empresa genere valor económico a partir de un conocimiento que, en esencia, proviene del esfuerzo y la creatividad humana acumulada? ¿Peligran los royalties de las patentes?

El panorama jurídico es desigual y caótico (no citaremos el caso de China, que no hay por dónde cogerlo). Mientras que en países como Estados Unidos, los derechos de autor y las patentes exigen una contribución humana significativa, otras jurisdicciones, como Japón, adoptan una postura más permisiva, permitiendo entrenar sistemas de IA incluso con contenido protegido por derechos de autor . Este contraste refleja una crisis de armonización legal en un contexto global donde la IA no reconoce fronteras.

En Europa, la situación es distinta. La Unión Europea ha establecido el Reglamento de Inteligencia Artificial (AI Act), que entró en vigor en agosto de 2024. Este reglamento busca garantizar que los sistemas de IA sean seguros, éticos y respetuosos con los derechos fundamentales de las personas . Clasifica las aplicaciones de IA en función de su riesgo y establece obligaciones específicas para cada categoría. En España, la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) se encarga de supervisar la aplicación de este reglamento y está preparando la implementación de certificaciones sobre el uso de IA en el país . Estas certificaciones buscan garantizar la seguridad y el cumplimiento normativo, aunque podrían retrasar la llegada de nuevos productos al mercado.

Sin embargo, el impacto va más allá de lo ético o legal y se extiende a la seguridad corporativa. Utilizar datos no autorizados en el entrenamiento de modelos de IA puede exponer a las empresas a riesgos significativos, desde litigios por infracción de derechos hasta daños reputacionales. Las organizaciones que implementan sistemas de IA sin un control adecuado sobre las fuentes de datos pueden enfrentarse a consecuencias críticas, como ataques cibernéticos dirigidos, ya que los modelos generativos podrían filtrar, intencionadamente o no, información sensible aprendida de sus conjuntos de datos. Este riesgo subraya la necesidad de adoptar medidas de transparencia y trazabilidad en la construcción y el despliegue de estos sistemas. Tuve el honor de participar en el Grupo de Trabajo de Inteligencia Artificial para asesorar al Parlamento Andaluz y en el seno de este grupo pude destacar la necesidad de trabajar con fuentes de datos autorizadas y con modelos auditados.

En suma de lo expuesto, en entradas anteriores (https://elquijotedigital.com), he analizado cómo la privacidad y la autonomía están en juego frente a la capacidad de la IA para aprender y decidir por nosotros. Aquí la cuestión es más amplia: la IA no solo consume datos, sino que transforma ese conocimiento en nuevos productos que reconfiguran nuestra noción de creatividad.

¿Es justo proteger estas creaciones cuando la IA se nutre de décadas de conocimiento humano, muchas veces sin el debido reconocimiento?

El desafío no es solo tecnológico, sino también ético, político y de seguridad. A medida que estas tecnologías redefinen nuestras capacidades, debemos plantearnos si los marcos legales actuales son suficientes para proteger tanto a los creadores humanos como a las innovaciones que surgen de esta colaboración híbrida entre humanos y máquinas. Y, más importante aún, debemos garantizar que las decisiones empresariales alrededor de la IA no comprometan su propia estabilidad ni la confianza de sus stakeholders.

Reflexionar sobre este tema, como he argumentado en mis publicaciones, es esencial para entender hacia dónde nos dirigimos como sociedad en esta nueva era digital.

Por lo tanto, me gustaría provocar una discusión sana y fructífera en torno a este tema: ¿Cómo crees que deberíamos equilibrar innovación tecnológica, seguridad y respeto por el conocimiento humano?

He encontrado una entrada en un blog que también trata este tema. La dejo aquí para ampliar la información. Y un post de linkedIn que data de 2018.

Máquinas Microarquitectónicas Informales(µWM): técnica emergente con potenciales implicaciones en seguridad y ofuscación de código.

23 diciembre, 2024

Pueden entenderse como construcciones de código que permiten realizar computaciones a través de efectos secundarios y conflictos entre entidades microarquitectónicas como son los predictores de saltos y cachés.

Estas arquitecturas operan utilizando eventos no observables por las herramientas anti-ofuscación convencionales, lo que las hace ideales para la ofuscación de malware. Pueden usarse para realizar actividades fuera del modelo de seguridad. Además, dado que el estado actual de una arquitectura informal no se encuentra en la memoria regular sino que está codificado en el estado de los componentes microarquitecturales, las herramientas forenses tradicionales no pueden utilizarse para estudiar estas arquitecturas informales.

Se debe considerar que la capa microarquitectónica no es accesible directamente para los programas. Los programas pueden manipular implícitamente los componentes microarquitecturales (MA) al realizar una actividad regular. Ejemplos de componentes MA incluyen cachés, prefetchers y determinados buffers de la arquitectura. Muchos de estos mecanismos tienen estructuras de datos internas con un espacio de estados muy complejo. Aparte de los efectos en el tiempo (sobre todo nos importa el tiempo) de ejecución, estos mecanismos son completamente transparentes a los programas que ejecuta el procesador.

Al igual que las arquitecturas convencioanles, esta arquitectura informal construída virtualmente sobre las arquitecturas formales se componen de registros, puertas y circuitos. Pero se les denomina de otra forma:

  • Registros informales: Son capaces de almacenar datos, están implementados sobre los estados de componentes microarquitectónicos.
  • Puertas informales: Componentes básicos de computación que transforman los datos almacenados en los registros informales.
  • Circuitos informales: Conjuntos de puertas que implementan una lógica más compleja.

Ejemplo: Una arquitectura informal puede ofuscar código de malware para que su operación pasiva sea invisible hasta que se reciba un disparador. Y esto debemos comenzar a tenerlo MUY presente.

Aplicación práctica: FLEXO.

Como ejemplo de este concepto podemos citar a FLEXO. Ya que Flexo demuestra que las arquitecturas informales son una amenaza práctica a corto plazo.Permite crear máquinas informales a partir de código C/C++. Demuestra la practicidad al extender el empaquetador UPX para encriptar su carga útil y usar una máquina informal para la desencriptación. Flexo, permite calcular cualquier función booleana de N entradas.

Las máquinas informales son un nuevo enfoque para la computación que aprovecha las características microarquitectónicas de los procesadores. Tienen un gran potencial para la ofuscación de código y el desarrollo de malware.

Las arquitecturas informales son una tecnología emergente con el potencial de impactar significativamente el panorama de la seguridad. Recomiendo que se revise el github proporcionado acerca de Flexo pues demuestra la viabilidad de estas arquitecturas para aplicaciones del mundo real, lo que exige un mayor escrutinio y el desarrollo de estrategias de mitigación.

A fondo:

La idea subyacente consiste en utilizar efectos secundarios y conflictos en componentes microarquitecturales de los procesadores para realizar operaciones encubiertas.

El usar alternativas (canales laterales) para explotar el comportamiento no habitual de las arquitecturas en favor de un potencial ataque ya lo vimos con Spectre, en este caso ya se inferían estados de la microarquitectura usando medidas de tiempo. En este artículo se va a tratar el concepto de máquina (o arquitectura) informal, que son construcciones de código que aprovechan efectos secundarios en la microarquitectura (como predicción de saltos y efecto en las cachés) para realizar cálculos. Estos efectos no son observables mediante herramientas tradicionales como depuradores o emuladores, y ahí es precisamente donde radica su potencia para el desarrollo de malware (por ejemplo), especialmente peligroso en el caso de ransomware.

Las arqutecturas informales presentan grandes desafíos para los modelos de análisis y para las herramientas de detección de malware, dado que operan fuera del modelo arquitectónico de las herramientas de seguridad convencionales, como hemos visto en la introducción. Por ejemplo, pueden realizar tareas computacionales complejas (como implementar un SHA-1). Hay que remarcar que los cálculos realizados por estas arquitecturas son invisibles a las herramientas de análisis estático o dinámico, lo que supone un potencial enorme en la capacidad de ocultar código (tanto beneficioso como malicioso -es posible ocultar un código malicioso que crea una shell inversa, activado solo cuando recibe un disparador-).

¿Cómo funcionan?

Utilizan instrucciones del repertorio (especialmente cargas de memoria o saltos condicionales) y observan el tiempo de ejecución para inferir resultados. Aprovechan características tales como la ejecución especulativa (ver programa de ejemplo) para alterar estados microarquitecturales (observables indirectamente a través del tiempo de respuesta de las operaciones que usan la caché, los predictores de saltos, etc.) sin cambios en el estado arquitectónico observable.

Este tipo de comportamientos impacta directamente en las capacidades de defensa que actualmente conocemos. La complejidad de los efectos microarquitecturales dificulta significativamente el análisis y la emulación precisa, asegurando que los cálculos no puedan ser replicados fácilmente. Las técnicas actuales basadas en pruebas formales y análisis forense ya son prácticamente inutilizables contra estas máquinas informales ya que su estado no se encuentra en la memoria convencional, y por tanto estas herramientas de análisis tradicionales no pueden detectarlas.

¿Pero cuales son esos estados microarquitecturales que estas técnicas pueden usar para hacerse más difíciles de detectar?

Los procesadores modernos tienen múltiples capas funcionales, estos conceptos son fundamentales para todo ingeniero en informática. De hecho se dedican asignaturas obligatorias que guardan relación con este concepto en las titulaciones universitarias:

Capa arquitectónica (ISA, Instruction Set Architecture): La interfaz «visible» para los desarrolladores, que define cómo funcionan las instrucciones que un programa puede ejecutar.

Capa microarquitectural: Los componentes internos que implementan físicamente la arquitectura y optimizan la ejecución, como:

-Cachés.
-Predictores de saltos.
-Buffers de reordenamiento (relacionados con la optimización aplicada por los compiladores o por las unidades de hardware).
-Unidades de ejecución especulativa (relacionados con los predictores de saltos).

La microarquitectura no está diseñada para ser directamente manipulada por los programas, pero sus efectos indirectos (efectos secundarios) pueden ser analizados, por ejemplo, midiento el tiempo de las operaciones que se apoyan en ellos.

Considerando lo anterior, ¿cómo podemos -por ejemplo, midiendo el tiempo, aprovechar los elementos de la capa microarquitectural- para realizar otros cómputos no evidentes?

Efectos Secundarios

Consideremos el cambio de estado no intencionado en la microarquitectura que ocurre al ejecutar una instrucción.

Por ejemplo:

Evicción de caché: Acceder a una ubicación de memoria puede desplazar datos en la caché, dejando rastros que pueden ser medidos y utilizados para inferir información. Ver código de ejemplo 1.

Ejecución especulativa: El procesador predice el resultado de una rama condicional y ejecuta instrucciones antes de saber si eran correctas, dejando cambios temporales en componentes internos. Ver código de ejemplo 2.

Conflictos Microarquitecturales

Los conflictos ocurren cuando varios componentes del procesador compiten por los mismos recursos, lo que introduce comportamientos observables.

Ejemplos:

Colisiones en caché: Dos procesos que acceden a la misma línea de caché pueden provocar un «choque» que altera el rendimiento, detectable mediante la latencia de acceso.

Contención de recursos: Varias instrucciones que utilizan las mismas unidades funcionales (como ALU o FPU) pueden causar demoras detectables.

¿Cómo aprovechan estas cuestiones las máquinas informales?

Lo aprovechan para crear un sistema computacional basado en las transiciones de estados microarquitecturales, en lugar de depender exclusivamente de las instrucciones tradicionales.

Por ejemplo:

Los estados microarquitecturales, como el estado de la caché o las colisiones de un predictor de saltos, se usan como «memoria» para almacenar datos. Esto es lo que se conoce en el argot de este tipo de técnicas como registro informal. Ver código de ejemplo 1.

Las instrucciones regulares, como un acceso a memoria o una predicción de salto, se manipulan para alterar esos estados de manera controlada, realizando operaciones como suma o comparación. Que es algo parecido a una «operación», antes lo habíamos llamado puerta informal.

Al encadenar múltiples efectos secundarios y conflictos, somos capaces de construir operaciones completas, como una función de hash.

La potencia de esta técnica es evidente. Conseguimos invisibilidad ya que las operaciones realizadas a nivel microarquitectural no dejan rastros visibles en registros y memoria. Esto da paso a implementar funcionalidades en «canales laterales» del procesador. La complejidad es que debemos conocer exhaustivamente el hardware sobre el que trabajamos para poder explotarlo.

Y aquí, un ejemplo, en C. (poner código y ejemplo de ejecución) de la suma especulativa. Ver código de ejemplo 2.

Acceso a más documentación:

Slides sobre estas microarquitecturas.

Artículo y anexo al artículo

Privacidad en la Era Digital

3 diciembre, 2024

En un mundo marcado por la digitalización tan acelerada, las políticas de privacidad han evolucionado (aunque de manera dispar y no tan rápido como la digitalización) para responder a la creciente preocupación sobre el manejo de los datos personales. Desde finales del siglo XX las políticas de privacidad han reflejado tanto avances tecnológicos como una mayor sensibilidad regulatoria y social. Siempre para dar respuesta a avances como el comercio electrónico y a la protección de datos.

A finales del siglo XX, las políticas de privacidad comenzaron a consolidarse como herramientas utiles para la transparencia y confianza. En [1] los autores ofrecieron (2007) una primera revisión integral de los lenguajes de estas políticas, sentando las bases para su análisis sistemático. La entrada en vigor del Reglamento General de Protección de Datos (GDPR) en mayo de 2018 marcó un hito global, no sólo para las empresas europeas, sino también para aquellas que operan a nivel internacional, estableciendo un estándar de cumplimiento obligatorio. La multa de 50 millones de euros a Google en 2019 por falta de transparencia en la gestión de datos personales supuso un fenomenal respaldo a este marco que subrayó la importancia de la claridad en las prácticas organizativas.

Hoy en día, +162 países han promulgado leyes de privacidad de datos, mientras que +20 trabajan en proyectos legislativos. La investigación en políticas de privacidad ha ampliado su alcance a numerosos sectores siendo los más relevantes sectores como el de salud. A todo esto se le suma la aparición de herramientas basadas en aprendizaje automático y procesamiento del lenguaje natural que, como añadido importante, permiten analizar aspectos como la legibilidad, la accesibilidad y el cumplimiento normativo de estas políticas.

Numerosos investigadores han destacado notables discrepancias entre las prácticas de manejo de datos y las declaraciones de privacidad, evidenciando la necesidad de sistemas de revisión y control más robustos. Sectores como el de la salud enfrentan desafíos específicos relacionados con la claridad, la transparencia y el respeto a los derechos de los usuarios.

Los marcos regulatorios (políticas), liderados por la Unión Europea con el GDPR, han establecido un estándar global para el manejo ético y legal de los datos. Sin embargo, la implementación de estas politicas enfrenta obstáculos, desde la falta de uniformidad en las leyes regionales hasta las brechas en la comprensión y aplicación por parte de las organizaciones. Casos como la aplicación de técnicas de aprendizaje (machine learning, ML) para avanzar en la investigación sobre la legibilidad de las políticas demuestran que, en muchos sectores, estas políticas permanecen inaccesibles para el usuario promedio, lo que dificulta la confianza y la transparencia.

La inteligencia artificial generativa y otros campos más amplios (como el ML) añade otra capa de complejidad. Por un lado, ofrece herramientas para analizar y mejorar estas políticas; por otro, plantea riesgos éticos y de seguridad que requieren atención regulatoria. Desde la creación de deepfakes hasta el uso malintencionado en ataques de ingeniería social, estos modelos amplifican los desafíos inherentes al manejo de datos sensibles.

En síntesis, las políticas de privacidad han recorrido un largo camino, pero su desarrollo sigue siendo esencial en un mundo donde la tecnología redefine constantemente las reglas del juego. La colaboración entre reguladores, investigadores y la industria es crucial para garantizar que estas políticas evolucionen en paralelo con las tecnologías que buscan regular, promoviendo un equilibrio entre innovación, ética y derechos fundamentales.

Indudablemente, las ténicas de IA y ML han favorecido analizar la aplicación y expresión de éstas políticas, demostrando que aún queda mucho campo en el que avanzar.

Referencias

[1] Ponnurangam Kumaraguru, Lorrie Cranor, Jorge Lobo, and Seraphin Calo. 2007. A survey of privacy policy languages. 3rd Symposium on Usable Privacy and Security: Workshop on Usable IT Security Management (USM’07).ACM.