Ir directamente al contenido

Impacto de los modelos de lenguaje de gran tamaño: riesgos sistémicos y desafíos estructurales

14 junio, 2025

Introducción

El auge reciente de los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) ha revolucionado la inteligencia artificial y el procesamiento del lenguaje natural. Tecnologías como GPT, BERT o LLaMA han demostrado tener capacidades sorprendentes para generar y resumir texto (recordemos que los LLM imitan), responder preguntas e “imitar” patrones de lenguaje humano. Sin embargo, este progreso rápido también ha puesto bajo el foco la relación entre la inteligencia artificial y la sostenibilidad. Detrás de cada interacción con un chatbot o de cada modelo entrenado, hay un consumo significativo de energía y recursos materiales. Por ello, está surgiendo un debate crítico sobre el impacto medioambiental de estos sistemas, más allá de su mera huella de carbono.


Mi intención con este post es la de explorar de forma crítica y estratégica cómo los LLM afectan no solo al clima, sino también a la cadena de valor tecnológica, a la industria del software y hasta a la seguridad nacional. Sin duda existen riesgos sistémicos y desafíos estructurales que estos modelos plantean en el medio y largo plazo.

Huella ambiental de los LLM

Entrenar y operar modelos LLM conlleva un enorme consumo energético. Tan solo el proceso de entrenamiento de un modelo del tamaño de GPT-3 puede requerir del orden de 10 GWh (gigavatios-hora), aproximadamente lo mismo que el consumo anual de más de 1.000 hogares. Pero el gasto no termina ahí: una vez desplegados, los LLM también demandan electricidad constante para responder a miles de millones de consultas (¿Os acordáis cuando se empezó a difundir la idea de tener la landing page de google en color negro “para consumir menos energía” o cuando se estimó el gasto que suponía cada consulta en google”?) . Se estima que servicios como ChatGPT, con cientos de millones de usuarios, puedan llegar a consumir nmás de 1 GWh al día sólo para la inferencia, es un consumo equivalente a 33.000 viviendas. Estas cifras ilustran que estamos ante cargas energéticas comparables a las de pequeñas ciudades o barrios enteros sosteniendo un solo modelo.

El impacto medioambiental directo de este consumo se refleja en emisiones de CO2 y otros indicadores. Por ejemplo, se calculó que el uso mensual agregado de ChatGPT podría estar generando más de 260.000 kilogramos de CO2, comparable a las emisiones de unos 260 vuelos transatlánticos de Nueva York a Londres. Este dato sobre el uso mensual de ChatGPT proviene, tal cual, de un estudio realizado por la empresa de hosting KnownHost, y fue divulgado por Morning Brew. El artículo original de Morning Brew, titulado “ChatGPT produces CO2 equivalent of over 250 transatlantic flights monthly, study finds”, explica que el cálculo proviene de estimaciones de uso de data centers con 164 millones de usuarios mensuales de ChatGPT, lo que arrojaba (en cálculos) unas emisiones totales de 260 930 kg de CO₂ al mes. Puedes consultar este artículo (a mi me impactó) en:

Además de la huella de carbono, los centros de datos que alojan LLM requieren refrigeración intensiva con agua y aire.

Cuando comparamos el sector de la IA con otras industrias intensivas en energía, el panorama resulta alarmante. El conjunto de los centros de datos del mundo (incluyendo los que ejecutan IA) ya representan entre un 2,5% y 3,7% de las emisiones globales de gases de efecto invernadero, superando incluso al sector de la aviación civil.

El auge de los LLM y otras tecnologías digitales podría duplicar la demanda eléctrica de aquí a los próximos años, según el International Energy Agency, con un tercio de ese aumento proveniente solo de centros de datos. De forma similar, las comparaciones con la industria de las criptomonedas han empezado a aparecer. Si bien el consumo total de Bitcoin y otras redes blockchain sigue siendo mayor en términos absolutos, las trayectorias de los LLM muestran una tendencia ascendente preocupante. Si la computación ya emplea cerca del 3% de la electricidad mundial, la proliferación de la IA podría triplicar esa cuota en la década actual.

Impacto en la cadena de valor tecnológica

El despliegue de LLM no solo acarrea costes ecológicos, sino también reconfiguraciones profundas en la cadena de valor tecnológica. Uno de los efectos más notables es la concentración extrema de recursos computacionales en manos de unos pocos actores. Entrenar un LLM puntero requiere infraestructura de última generación. Esto genera barreras de entrada casi insuperables para empresas emergentes, centros de investigación más pequeños o países con menos recursos: sin acceso a supercomputación y energía barata, resulta inviable competir en la carrera de los LLM.

A esta concentración de poder computacional se suman dependencias críticas de hardware y energía (como hemos visto). Los chips más avanzados para IA (GPUs de alta gama, TPUs, etc.) son costosos y distribuidos según relaciones comerciales o geopolíticas.

Esto implica que el progreso en IA está atado a la disponibilidad de componentes físicos (semiconductores avanzados) y a un suministro eléctrico confiable y asequible (que en España, ahí lo dejo…). Cualquier disrupción en esas cadenas podría ralentizar o paralizar el avance de los LLM, afectando a todos quienes dependan de ellos. Sin mencionar el menoscabo que se produce cuando (como ha pasado recientemente) cae el servicio de acceso a los LLM (con ChatGPT) y caen -por tanto- todas las cadenas de optimización y automatización de servicios que están adoptando las empresas (muchas veces sin considerar las consecuencias).

El efecto cascada en la cadena de valor también se manifiesta en la relación entre startups y grandes corporaciones. Ante la imposibilidad de construir modelos desde cero, muchos actores pequeños optan por utilizar APIs o modelos pre-entrenados provistos por las grandes empresas, reforzando la dependencia hacia estas últimas. Las autoridades de competencia han empezado a observar con preocupación esta dinámica, sospechando que las big tech podrían estar reforzando posiciones dominantes: controlan la infraestructura, el expertise y la monetización de la IA, asfixiando la competencia abierta.

En definitiva, los LLM plantean un reto estructural: ¿cómo democratizar el acceso a la IA avanzada cuando el costo de entrada es tan alto? La sostenibilidad, en este contexto, no es solo ambiental sino también económica y de ecosistema: un oligopolio tecnológico concentrado puede inhibir la innovación diversificada y dejar a muchas comunidades fuera de los beneficios (y de las decisiones) ligados a la IA.

Consecuencias para la industria del software

La influencia de los LLM se extiende al paradigma de desarrollo de software y al modelo de negocio en la industria tecnológica. De hecho, estas IA han demostrado una capacidad sin precedentes para comprender y generar código, llegando a asistir en tareas de diseño de software, programación automatizada y mantenimiento; algo que la literatura identifica ya como un cambio de paradigma en la ingeniería de software. Tradicionalmente, crear software implicaba escribir código fuente siguiendo lógicas predefinidas. Ahora, con la irrupción de modelos pre-entrenados, comienza a gestarse un nuevo enfoque: software + modelo. En lugar de programar cada función desde cero, los desarrolladores integran un LLM en sus aplicaciones para aprovechar sus capacidades de generación o análisis de lenguaje. Esto agiliza ciertas tareas y permite funcionalidades antes impensables, pero también plantea dependencias técnicas (y claro, ¿revelación de la lógica de negocio a quienes poseen la capacidad de dominar esos modelos?). Por ejemplo, una aplicación de asistencia al cliente (chatbots) puede construirse en torno a un modelo lingüístico: si dicho modelo deja de estar disponible (o encarece su API), el producto entero se resiente. Además, el know-how del desarrollador pasa de ser puramente programación a ser gestión de datos, ajuste de modelos (fine-tuning) y control de calidad de las respuestas de la IA, lo que supone un cambio de mentalidad en el ciclo de vida de desarrollo de software.

Otra preocupación es el riesgo de monocultivo tecnológico en la esfera del software. Si toda una industria adopta soluciones basadas en los mismos pocos modelos de lenguaje, existe la posibilidad de fallos correlacionados a gran escala. Muchos LLM comparten la misma filosofía de diseño y conjuntos de datos similares, lo que significa que un mismo sesgo o vulnerabilidad podría manifestarse simultáneamente en varios sistemas aparentemente independientes. Al igual que en la biología un monocultivo es susceptible a una plaga específica, en tecnología una homogeneidad excesiva podría ocasionar problemas sistémicos: desde errores generalizados de razonamiento hasta brechas de seguridad explotables de forma masiva. La robustez del ecosistema software podría disminuir si todos dependen de la misma “semilla” algorítmica.

Este riesgo conecta con la tensión latente entre la innovación abierta y la propiedad cerrada de los modelos. Durante décadas, la industria del software floreció gracias al código abierto y estándares compartidos, que permitieron a comunidades enteras colaborar y auditar herramientas críticas. En el mundo de los LLM, sin embargo, estamos viendo una tendencia contraria: los modelos más avanzados suelen ser propietarios, entrenados con datos y recursos privados, y funcionan como cajas negras cuya sintaxis interna nadie externo conoce. Esto trae eficacia y velocidad de avance, pero a costa de la transparencia y la reproducibilidad científica. Por otro lado, varios proyectos de código abierto (como modelos publicados por iniciativas académicas o cooperativas) buscan democratizar el acceso a estas tecnologías, aunque enfrentan limitaciones de escala. La disyuntiva es clara: ¿debería la base del software del futuro descansar en unos cuantos modelos opacos controlados corporativamente, o en una diversidad de modelos accesibles y auditables? La respuesta tendrá implicaciones de largo alcance para la seguridad, la confianza del usuario y la capacidad de innovación desde la periferia.

Implicaciones para la seguridad nacional

La carrera por los LLM también adquiere una dimensión geopolítica. En términos de seguridad nacional, los países están evaluando el rol de la IA como factor estratégico, comparable en importancia a los semiconductores o a las redes 5G en años recientes. Uno de los puntos críticos es la soberanía digital: si una nación depende exclusivamente de modelos de lenguaje alojados en infraestructuras extranjeras, su autonomía tecnológica se ve comprometida. Esto preocupa particularmente a la Unión Europea, que tras años pregonando el lema de “IA made in Europe”, reconoce que el control de las empresas estadounidenses sobre las plataformas digitales en Europa no ha hecho sino aumentar. La incapacidad de “mantenernos sobre nuestros propios pies” en el ámbito de la IA tendrá un precio alto y va a dejar a la UE vulnerable a intereses foráneos.

Las infraestructuras que soportan los LLM, grandes centros de datos, cables de telecomunicaciones, suministro eléctrico estable se están convirtiendo en activos críticos de seguridad. Al concentrarse muchas de estas instalaciones en ciertos países o bajo control de unas pocas empresas, surgen vulnerabilidades potenciales. Por ejemplo, una interrupción en la infraestructura de nube de un proveedor dominante podría impactar no solo a empresas, sino a servicios gubernamentales de otras naciones que la utilicen (y ya hemos tenido los dos avisos, primero el corte de suministro eléctrico en la península y luego la falta de servicio de chatGPT ). Asimismo, el enorme consumo energético de la IA puede convertirse en un talón de Aquiles: instalaciones que requieren decenas de megavatios podrían ser objetivos estratégicos en conflictos (os recomiendo consultar el manual de Tallinn), o verse afectadas por restricciones energéticas en tiempos de crisis. Incluso la explotación de datos sensibles es un flanco: si los modelos son entrenados o alojados en jurisdicciones con legislaciones distintas, el tratamiento de datos confidenciales (personales, empresariales o estatales) podría escaparse del control local.

En el tablero global, la IA generativa ya es vector de influencia geoestratégica. Quienes lideren en esta tecnología podrían obtener ventajas en inteligencia, ciberseguridad, economía y disuasión militar. De ahí que Estados Unidos y China estén inmersos en una auténtica carrera por el liderazgo en IA, arrastrando tras de sí a otras potencias y bloques regionales. El control de los insumos críticos (como los semiconductores avanzados necesarios para entrenar LLM, o las grandes reservas de datos) se equipara a una nueva versión de la carrera armamentística digital. Un ejemplo palpable es el bloqueo a la exportación de ciertos chips de alta gama hacia países rivales, justamente para limitar su capacidad de desarrollar IA militarmente avanzada. En comparación con sectores como el petróleo o la energía nuclear, la IA aún es incipiente en regulaciones internacionales, pero su creciente peso sugiere que pronto estará en las mesas de negociación diplomáticas. Las naciones tendrán que equilibrar la cooperación (para establecer estándares y evitar usos malignos de la IA) con la competición (para no quedarse atrás en capacidad tecnológica).

Retos estratégicos a medio y largo plazo

Frente a este panorama, emergen varios dilemas éticos y regulatorios que nuestras sociedades deberán afrontar. Por un lado, está la cuestión de la responsabilidad ambiental: ¿Deberían las empresas y laboratorios declarar el impacto ecológico de sus sistemas de IA de gran escala? En 2024, Salesforce propuso políticas para exigir que los proveedores de IA divulguen sus emisiones de carbono y la eficiencia energética de sus modelos, dentro de un marco de “IA sostenible”. Esta iniciativa reconoce que los LLM conllevan no solo beneficios económicos sino también riesgos ambientales considerables, y que la transparencia en este aspecto es crucial para una regulación adecuada.

Otro reto estratégico será impulsar alternativas más sostenibles y resilientes en el diseño de IA. Esto implica varias líneas de acción. Primero, desarrollar modelos más pequeños y especializados que logren resultados competitivos con una fracción de los recursos. La investigación en técnicas como la distilación de modelos, la cuantización o el entrenamiento multimodal eficiente busca precisamente hacer más con menos. Segundo, fomentar la eficiencia algorítmica: no siempre la solución es sumar más GPUs; de hecho, los avances algorítmicos han demostrado ser capaces de reducir enormemente las necesidades de cómputo para un mismo objetivo. Un análisis de OpenAI mostró que entre 2012 y 2019, gracias a mejores algoritmos, se consiguió entrenar modelos de visión con el mismo nivel de desempeño utilizando 44 veces menos cómputo que antes. Este tipo de mejoras “invisibles” al usuario final son las que podrían marcar la diferencia entre una IA insostenible y otra optimizada. Y tercero, está la apuesta por el edge computing o computación en el extremo: llevar ciertas capacidades de IA fuera de los macro centros de datos hacia dispositivos locales (desde smartphones hasta servidores pequeños in situ). Ya existen avances que permiten ejecutar modelos avanzados de lenguaje en hardware convencional con relativa eficiencia.

En conjunto, estos retos requieren no solo innovación tecnológica sino también voluntad política y colaboración multisectorial.

Se plantean preguntas difíciles: ¿Habrá que poner límites regulatorios al tamaño o consumo de los modelos? ¿Cómo asegurar que el progreso en IA no entre en contradicción con los compromisos climáticos globales? La ética de la IA ya no puede ignorar su dimensión medioambiental, así como las políticas tecnológicas nacionales deberán integrar la sostenibilidad como eje estratégico.

No comments yet

Deja un comentario