Nvidia no solo se ha convertido en el motor indiscutible del auge tecnológico global, sino que también protagoniza las carteras de los pequeños inversores en España. Según los datos revelados este lunes por el neobanco Revolut, el gigante de los semiconductores se consolida como el valor estadounidense más negociado por los españoles, un fenómeno que coincide con la presentación de un nuevo avance técnico de la compañía capaz de abaratar drásticamente los costes de la inteligencia artificial.
El perfil del inversor y la apuesta por la defensa
El informe de la entidad financiera dibuja un cambio de tendencia en el ahorro nacional. Rolandas Juteika, responsable de Patrimonio y Trading para Europa de Revolut, asegura que el ecosistema de inversión en España está madurando claramente. “Vemos a más personas invirtiendo desde edades más tempranas, adoptando nuevos hábitos y utilizando soluciones automatizadas para generar patrimonio a largo plazo”, señala el directivo.
Aunque Nvidia lidera en el mercado americano, en el parqué europeo las miradas se dirigen hacia la alemana Rheinmetall, impulsada por el tenso contexto geopolítico y el auge del sector defensa. Asimismo, destaca la fuerte entrada de flujos hacia la gestión pasiva: los fondos cotizados (ETF) indexados al S&P 500 de Estados Unidos son una de las opciones favoritas. De hecho, en los planes de inversión con aportaciones automáticas —donde la inversión recurrente media alcanza los 61 euros mensuales—, estos fondos del índice americano acaparan el 40% de las operaciones. A gran distancia, pero ganando terreno como herramienta de diversificación global, aparece el iShares Core MSCI World con un 5% del volumen.
La radiografía sociodemográfica muestra que el perfil medio del inversor español corresponde a un hombre de 34 años con una cartera de unos 4.400 euros. Pese al apetito por el riesgo —un 18% del capital va a acciones de EE. UU. y un 13% a ETF—, la prudencia sigue imperando: el 62% de los activos custodiados por la entidad se concentra todavía en fondos monetarios a través de sus ‘Cuentas Flexibles’.
Un salto técnico para justificar la euforia bursátil
El interés de los inversores por Nvidia no es casual y se sustenta en su capacidad de innovación constante. Investigadores de la compañía acaban de desarrollar una técnica pionera, denominada dynamic memory sparsification (DMS), que promete reducir hasta ocho veces los costes de memoria en el razonamiento de los grandes modelos de lenguaje (LLM).
Este avance ataca directamente uno de los cuellos de botella más críticos de la industria: la gestión de la caché KV (clave-valor). Esta memoria temporal, que los modelos generan y almacenan mientras procesan instrucciones o analizan documentos, suele crecer de forma lineal a medida que la IA “piensa”. Para mejorar su rendimiento en tareas complejas, los modelos actuales generan cadenas de pensamiento paso a paso antes de dar una respuesta final. Este proceso consume cantidades ingentes de memoria VRAM en las unidades de procesamiento gráfico (GPU).
La economía de la infraestructura
Cuando la memoria se satura, el hardware se ve obligado a dedicar más tiempo a leer datos que a realizar cálculos, lo que ralentiza la generación de respuestas y limita severamente el número de usuarios que un sistema puede atender simultáneamente sin colapsar. Piotr Nawrot, ingeniero sénior de Deep Learning en Nvidia, enmarca este problema no solo como un reto técnico, sino económico. “La cuestión no es solo la cantidad de hardware; se trata de si tu infraestructura está procesando 100 hilos de razonamiento u 800 por el mismo coste”, explicó a VentureBeat.
Hasta la fecha, la industria había intentado solventar este problema mediante enfoques heurísticos, como la “ventana deslizante”, que elimina los datos antiguos para liberar espacio. Sin embargo, estas reglas rígidas a menudo obligan al modelo a descartar información crítica, degradando la calidad de la respuesta. La nueva propuesta de Nvidia logra comprimir la caché descartando gran parte de la información innecesaria, pero manteniendo —e incluso mejorando en algunos casos— las capacidades de razonamiento del modelo. Un hito de eficiencia que explica, en buena medida, por qué tantos inversores españoles siguen confiando sus ahorros al futuro de la tecnológica californiana.





